WO2012002048A1 - 頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム - Google Patents

頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム Download PDF

Info

Publication number
WO2012002048A1
WO2012002048A1 PCT/JP2011/060981 JP2011060981W WO2012002048A1 WO 2012002048 A1 WO2012002048 A1 WO 2012002048A1 JP 2011060981 W JP2011060981 W JP 2011060981W WO 2012002048 A1 WO2012002048 A1 WO 2012002048A1
Authority
WO
WIPO (PCT)
Prior art keywords
head
image
attribute determination
head detection
preliminary
Prior art date
Application number
PCT/JP2011/060981
Other languages
English (en)
French (fr)
Inventor
植木 一也
Original Assignee
Necソフト株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソフト株式会社 filed Critical Necソフト株式会社
Priority to JP2012522506A priority Critical patent/JP5451883B2/ja
Priority to CN201180032670.6A priority patent/CN102971766B/zh
Priority to US13/807,677 priority patent/US8917915B2/en
Publication of WO2012002048A1 publication Critical patent/WO2012002048A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to a head detection method, a head detection device, an attribute determination method, an attribute determination device, a program, a recording medium, and an attribute determination system.
  • a technique for detecting a person in an image using pattern recognition is performed, for example, by detecting part of a face (for example, eyes, nose, mouth, etc.), head, and skin color (for example, patents). Reference 1).
  • scanning is performed by finely shifting an image patch in a predetermined area with respect to image data (original image) to be detected, and it is determined whether the image is a head image or the like. The determination is performed, for example, by referring to a learning image acquired in advance.
  • an image patch that is captured at a predetermined position and size is a positive example head image, and a head that is out of position or size is negative (negative example).
  • the size of the original image (detection target image) 70 can be changed in multiple stages, and scanning is performed for each size. In this case, heads of various sizes can be found by making the original image 70 smaller and searching while moving the image patch 71 in the same manner.
  • the head may be missed.
  • the patch is moved finely, it takes time for detection processing.
  • the head may be missed unless the original image is gradually reduced. However, if the original image is gradually reduced, it still takes time for detection processing.
  • the present invention provides a head detection method, a head detection device, an attribute determination method, an attribute determination device, a program, a recording medium, and an attribute determination system that detect a head in an image at high speed and accurately. Objective.
  • the head detection method of the present invention comprises: A preliminary head detection model obtained as a positive example of an image including at least a part of the head in a predetermined image region defined in advance, and an image including no head as a negative example; A state in which the head is included in a state that matches a predetermined position and size in the predetermined image area as a positive example, and does not match at least one of the predetermined position and size And a deterministic head detection model obtained as a negative example of an image containing the head in An image acquisition step of acquiring a detection target image; A preliminary head detection step of cutting out the prescribed image region of the detection target image as an image patch and detecting a head image from the detection target image with reference to the preliminary head detection model; A deterministic head detection step of detecting a definite head image with reference to the deterministic head detection model from among the plurality of head images acquired by the preliminary head detection step. It is characterized by that.
  • the head detecting device of the present invention is A preliminary head detection model obtained as a positive example of an image including at least a part of the head in a predetermined image region defined in advance, and an image including no head as a negative example; A state in which the head is included in a state that matches a predetermined position and size in the predetermined image area as a positive example, and does not match at least one of the predetermined position and size; A deterministic head detection model obtained as a negative image including the head in Image acquisition means for acquiring a detection target image; Preliminary head detection means for cutting out the prescribed image region of the detection target image as an image patch and detecting a head image from the detection target image with reference to the preliminary head detection model; Deterministic head detecting means for detecting a definite head image with reference to the deterministic head detection model from among the plurality of head images acquired by the preliminary head detecting means. It is characterized by that.
  • the attribute determination method of the present invention includes: A head detection step of detecting the head by the head detection method of the present invention; An attribute determination step of determining an attribute from the image of the head.
  • the attribute determination apparatus of the present invention is A head detecting means for detecting the head by the head detecting device of the present invention; And attribute determination means for determining an attribute from the image of the head.
  • the program of the present invention causes a computer to execute at least one of the head detection method of the present invention and the attribute determination method of the present invention.
  • the recording medium of the present invention records the program of the present invention.
  • the attribute determination system of the present invention is Image acquisition means for acquiring a detection target image;
  • a preliminary head detection model obtained as a positive example of an image including at least a part of the head in a predetermined image region defined in advance, and an image including no head as a negative example;
  • a deterministic head detection model obtained as a negative image including the head in At least one of an attribute determination model and an attribute determination rule for determining an attribute from the image of the head;
  • Preliminary head detection means for cutting out the prescribed image region of the detection target image as an image patch and detecting a head image from the detection target image with reference to the preliminary head detection model;
  • Deterministic head detection means for detecting a definitive head image with reference to the deterministic head detection model from a plurality of head images acquired by the preliminary head detection means;
  • a head detection method it is possible to provide a head detection method, a head detection device, an attribute determination method, an attribute determination device, a program, a recording medium, and an attribute determination system that detect a head in an image quickly and accurately. it can.
  • FIG. 1A is a flowchart showing an example (Embodiment 1) of the head detection method of the present invention.
  • FIG. 1B is a block diagram showing a configuration of an example (Embodiment 1) of the head detection device of the present invention.
  • FIGS. 2A to 2F are diagrams for explaining an example of acquisition of a preliminary head detection model in the present invention.
  • FIGS. 3A and 3B are diagrams illustrating an example of a preliminary head detection process in the head detection method of the first embodiment.
  • FIGS. 3C and 3D are diagrams for explaining an example of a definitive head detection step in the head detection method of the first embodiment.
  • FIG. 4A is a flowchart showing another example (embodiment 2) of the head detection method of the present invention.
  • FIG. 1A is a flowchart showing an example (Embodiment 1) of the head detection method of the present invention.
  • FIG. 1B is a block diagram showing a configuration of an example (Embodiment 1) of
  • FIG. 4B is a block diagram showing a configuration of another example (Embodiment 2) of the head detecting apparatus of the present invention.
  • FIG. 5A is a flowchart showing an example (third embodiment) of the attribute determination method of the present invention.
  • FIG. 5B is a block diagram illustrating a configuration of an example (third embodiment) of the attribute determination apparatus of the present invention.
  • FIG. 5C is a block diagram illustrating another example of the attribute determination apparatus according to the third embodiment.
  • FIG. 6 is a block diagram showing a configuration of an example (embodiment 5) of the genus bottom determination system using the attribute determination device of the present invention.
  • FIG. 7 is a diagram illustrating an example of a method for detecting a head in the related art.
  • FIG. 1A shows a flowchart of a head detection method in the present embodiment.
  • FIG. 1B shows a block diagram of the head detecting apparatus in the present embodiment.
  • the head detecting apparatus of the present embodiment includes an image acquisition unit 111, a calculation unit 120, an output unit 131, and a data storage unit 140 as main components.
  • the image acquisition unit 111 is electrically connected to the calculation unit 120.
  • the computing means 120 is electrically connected to the output means 131 and the data storage means 140.
  • the calculation means 120 includes a preliminary head detection means 121 and a definitive head detection means 122.
  • the data storage means 140 stores a preliminary head detection model 141 and a definitive head detection model 142 acquired in advance.
  • the preliminary head detection means 121 is connected to the preliminary head detection model 141.
  • the definite head detection means 122 is connected to the deterministic head detection model 142.
  • Examples of the image acquisition means 111 include a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, and an image scanner.
  • An example of the calculation unit 120 is a central processing unit (CPU).
  • Examples of the output means 131 include a monitor that outputs video (for example, various image display devices such as a liquid crystal display (LCD) and a cathode ray tube (CRT) display), a printer that outputs by printing, a speaker that outputs by sound, and the like. It is done.
  • the output means 131 is an arbitrary component and may not be included in the head detecting device of the present invention, but is preferably included.
  • Examples of the data storage means 140 include a random access memory (RAM), a read only memory (ROM), a hard disk (HD), an optical disk, a floppy (registered trademark) disk (FD), and the like.
  • the data storage unit 140 may be, for example, a device built-in type or an external type such as an external storage device.
  • the image acquisition unit, the calculation unit, the output unit, and the data storage unit are the same in the embodiments described later.
  • the head detection method of the present embodiment is performed as follows using, for example, the head detection device of FIG. 1B.
  • the head detection method learning is performed using machine learning (pattern recognition) technology. Specifically, first, an image including at least a part of the head in a predetermined image area defined in advance is used as a positive example from the learning image, and an image including no head is negative.
  • the preliminary head detection model 141 is created by learning by machine learning (pattern recognition).
  • the learning image (front-facing person image) 10A includes at least a part of the head in a prescribed image area (eg, 32 ⁇ 32 pixels) of a predetermined size. 10a (entire head part), 10b (upper right part of the head part), and 10c (left half part of the head part) are taken as positive examples.
  • 10d person's shoulder
  • 10e background
  • the learning image (backward-facing person image) 10B is an image including at least a part of the head in the specified image region
  • 10f head Overall
  • 10 g left half of the head
  • a learning image a human image that is captured in a small size facing the front
  • 10C is an image that includes at least a part of the head in the prescribed image region.
  • a certain example is 10h (entire head) and 10i (left half of the head).
  • a learning image (a person image that is considerably large in the front direction) 10D is an image that includes at least a part of the head in the prescribed image region.
  • a certain example is 10j (entire head) and 10k (lower left side of the head).
  • the learning image (a human image that is reflected backwards in a very small size) 10E is an image that includes at least a part of the head in the prescribed image region.
  • 10 m (entire head) and 10 n (upper half of the head) are positive examples.
  • the learning image (a human image that is considerably rearward) 10F is an image that includes at least a part of the head in the prescribed image region.
  • 10p (entire head) and 10q (lower right side of the head) are positive examples.
  • an image that may be erroneously recognized as a head may be used as a negative example.
  • the preliminary head detection model 141 is created by the machine learning as follows. First, a head region is accurately given to the head in the learning image so that there is no size shift and position shift (annotation).
  • the head region is given by a human input using conventionally known input means such as a keyboard and a mouse.
  • a case where the position of the head is shifted by 50% from the exact position in the head region is taken as a positive example, and for example, the size of the head is accurate in the head region.
  • a preliminary range detection model 141 is created by designating an allowable range such as a positive example from the size up to ⁇ 30% and automatically creating a positive example by a program.
  • an image including the head in a state that matches a predetermined position and size is taken as a positive example, and matches at least one of the predetermined position and size.
  • the deterministic head detection model 142 is created by learning by machine learning (pattern recognition), taking an image including the head in a state where the head is not used as a negative example.
  • machine learning pattern recognition
  • an image in which the head is located approximately in the center of the defined image area and the outline (size) of the head is approximately the same size as the defined image area is defined as a positive example.
  • images (10a and 10f) that meet the above definition are taken as positive examples.
  • Images that do not meet the above rules (10b, 10c, 10g to 10k, 10m to 10n, and 10p to 10q) are taken as negative examples. In this way, it is only necessary to focus on negative examples of images that do not meet the above-mentioned rules from among the images that include the pre-detected heads. For example, images that do not include the heads, etc. It is not necessary to learn all of the above, and can be learned efficiently.
  • the detection target image is acquired by the image acquisition unit 111 (step S11).
  • the preliminary head detection means 121 cuts out the prescribed image region of the detection target image as an image patch, and refers to the preliminary head detection model 141 acquired in advance, and the head image is extracted from the detection target image. Is detected (step S21). Specifically, for example, as shown in FIG. 3A, the image patch 21 is moved in the horizontal direction from the upper left end of the detection target image 20 with reference to the preliminary head detection model 141 acquired in advance. The head image is searched by a so-called raster scan in which it is sequentially searched toward the lower row. In this example, the moving amount (width) of the image patch is set to 1 ⁇ 4 the size of the image patch. As a result, for example, head images 21a to 21g are detected as shown in FIG.
  • the deterministic head detection unit 122 refers to the deterministic head detection model 142 from among the plurality of head images acquired in the preliminary head detection step S21, and determines the definite head image. Is detected (step S22). Specifically, in a slightly wide area including head images 21b, 21d, 21f, 21g and the like (images including the head of the left person in FIG. 3B) acquired in the preliminary head detection step S21. Is an input image. From this input image, with reference to the deterministic head detection model 142, a raster scan is performed and the input image is reduced, so that a definite head image 22a is obtained as shown in FIG. Is detected.
  • an input image includes a slightly wider area including head images 21a, 21c and 21e acquired in the preliminary head detection step S21 (an image including the head of the right person in FIG. 3B). To do. From this input image, with reference to the deterministic head detection model 142, a raster scan is performed and the input image is reduced, so that a definite head image is obtained as shown in FIG. 22b is detected.
  • the head detection result is output by the output means 131 (step S31).
  • the output step S31 is an optional step and may not be included in the head detection method of the present invention, but is preferably included.
  • the head detection method of the present embodiment first, an image including at least a part of the head is preliminarily detected from the detection target image. For this reason, even if the moving amount of the image patch is increased (for example, every 5 pixels) or the change rate of the image size is increased (for example, 0.8 times), the head is not missed. As a result, the head detection method of the present embodiment can detect candidates in the detection target image at high speed.
  • a definite head image is detected from the head candidate images detected in advance. For this reason, definite head detection can also be performed at high speed. As a result, the head detection method of the present embodiment can detect the head in the detection target image with high speed and accuracy. About these effects, it is the same also in below-mentioned embodiment.
  • FIG. 4A shows a flowchart of the head detection method in the present embodiment.
  • FIG. 4B shows a block diagram of the head detecting apparatus in the present embodiment.
  • the calculation means 120 replaces the preliminary head detecting means 121 with a preliminary head detecting means (first stage) 121-1 and a preliminary head.
  • the head detection means (second stage) 121-2 is included, and the preliminary head detection model 141 in the data storage means 140 includes a first stage reference model 141-1 and a second stage reference model 141-2.
  • the preliminary head detecting means (first stage) 121-1 is connected to the first stage reference model 141-1.
  • the preliminary head detection means (second stage) 121-2 is connected to the second stage reference model 141-2.
  • Other configurations are the same as those of the head detecting apparatus according to the first embodiment shown in FIG. 1B.
  • the head detection method of the present embodiment is performed as follows using, for example, the head detection device of FIG. 4B.
  • the preliminary head detection model 141 including the first stage reference model 141-1 and the second stage reference model 141-2 is created by learning by machine learning (pattern recognition).
  • the learning shown in FIGS. 2 (a) to (f) is performed as in the preparation of the preliminary head detection model 141 in the first embodiment.
  • images 10A to 10F include images 10a to 10c, 10f to 10k, 10m to 10n, and 10p to 10q that include at least a part of the head in the predetermined image area of the predetermined size.
  • images 10d and 10e that do not include the head in the prescribed image region are taken as negative examples.
  • the second-stage reference model 141-2 the case where the head is located at a position shifted by about half from the case where the head is located at the approximate center of the prescribed image region, and the outline (size) of the head. Is defined as a positive example from the case where the predetermined image area is approximately the same size to the image where the size is about half.
  • images 10a to 10c, 10f to 10k, 10m to 10n, and 10p to 10q which are positive examples of the created first stage reference model 141-1
  • images (10a, 10c, 10f, 10h) that meet the above definition 10i, 10m, and 10n) are positive examples
  • images (10b, 10g, 10j, 10k, 10p, and 10q) that do not meet the above definition are negative examples.
  • an image including at least a part of the head in the learning image is a positive example, but the present invention is not limited to this example,
  • a positive example may be defined by specifying a predetermined allowable range for an accurate position and size in the head region.
  • an image that satisfies both the position and size of the head is a positive example.
  • the present invention is not limited to this example.
  • an image that satisfies any one of the sizes may be a positive example. Therefore, in the first-stage reference model 141-1, for example, a case where the position of the head in the learning image is shifted by 50% from the exact position in the head region is used as a positive example.
  • a positive example may be defined by specifying an allowable range such that the size of the part is from the exact size in the head region to ⁇ 30% as a positive example.
  • the second-stage reference model 141-2 for example, up to 25% of the accurate position in the head region is taken as a positive example, and the size of the head is accurate in the head region.
  • a positive example may be defined by specifying an allowable range such as a positive example from the size up to ⁇ 15%.
  • the deterministic head detection model 142 is created in the same manner as in the first embodiment. Specifically, for example, an image in which the head is located approximately in the center of the defined image area and the outline (size) of the head is approximately the same size as the defined image area is defined as a positive example.
  • images 10a, 10c, 10f, 10h, 10i, 10m, and 10n that are positive examples of the created second-stage reference model 141-2, images (10a and 10f) that meet the above definition are taken as positive examples. Images (10c, 10h, 10i, 10m, and 10n) that do not meet the above rules are taken as negative examples.
  • the detection target image is acquired by the image acquisition unit 111 (step S11).
  • the prescribed image region of the detection target image is cut out as an image patch by preliminary head detection means, and the first-stage reference model 141-1 and the second-stage reference model 141-2 acquired in advance are referred to.
  • a head image is detected from the detection target image in multiple stages (two stages of the first stage and the second stage) (step S23).
  • the first stage the first stage reference model 141-1 acquired in advance by the preliminary head detecting means (first stage) 121-1 is referred to in the first embodiment.
  • a head image is searched from the detection target image 20 shown in FIG. 3A, and head images 21a to 21g, etc., as shown in FIG. Is detected.
  • head images 21a, 21d, 21f and 21g are detected from the acquired images 21a to 21g with reference to the second stage reference model 141-2 acquired in advance. .
  • the deterministic head detection unit 122 refers to the deterministic head detection model 142 from among the plurality of head images acquired in the preliminary head detection step S23. Then, a definite head image is detected (step S22). Specifically, in a slightly wide area including the head images 21d, 21f, 21g and the like (images including the head of the left person in FIG. 3B) acquired by the preliminary head detection step S23, Input image. From this input image, with reference to the deterministic head detection model 142, a raster scan is performed, and the input image is reduced, as shown in FIG. 22a is detected.
  • a slightly wider area including the head image 21a and the like (image including the head of the right person in FIG. 3B) acquired from the preliminary head detection step S23 is set as an input image. From this input image, with reference to the deterministic head detection model 142, a raster scan is performed and the input image is reduced, so that a definite head image is obtained as shown in FIG. 22b is detected.
  • the head detection result is output by the output means 131 in the same manner as in the first embodiment (step S31).
  • the head is detected in two stages in the preliminary head detection process with reference to the reference model set in two stages. For this reason, the head in the detection target image can be detected more accurately at a higher speed.
  • the reference model is set in two stages, and the preliminary head detection process is performed corresponding to this, but the present invention is not limited to this example, A reference model may be set in three or more stages, and a preliminary head detection process may be performed in accordance with this.
  • FIG. 5A shows a flowchart of the attribute determination method in the present embodiment.
  • FIG. 5B shows a block diagram of the attribute determination apparatus in the present embodiment.
  • the attribute determination apparatus of this embodiment includes an image acquisition unit 111, a calculation unit 120, an output unit 131, and a data storage unit 140 as main components.
  • the image acquisition unit 111 is electrically connected to the calculation unit 120.
  • the computing means 120 is electrically connected to the output means 131 and the data storage means 140.
  • the calculation unit 120 includes a preliminary head detection unit 121, a definitive head detection unit 122, and an attribute determination unit 124.
  • the data storage unit 140 stores a preliminary head detection model 141, a deterministic head detection model 142, and an attribute determination model 144 acquired in advance.
  • the preliminary head detection means 121 is connected to the preliminary head detection model 141.
  • the definite head detection means 122 is connected to the deterministic head detection model 142.
  • the attribute determination unit 124 is connected to the attribute determination model 144.
  • a unit that combines the image acquisition unit 111, the preliminary head detection unit 121, and the definitive head detection unit 122 corresponds to the “head detection unit” in the present invention.
  • the attributes are not particularly limited, and examples include sex, age, race, head orientation, hairstyle, hair length, presence / absence of a hat, and the like.
  • the attribute determination method of the present embodiment is performed as follows using, for example, the attribute determination apparatus of FIG. 5B.
  • the preliminary head detection model 141 and the deterministic head detection model 142 are created in the same manner as in the first embodiment.
  • the head image 10a in the learning image 10A in FIG. 2A is a positive example in the deterministic head detection model 142.
  • an attribute determination model 144 is created by machine learning (pattern recognition) using a large number of head images to which teacher data (or attribute values) is assigned.
  • the teacher data (or attribute value) include sex, age, and the like. Specifically, for example, teacher data (or attribute values) such as “sex: male, age: 30 years old” is assigned to the head image 10a of the learning image 10A shown in FIG. Teacher data (or attribute values) such as sex and age are given by a person using a conventionally known input means such as a keyboard and a mouse. Then, the attribute determination model 144 is created using the head image 10a to which the teacher data (or attribute value) is assigned.
  • the detection target image is acquired by the image acquisition unit 111 (step S11).
  • the preliminary head detection unit 121 extracts the predetermined image area of the detection target image as an image patch, and refers to the preliminary head detection model 141 acquired in advance. Then, a head image is detected from the detection target image (step S21).
  • the deterministic head detection unit 122 refers to the deterministic head detection model 142 from among the plurality of head images acquired in the preliminary head detection step S21. Then, a definite head image is detected (step S22). Specifically, for example, the definite head images 22a and 22b are detected as shown in FIGS. 3C and 3D in the same manner as in the first embodiment.
  • a process combining the image acquisition process S11, the preliminary head detection process S21, and the definitive head detection process S22 corresponds to the “head detection process” in the present invention.
  • the attribute is determined from the head image by the attribute determination unit 124 with reference to the attribute determination model 144 acquired in advance (step S24).
  • the determination items include sex, age, head orientation, hairstyle, hair length, presence / absence of a hat, and the like.
  • the determination item is gender, it can be determined based on, for example, the gender degree (for example, 0 to 1).
  • the gender degree can be calculated based on, for example, a head image. Specifically, for example, if the gender degree is “0 to less than 0.5”, it is determined as “female”, and if the gender degree is “0.5 to 1”, it is determined as “male”.
  • the gender is determined from the calculated gender degree value.
  • the age and the like for example, a predetermined standard is set, and the age and the like are determined from a value calculated based on the head image.
  • step S31 the attribute determination result is output by the output means 131 (step S31).
  • the determination items are as described above.
  • the output step S31 is an optional step and may not be included in the attribute determination method of the present invention, but is preferably included.
  • the head is detected by the head detection method of the first embodiment, and the attribute is determined from the image of the head. Therefore, the attribute can be determined at high speed and accurately.
  • the attribute is determined from the image of the head with reference to the attribute determination model. It is not limited to examples.
  • the attribute determination may be performed with reference to an attribute determination rule, for example.
  • Examples of the attribute determination rule include a rule such as “male if hair is short, female if hair is long”.
  • the attribute determination may be performed with reference to both the attribute determination model and the attribute determination rule.
  • the attribute determination rule 244 may be stored in the data storage unit 140, and the attribute determination unit 124 may be connected to the attribute determination rule 244.
  • the preliminary head detection step in the attribute determination method of the present embodiment may be performed in multiple stages, for example, in the same manner as the preliminary head detection step in the head detection method of the second embodiment.
  • the above-described multi-stage reference model is included in the preliminary head detection model in the attribute determination device. In this way, attributes can be determined more accurately at higher speed.
  • the program of this embodiment is a program that can execute the above-described head detection method or the above-described attribute determination method on a computer.
  • the program of this embodiment may be recorded on a recording medium, for example.
  • the recording medium is not particularly limited, and examples thereof include a random access memory (RAM), a read only memory (ROM), a hard disk (HD), an optical disk, a floppy (registered trademark) disk (FD), and the like.
  • FIG. 6 shows a configuration of an example of an attribute determination system using the attribute determination apparatus of the present invention.
  • the attribute determination system includes image acquisition units 111a, 111b, and 111c, output units 131a, 131b, and 131c, communication interfaces 150a, 150b, and 150c, and a server 170.
  • the image acquisition unit 111a and the output unit 131a are connected to the communication interface 150a.
  • the image acquisition unit 111a, the output unit 131a, and the communication interface 150a are installed in the place X.
  • the image acquisition unit 111b and the output unit 131b are connected to the communication interface 150b.
  • the image acquisition unit 111b, the output unit 131b, and the communication interface 150b are installed at the place Y.
  • the image acquisition unit 111c and the output unit 131c are connected to the communication interface 150c.
  • the image acquisition unit 111c, the output unit 131c, and the communication interface 150c are installed in the place Z.
  • Communication interfaces 150 a, 150 b, 150 c and server 170 are connected via a network 160.
  • the server 170 side has preliminary head detection means, deterministic head detection means, and attribute determination means, and the server 170 has preliminary head detection models, deterministic head detection models, and attributes.
  • the judgment model is stored. For example, the detection target image acquired at the place X using the image acquisition unit 111a is transmitted to the server 170, and the head is detected on the server 170 side, and the attribute is determined from the image of the head. The determined attribute is output by the output means 131a. Further, for example, the attribute determination rule may be stored in the server.
  • the image acquisition means and the output means are installed at the site, and the server or the like is installed at another location, so that the head detection and attribute determination can be performed online. Therefore, for example, the installation of the apparatus does not take a place, and maintenance is easy. Further, for example, even when each installation place is separated, centralized management and remote operation at one place are possible.
  • the attribute determination system of the present embodiment may be compatible with the multistage detection of the second embodiment described above. Moreover, the attribute determination system of this embodiment may be compatible with, for example, cloud computing.
  • the present invention it is possible to provide a head detection method, a head detection device, an attribute determination method, an attribute determination device, a program, a recording medium, and an attribute determination system that detect a head in an image quickly and accurately.
  • the invention can be applied to a wide range of uses.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

 高速かつ正確に、画像中の頭部を検出する頭部検出方法を提供する。 本発明の頭部検出方法は、予め規定された規定画像領域において、頭部の少なくとも一部を含む画像を正例とし、かつ頭部含まない画像を負例として取得した予備的頭部検出モデルと、予め規定された位置および大きさに合致する状態で頭部を含む画像を正例とし、かつ前記予め規定された位置および大きさの少なくとも一方に合致しない状態で頭部を含む画像を負例として取得した確定的頭部検出モデルとを用い、検出対象画像を取得する画像取得工程と、前記規定画像領域を画像パッチとして切り出し、前記予備的頭部検出モデルを参照して頭部画像を検出する予備的頭部検出工程と、取得された複数の頭部画像の中から、前記確定的頭部検出モデルを参照して、確定的な頭部画像を検出する確定的頭部検出工程とを含むことを特徴とする。

Description

頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
 本発明は、頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムに関する。
 パターン認識を用いて画像中の人物を検出する技術は、例えば、顔の一部(例えば目、鼻、口など)や頭部、肌の色を検出することで行われている(例えば、特許文献1参照)。このような人物検出では、一般的に、検出対象の画像データ(元画像)に対して、所定領域の画像パッチを細かくずらすスキャンを行い、頭部等の画像か否かを判断している。前記判断は、例えば、予め取得しておいた学習画像を参照することで行われる。
特許第3810943号公報
 学習は、画像パッチにおいて、所定の位置および大きさで写っているものを正例(positive example)の頭部画像とし、頭部の位置または大きさがずれているものを負例(negative example)として行われる。また、例えば、図7に示すように、元画像(検出対象画像)70は多段階にサイズを変えられ、サイズ毎にスキャンが行われる。この場合、元画像70を小さくしていき、同様に画像パッチ71を動かしながら探していくことで、様々な大きさの頭部を見つけることができる。
 しかし、この方法では、画像パッチ71を少しずつ動かさないと、頭部を見逃す可能性があるが、パッチを細かく動かすと、検出処理時間がかかってしまう。また、元画像のサイズについても、元画像を徐々に小さくしていかないと、頭部を見逃す可能性があるが、徐々に小さくすると、やはり検出処理時間がかかってしまう。
 そこで、本発明は、高速かつ正確に、画像中の頭部を検出する頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供することを目的とする。
 前記目的を達成するために、本発明の頭部検出方法は、
予め規定された規定画像領域において、頭部の少なくとも一部が含まれている画像を正例とし、かつ、頭部が含まれていない画像を負例として取得した予備的頭部検出モデルと、
前記規定画像領域において、予め規定された位置および大きさに合致する状態で頭部が含まれている画像を正例とし、かつ、前記予め規定された位置および大きさの少なくとも一方に合致しない状態で頭部が含まれている画像を負例として取得した確定的頭部検出モデルとを用い、
検出対象画像を取得する画像取得工程と、
前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、前記予備的頭部検出モデルを参照して前記検出対象画像から頭部画像を検出する予備的頭部検出工程と、
前記予備的頭部検出工程により取得された複数の頭部画像の中から、前記確定的頭部検出モデルを参照して、確定的な頭部画像を検出する確定的頭部検出工程と
を含むことを特徴とする。
 また、本発明の頭部検出装置は、
予め規定された規定画像領域において、頭部の少なくとも一部が含まれている画像を正例とし、かつ、頭部が含まれていない画像を負例として取得した予備的頭部検出モデルと、
前記規定画像領域において、予め規定された位置および大きさに合致する状態で頭部が含まれている画像を正例とし、かつ、前記予め規定された位置および大きさの少なくとも一方に合致しない状態で頭部が含まれている画像を負例として取得した確定的頭部検出モデルと、
検出対象画像を取得する画像取得手段と、
前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、前記予備的頭部検出モデルを参照して前記検出対象画像から頭部画像を検出する予備的頭部検出手段と、
前記予備的頭部検出手段により取得された複数の頭部画像の中から、前記確定的頭部検出モデルを参照して、確定的な頭部画像を検出する確定的頭部検出手段と
を含むことを特徴とする。
 本発明の属性判定方法は、
前記本発明の頭部検出方法によって頭部を検出する頭部検出工程と、
前記頭部の画像から属性を判定する属性判定工程と
を含むことを特徴とする。
 また、本発明の属性判定装置は、
前記本発明の頭部検出装置によって頭部を検出する頭部検出手段と、
前記頭部の画像から属性を判定する属性判定手段と
を含むことを特徴とする。
 また、本発明のプログラムは、前記本発明の頭部検出方法および前記本発明の属性判定方法の少なくとも一方をコンピュータに実行させることを特徴とする。
 また、本発明の記録媒体は、前記本発明のプログラムを記録していることを特徴とする。
 また、本発明の属性判定システムは、
検出対象画像を取得する画像取得手段と、
予め規定された規定画像領域において、頭部の少なくとも一部が含まれている画像を正例とし、かつ、頭部が含まれていない画像を負例として取得した予備的頭部検出モデルと、
前記規定画像領域において、予め規定された位置および大きさに合致する状態で頭部が含まれている画像を正例とし、かつ、前記予め規定された位置および大きさの少なくとも一方に合致しない状態で頭部が含まれている画像を負例として取得した確定的頭部検出モデルと、
前記頭部の画像から属性を判定するための属性判定モデルおよび属性判定ルールの少なくとも一方と、
前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、前記予備的頭部検出モデルを参照して前記検出対象画像から頭部画像を検出する予備的頭部検出手段と、
前記予備的頭部検出手段により取得された複数の頭部画像の中から、前記確定的頭部検出モデルを参照して、確定的な頭部画像を検出する確定的頭部検出手段と、
前記頭部の画像から属性を判定する属性判定手段と、
属性判定結果を出力する出力手段と
を含み、
前記画像取得手段および前記出力手段が、システム外の通信回線網を介して、前記予備的頭部検出手段、前記予備的頭部検出モデル、前記確定的頭部検出手段、前記確定的頭部検出モデル、前記属性判定手段、ならびに、属性判定モデルおよび属性判定ルールの少なくとも一方と、接続されていることを特徴とする。
 本発明によれば、高速かつ正確に、画像中の頭部を検出する頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供することができる。
図1Aは、本発明の頭部検出方法の一例(実施形態1)を示すフローチャートである。 図1Bは、本発明の頭部検出装置の一例(実施形態1)の構成を示すブロック図である。 図2(a)~(f)は、本発明における予備的頭部検出モデルの取得の一例を説明する図である。 図3(a)および(b)は、前記実施形態1の頭部検出方法における予備的頭部検出工程の一例を説明する図である。図3(c)および(d)は、前記実施形態1の頭部検出方法における確定的頭部検出工程の一例を説明する図である。 図4Aは、本発明の頭部検出方法のその他の例(実施形態2)を示すフローチャートである。 図4Bは、本発明の頭部検出装置のその他の例(実施形態2)の構成を示すブロック図である。 図5Aは、本発明の属性判定方法の一例(実施形態3)を示すフローチャートである。 図5Bは、本発明の属性判定装置の一例(実施形態3)の構成を示すブロック図である。 図5Cは、前記実施形態3の属性判定装置におけるその他の例を示すブロック図である。 図6は、本発明の属性判定装置を用いた属底判定システムの一例(実施形態5)の構成を示すブロック図である。 図7は、関連技術における頭部を検出する方法の一例を示す図である。
 つぎに、本発明の実施形態について説明する。なお、本発明は、下記の実施形態によってなんら限定および制限されない。なお、以下の図1から図6において、同一部分には、同一符号を付している。
[実施形態1]
 図1Aに、本実施形態における頭部検出方法のフローチャートを示す。また、図1Bに、本実施形態における頭部検出装置のブロック図を示す。図1Bに示すように、本実施形態の頭部検出装置は、画像取得手段111、演算手段120、出力手段131およびデータ記憶手段140を主要な構成要素として含む。画像取得手段111は、演算手段120に電気的に接続されている。演算手段120は、出力手段131とデータ記憶手段140とに電気的に接続されている。演算手段120は、予備的頭部検出手段121および確定的頭部検出手段122を含む。データ記憶手段140には、予め取得した予備的頭部検出モデル141および確定的頭部検出モデル142が格納されている。予備的頭部検出手段121は、予備的頭部検出モデル141に接続されている。確定的頭部検出手段122は、確定的頭部検出モデル142に接続されている。
 画像取得手段111としては、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ、イメージスキャナ等があげられる。演算手段120としては、例えば、中央処理装置(CPU)等があげられる。出力手段131としては、例えば、映像により出力するモニター(例えば、液晶ディスプレイ(LCD)、ブラウン管(CRT)ディスプレイ等の各種画像表示装置等)、印刷により出力するプリンター、音声により出力するスピーカー等があげられる。出力手段131は、任意の構成要素であり、本発明の頭部検出装置に含まれていなくてもよいが、含まれていることが好ましい。データ記憶手段140としては、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。データ記憶手段140は、例えば、装置内蔵型であってもよいし、外部記憶装置のような外付け型であってもよい。前記画像取得手段、前記演算手段、前記出力手段および前記データ記憶手段については、後述の実施形態においても同様である。
 本実施形態の頭部検出方法は、例えば、図1Bの頭部検出装置を用いて、つぎのようにして実施する。
 まず、前記頭部検出方法の実施に先立ち、機械学習(パターン認識)の技術を用いて学習を行う。具体的には、まず、学習用画像から、予め規定された規定画像領域において、頭部の少なくとも一部が含まれている画像を正例とし、かつ、頭部が含まれていない画像を負例として、機械学習(パターン認識)で学習することで予備的頭部検出モデル141を作成する。例えば、図2(a)に示すように、学習用画像(正面向きの人物画像)10Aでは、所定のサイズの規定画像領域(例えば、32×32ピクセル等)における頭部の少なくとも一部が含まれている画像である、10a(頭部全体)、10b(頭部の上部右側部分)、10c(頭部の左側半分)を正例とする。一方、前記規定画像領域における頭部が含まれていない画像である、10d(人物の肩部)、10e(背景)を負例とする。また、例えば、図2(b)に示すように、学習用画像(後ろ向きの人物画像)10Bでは、前記規定画像領域における頭部の少なくとも一部が含まれている画像である、10f(頭部全体)、10g(頭部の左側半分)を正例とする。また、例えば、図2(c)に示すように、学習用画像(正面向きのかなり小さく写っている人物画像)10Cでは、前記規定画像領域における頭部の少なくとも一部が含まれている画像である、10h(頭部全体)、10i(頭部の左側半分)を正例とする。また、例えば、図2(d)に示すように、学習用画像(正面向きのかなり大きく写っている人物画像)10Dでは、前記規定画像領域における頭部の少なくとも一部が含まれている画像である、10j(頭部全体)、10k(頭部の下部左側)を正例とする。また、例えば、図2(e)に示すように、学習用画像(後ろ向きのかなり小さく写っている人物画像)10Eでは、前記規定画像領域における頭部の少なくとも一部が含まれている画像である、10m(頭部全体)、10n(頭部の上側半分)を正例とする。また、例えば、図2(f)に示すように、学習用画像(後ろ向きのかなり大きく写っている人物画像)10Fでは、前記規定画像領域における頭部の少なくとも一部が含まれている画像である、10p(頭部全体)、10q(頭部の下部右側)を正例とする。検出精度を考慮すると、例えば、横向きの人物の画像等も学習用画像として用いることが好ましく、また、学習用画像の数は多いほど好ましい。また、例えば、前記予備的頭部検出モデルにおいて、頭部であると誤認識し得る画像を負例としておいてもよい。前記機械学習による予備的頭部検出モデル141の作成は、例えば、以下のようにして行う。まず、学習用画像中の頭部に、大きさのずれおよび位置のずれがないように正確に頭部領域を付与する(アノテーション)。前記頭部領域は、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。つぎに、例えば、頭部の位置が、前記頭部領域における正確な位置から50%ずれているものまでを正例とし、また、例えば、頭部の大きさが、前記頭部領域における正確な大きさから±30%のものまでを正例とする等の許容範囲を指定し、プログラムにより正例を自動で作成して、予備的頭部検出モデル141を作成する。
 一方、前記規定画像領域において、予め規定された位置および大きさに合致する状態で頭部が含まれている画像を正例とし、かつ、前記予め規定された位置および大きさの少なくとも一方に合致しない状態で頭部が含まれている画像を負例として、機械学習(パターン認識)で学習することで確定的頭部検出モデル142を作成する。具体的には、例えば、頭部が前記規定画像領域のほぼ中央に位置し、かつ頭部の輪郭(大きさ)が前記規定画像領域とほぼ同じ大きさである画像を正例と規定する。ついで、前記作成した予備的頭部検出モデル141の正例である10a~10c、10f~10k、10m~10nおよび10p~10qのうち、前記規定に合致した画像(10aおよび10f)を正例とし、前記規定に合致しなかった画像(10b、10c、10g~10k、10m~10nおよび10p~10q)を負例とする。このように、予備的に検出した頭部が含まれている画像の中から、前記規定に合致しないものを重点的に負例とすればよいので、例えば、頭部が含まれていない画像などの全てを学習する必要がなく、効率的に学習できる。
 つぎに、図1Aのフローチャートに示すように、以下のステップを実施する。まず、画像取得手段111により、検出対象画像を取得する(ステップS11)。
 つぎに、予備的頭部検出手段121により、前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、予め取得した予備的頭部検出モデル141を参照して、前記検出対象画像から頭部画像を検出する(ステップS21)。具体的には、例えば、図3(a)に示すように、予め取得した予備的頭部検出モデル141を参照して、検出対象画像20の左上端から水平方向に、画像パッチ21を移動させ、それを順に下の行に向かって探索するいわゆるラスタスキャンで、頭部画像を探索する。この例では、前記画像パッチの移動量(幅)を、前記画像パッチの1/4の大きさで行う。この結果、例えば、図3(b)に示すように、頭部画像21a~21g等が検出される。
 つぎに、確定的頭部検出手段122により、予備的頭部検出工程S21によって取得された複数の頭部画像の中から、確定的頭部検出モデル142を参照して、確定的な頭部画像を検出する(ステップS22)。具体的には、予備的頭部検出工程S21により取得された頭部画像21b、21d、21fおよび21g等(図3(b)における左側の人物の頭部を含む画像)を含む少し広い領域中を、入力画像とする。この入力画像の中から、確定的頭部検出モデル142を参照して、ラスタスキャンを行うと共に、入力画像を縮小することで、図3(c)に示すように、確定的な頭部画像22aを検出する。また、予備的頭部検出工程S21により取得された頭部画像21a、21cおよび21e等(図3(b)における右側の人物の頭部を含む画像)を含む少し広い領域中を、入力画像とする。この入力画像の中から、確定的頭部検出モデル142を参照して、ラスタスキャンを行うと共に、前記入力画像を縮小することで、図3(d)に示すように、確定的な頭部画像22bを検出する。
 つぎに、出力手段131により、頭部の検出結果を出力する(ステップS31)。なお、出力工程S31は、任意の工程であり、本発明の頭部検出方法に含まれていなくてもよいが、含まれていることが好ましい。
 ここで、前記特許文献1に記載の人物検出技術では、頭部を見逃さないために、所定領域の画像パッチを細かく(例えば、1ピクセル毎)ずらしてスキャン行わなければならず、また、画像サイズも徐々に小さく(例えば、0.95倍)していかなければならない。このため、検出処理時間がかかってしまう。一方、本実施形態の頭部検出方法では、まず、検出対象画像から頭部の少なくとも一部が含まれている画像を予備的に検出する。このため、画像パッチの移動量を大きく(例えば、5ピクセル毎)し、または、画像サイズの変更率を大きく(例えば、0.8倍)しても、頭部を見逃すことがない。この結果、本実施形態の頭部検出方法では、高速に、検出対象画像中の候補を検出できる。つぎに、予備的に検出した頭部の候補画像の中から、確定的な頭部画像を検出する。このため、確定的な頭部検出も高速に行うことができる。これらの結果、本実施形態の頭部検出方法では、高速かつ正確に、検出対象画像中の頭部を検出できる。これらの効果については、後述の実施形態においても同様である。
[実施形態2]
 図4Aに、本実施形態における頭部検出方法のフローチャートを示す。また、図4Bに、本実施形態における頭部検出装置のブロック図を示す。図4Bに示すように、本実施形態の頭部検出装置は、演算手段120が、予備的頭部検出手段121に代えて、予備的頭部検出手段(第1段階)121-1および予備的頭部検出手段(第2段階)121-2を含み、データ記憶手段140における予備的頭部検出モデル141が、第1段階参照用モデル141-1および第2段階参照用モデル141-2を含む。予備的頭部検出手段(第1段階)121-1は、第1段階参照用モデル141-1に接続されている。予備的頭部検出手段(第2段階)121-2は、第2段階参照用モデル141-2に接続されている。これら以外の構成は、図1Bに示す前記実施形態1の頭部検出装置と同様である。
 本実施形態の頭部検出方法は、例えば、図4Bの頭部検出装置を用いて、つぎのようにして実施する。
 まず、前記頭部検出方法の実施に先立ち、機械学習(パターン認識)の技術を用いて学習を行う。すなわち、第1段階参照用モデル141-1および第2段階参照用モデル141-2を含む予備的頭部検出モデル141を、機械学習(パターン認識)で学習することで作成する。具体的には、例えば、まず、第1段階参照用モデル141-1では、前記実施形態1における予備的頭部検出モデル141の作成と同様に、図2(a)~(f)に示す学習用画像10A~10Fから、前記所定のサイズの規定画像領域における頭部の少なくとも一部が含まれている画像10a~10c、10f~10k、10m~10nおよび10p~10qを正例とする。一方、前記規定画像領域における頭部が含まれていない画像10dおよび10eを負例とする。つぎに、第2段階参照用モデル141-2では、頭部が前記規定画像領域のほぼ中央に位置する場合から半分程度ずれた箇所に位置する場合までで、かつ頭部の輪郭(大きさ)が前記規定画像領域のほぼ同じ大きさである場合から半分程度の大きさである場合の画像までを正例として規定する。前記作成した第1段階参照用モデル141-1の正例である画像10a~10c、10f~10k、10m~10nおよび10p~10qのうち、前記規定に合致した画像(10a、10c、10f、10h、10i、10mおよび10n)を正例とし、前記規定に合致しなかった画像(10b、10g、10j、10k、10pおよび10q)を負例とする。
 なお、この例において、前記第1段階参照用モデルでは、学習用画像中の頭部の少なくとも一部が含まれている画像を正例としているが、本発明は、この例に限定されず、例えば、前記頭部領域における正確な位置および大きさに対する所定の許容範囲を指定して正例を規定してもよい。また、前記第2段階参照用モデルでは、頭部の位置および大きさの両方の条件を満たす画像を、正例としたが、本発明は、この例に限定されず、例えば、頭部の位置または大きさのいずれか一方の条件を満たす画像を、正例としてもよい。したがって、第1段階参照用モデル141-1では、例えば、前記学習用画像における頭部の位置が、前記頭部領域における正確な位置から50%ずれているものまでを正例とし、また、頭部の大きさが、前記頭部領域における正確な大きさから±30%のものまでを正例とする等の許容範囲を指定して、正例を規定してもよい。第2段階参照用モデル141-2では、例えば、前記頭部領域における正確な位置から25%ずれているものまでを正例とし、また、頭部の大きさが、前記頭部領域における正確な大きさから±15%のものまでを正例とする等の許容範囲を指定して、正例を規定してもよい。
 一方、前記実施形態1と同様にして、確定的頭部検出モデル142を作成する。具体的には、例えば、頭部が前記規定画像領域のほぼ中央に位置し、かつ頭部の輪郭(大きさ)が前記規定画像領域とほぼ同じ大きさである画像を正例と規定する。前記作成した第2段階参照用モデル141-2の正例である画像10a、10c、10f、10h、10i、10mおよび10nのうち、前記規定に合致した画像(10aおよび10f)を正例とし、前記規定に合致しなかった画像(10c、10h、10i、10mおよび10n)を負例とする。
 つぎに、図4Aのフローチャートに示すように、以下のステップを実施する。まず、画像取得手段111により、検出対象画像を取得する(ステップS11)。
 つぎに、予備的頭部検出手段により、前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、予め取得した第1段階参照用モデル141-1および第2段階参照用モデル141-2を参照して、前記検出対象画像から頭部画像を多段階(第1段階および第2段階の2段階)で検出する(ステップS23)。具体的には、まず、第1段階として、予備的頭部検出手段(第1段階)121-1により、予め取得した第1段階参照用モデル141-1を参照して、前記実施形態1における予備的頭部検出工程S21と同様にして、図3(a)に示す検出対象画像20から、頭部画像を探索して、図3(b)に示すように、頭部画像21a~21g等を検出する。つぎに、第2段階として、前記取得された画像21a~21gの中から、予め取得した第2段階参照用モデル141-2を参照して、頭部画像21a、21d、21fおよび21gを検出する。
 つぎに、前記実施形態1と同様にして、確定的頭部検出手段122により、予備的頭部検出工程S23によって取得された複数の頭部画像の中から、確定的頭部検出モデル142を参照して、確定的な頭部画像を検出する(ステップS22)。具体的には、予備的頭部検出工程S23により取得された頭部画像21d、21fおよび21g等(図3(b)における左側の人物の頭部を含む画像)を含む少し広い領域中を、入力画像とする。この入力画像の中から、確定的頭部検出モデル142を参照して、ラスタスキャンを行うと共に、前記入力画像を縮小することで、図3(c)に示すように、確定的な頭部画像22aを検出する。また、予備的頭部検出工程S23より取得された頭部画像21a等(図3(b)における右側の人物の頭部を含む画像)を含む少し広い領域中を、入力画像とする。この入力画像の中から、確定的頭部検出モデル142を参照して、ラスタスキャンを行うと共に、前記入力画像を縮小することで、図3(d)に示すように、確定的な頭部画像22bを検出する。
 つぎに、前記実施形態1と同様にして、出力手段131により、頭部の検出結果を出力する(ステップS31)。
 本実施形態の頭部検出方法では、前述のとおり、2段階で設定した参照用モデルを参照して、前記予備的頭部検出工程において、2段階で頭部の検出を行っている。このため、より高速で正確に検出対象画像中の頭部を検出することができる。
 なお、本実施形態の頭部検出方法では、参照用モデルを2段階で設定し、これに対応させて予備的頭部検出工程を行っているが、本発明は、この例に限定されず、3段階以上で参照用モデルを設定し、これに対応させて予備的頭部検出工程を行ってもよい。
[実施形態3]
 図5Aに、本実施形態における属性判定方法のフローチャートを示す。また、図5Bに、本実施形態における属性判定装置のブロック図を示す。図5Bに示すように、本実施形態の属性判定装置は、画像取得手段111、演算手段120、出力手段131およびデータ記憶手段140を主要な構成要素として含む。画像取得手段111は、演算手段120に電気的に接続されている。演算手段120は、出力手段131とデータ記憶手段140とに電気的に接続されている。演算手段120は、予備的頭部検出手段121、確定的頭部検出手段122および属性判定手段124を含む。データ記憶手段140には、予め取得した予備的頭部検出モデル141、確定的頭部検出モデル142および属性判定モデル144が格納されている。予備的頭部検出手段121は、予備的頭部検出モデル141に接続されている。確定的頭部検出手段122は、確定的頭部検出モデル142に接続されている。属性判定手段124は、属性判定モデル144に接続されている。本実施形態の属性判定装置における、画像取得手段111、予備的頭部検出手段121および確定的頭部検出手段122を合わせた手段が、本発明における前記「頭部検出手段」に相当する。
 本発明において、属性は、特に限定されず、例えば、性別、年齢、人種、頭部の向き、髪型、髪の長さ、帽子の有無等があげられる。
 本実施形態の属性判定方法は、例えば、図5Bの属性判定装置を用いて、つぎのようにして実施する。
 まず、前記属性判定方法の実施に先立ち、機械学習(パターン認識)の技術を用いて学習を行う。すなわち、前記実施形態1と同様にして、予備的頭部検出モデル141および確定的頭部検出モデル142を作成する。具体的には、例えば、前記実施形態1と同様にして、図2(a)の学習用画像10Aにおける頭部画像10a等を、確定的頭部検出モデル142における正例とする。
 一方、教師データ(または属性値)が付与された頭部画像を多数用いて、機械学習(パターン認識)により属性判定モデル144を作成する。本実施形態の属性判定方法において、前記教師データ(または属性値)としては、例えば、性別、年齢等があげられる。具体的には、例えば、図2(a)に示す学習用画像10Aの頭部画像10a等に、「性別:男性、年齢:30歳」等の教師データ(または属性値)を付与する。前記性別および前記年齢等の教師データ(または属性値)は、例えば、キーボード、マウス等の従来公知の入力手段を用いて、人が入力することで付与される。そして、この教師データ(または属性値)が付与された頭部画像10a等を用いて、属性判定モデル144を作成する。
 つぎに、図5Aのフローチャートに示すように、以下のステップを実施する。まず、画像取得手段111により、検出対象画像を取得する(ステップS11)。
 つぎに、前記実施形態1と同様にして、予備的頭部検出手段121により、前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、予め取得した予備的頭部検出モデル141を参照して、前記検出対象画像から頭部画像を検出する(ステップS21)。
 つぎに、前記実施形態1と同様にして、確定的頭部検出手段122により、予備的頭部検出工程S21によって取得された複数の頭部画像の中から、確定的頭部検出モデル142を参照して、確定的な頭部画像を検出する(ステップS22)。具体的には、例えば、前記実施形態1と同様にして、図3(c)および(d)に示すように、確定的な頭部画像22aおよび22bを検出する。画像取得工程S11、予備的頭部検出工程S21および確定的頭部検出工程S22を合わせた工程が、本発明における前記「頭部検出工程」に相当する。
 つぎに、属性判定手段124により、予め取得した属性判定モデル144を参照して、頭部の画像から属性を判定する(ステップS24)。判定項目としては、例えば、性別、年齢、頭部の向き、髪型、髪の長さ、帽子の有無等があげられる。判定項目が性別である場合は、例えば、性別度(例えば、0~1)に基づいて判定できる。前記性別度は、例えば、頭部画像を基に算出可能である。具体的には、例えば、前記性別度が「0~0.5未満」であれば、「女性」と判定し、前記性別度が「0.5~1」であれば、「男性」と判定する、という基準を設定しておき、算出された性別度の値から性別を判定する。前記年齢等についても、例えば、所定の基準を設定して、前記頭部画像を基に算出された値から年齢等を判定する。
 つぎに、出力手段131により、属性の判定結果を出力する(ステップS31)。判定項目は、前述のとおりである。なお、出力工程S31は、任意の工程であり、本発明の属性判定方法に含まれていなくてもよいが、含まれていることが好ましい。
 前述のように、本実施形態の属性判定方法では、前記実施形態1の頭部検出方法によって頭部を検出し、前記頭部の画像から属性を判定する。このため、高速かつ正確に、属性を判定できる。
 なお、本実施形態の属性判定方法における前記属性判定工程(図5AのS24)では、前記属性判定モデルを参照して、前記頭部の画像から属性を判定しているが、本発明は、この例に限定されない。前記属性の判定は、例えば、属性判定ルールを参照して行ってもよい。前記属性判定ルールとしては、例えば、「髪が短ければ男性であり、髪が長ければ女性である」等のルールがあげられる。また、例えば、前記属性の判定は、前記属性判定モデルおよび前記属性判定ルールの両方を参照して行ってもよい。この場合には、例えば、図5Cに示すように、データ記憶手段140に、属性判定ルール244が格納され、属性判定手段124が属性判定ルール244に接続されていてもよい。
 また、本実施形態の属性判定方法における予備的頭部検出工程は、例えば、前記実施形態2の頭部検出方法における予備的頭部検出工程と同様に、多段階で実施してもよい。この場合、属性判定装置における前記予備的頭部検出モデルに、例えば、前述の多段階の参照用モデルを含ませておく。このようにすれば、より高速で正確に属性を判定できる。
[実施形態4]
 本実施形態のプログラムは、前述の頭部検出方法または前述の属性判定方法を、コンピュータ上で実行可能なプログラムである。本実施形態のプログラムは、例えば、記録媒体に記録されてもよい。前記記録媒体としては、特に限定されず、例えば、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク、フロッピー(登録商標)ディスク(FD)等があげられる。
[実施形態5]
 図6に、本発明の属性判定装置を用いた属性判定システムの一例の構成を示す。図6に示すとおり、この属性判定システムは、画像取得手段111a、111b、111cと、出力手段131a、131b、131cと、通信インターフェイス150a、150b、150cと、サーバ170とを備える。画像取得手段111aおよび出力手段131aは、通信インターフェイス150aに接続されている。画像取得手段111a、出力手段131aおよび通信インターフェイス150aは、場所Xに設置されている。画像取得手段111bおよび出力手段131bは、通信インターフェイス150bに接続されている。画像取得手段111b、出力手段131bおよび通信インターフェイス150bは、場所Yに設置されている。画像取得手段111cおよび出力手段131cは、通信インターフェイス150cに接続されている。画像取得手段111c、出力手段131cおよび通信インターフェイス150cは、場所Zに設置されている。そして、通信インターフェイス150a、150b、150cと、サーバ170とが、回線網160を介して接続されている。
 この属性判定システムでは、サーバ170側に、予備的頭部検出手段、確定的頭部検出手段および属性判定手段を有し、サーバ170に予備的頭部検出モデル、確定的頭部検出モデルおよび属性判定モデルが格納される。例えば、場所Xで画像取得手段111aを用いて取得された検出対象画像を、サーバ170に送信し、サーバ170側で、頭部を検出し、頭部の画像から属性を判定する。また、判定された属性を、出力手段131aにより出力する。また、前記サーバには、例えば、前記属性判定ルールが格納されていてもよい。
 本実施形態の属性判定システムによれば、画像取得手段および出力手段を現場に設置し、サーバ等は他の場所に設置して、オンラインによる頭部の検出および属性の判定が可能である。そのため、例えば、装置の設置に場所を取ることがなく、メンテナンスも容易である。また、例えば、各設置場所が離れている場合であっても、一箇所での集中管理や遠隔操作が可能となる。本実施形態の属性判定システムは、前述の実施形態2の多段階検出に対応したものであってもよい。また、本本実施形態の属性判定システムは、例えば、クラウドコンピューティングに対応したものであってもよい。
 以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
 この出願は、2010年6月30日に出願された日本出願特願2010-149934を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明によれば、高速かつ正確に、画像中の頭部を検出する頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システムを提供でき、本発明は、幅広い用途に適用できる。
10A、10B、10C、10D、10E、10F  学習用画像
10a、10b、10c、10d、10e、10f、10g、10h、10i、10j、10k、10m、10n、10p、10q  規定画像領域における画像
20、70  検出対象画像
21、71  画像パッチ
21a、21b、21c、21d、21e、21f、21g  頭部画像
22a、22b  確定的な頭部画像
111、111a、111b、111c  画像取得手段
120   演算手段
121   予備的頭部検出手段
121-1 予備的頭部検出手段(第1段階)
121-2 予備的頭部検出手段(第2段階)
122   確定的頭部検出手段
124   属性判定手段
131、131a、131b、131c  出力手段
140   データ記憶手段
141   予備的頭部検出モデル
141-1 第1段階参照用モデル
141-2 第2段階参照用モデル
142   確定的頭部検出モデル
144   属性判定モデル
150a、150b、150c  通信インターフェイス
160   回路網
170   サーバ
244  属性判定ルール

Claims (12)

  1. 予め規定された規定画像領域において、頭部の少なくとも一部が含まれている画像を正例とし、かつ、頭部が含まれていない画像を負例として取得した予備的頭部検出モデルと、
    前記規定画像領域において、予め規定された位置および大きさに合致する状態で頭部が含まれている画像を正例とし、かつ、前記予め規定された位置および大きさの少なくとも一方に合致しない状態で頭部が含まれている画像を負例として取得した確定的頭部検出モデルとを用い、
    検出対象画像を取得する画像取得工程と、
    前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、前記予備的頭部検出モデルを参照して前記検出対象画像から頭部画像を検出する予備的頭部検出工程と、
    前記予備的頭部検出工程により取得された複数の頭部画像の中から、前記確定的頭部検出モデルを参照して、確定的な頭部画像を検出する確定的頭部検出工程と
    を含むことを特徴とする頭部検出方法。
  2. 前記予備的頭部検出モデルが、前記確定的頭部検出モデルにおける予め規定された位置および大きさとの合致度合いが多段階に規定され、合致するものを正例とし、合致しないものを負例として取得した多段階の参照用モデルであり、
    前記予備的頭部検出工程において、前記多段階の予備的頭部検出モデルの各段階に対応して頭部検出が多段階で実施され、
    前の段階で取得された複数の頭部画像の中から、現段階の頭部画像を検出することを特徴とする、
    請求項1記載の頭部検出方法。
  3. 予め規定された規定画像領域において、頭部の少なくとも一部が含まれている画像を正例とし、かつ、頭部が含まれていない画像を負例として取得した予備的頭部検出モデルと、
    前記規定画像領域において、予め規定された位置および大きさに合致する状態で頭部が含まれている画像を正例とし、かつ、前記予め規定された位置および大きさの少なくとも一方に合致しない状態で頭部が含まれている画像を負例として取得した確定的頭部検出モデルと、
    検出対象画像を取得する画像取得手段と、
    前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、前記予備的頭部検出モデルを参照して前記検出対象画像から頭部画像を検出する予備的頭部検出手段と、
    前記予備的頭部検出手段により取得された複数の頭部画像の中から、前記確定的頭部検出モデルを参照して、確定的な頭部画像を検出する確定的頭部検出手段と
    を含むことを特徴とする頭部検出装置。
  4. 前記予備的頭部検出モデルが、前記確定的頭部検出モデルにおける予め規定された位置および大きさとの合致度合いが多段階に規定され、合致するものを正例とし、合致しないものを負例として取得した多段階の参照用モデルであり、
    前記予備的頭部検出手段が、前記多段階の予備的頭部検出モデルの各段階に対応して頭部検出を多段階で実施し、
    前の段階で取得された複数の頭部画像の中から、現段階の頭部画像を検出することを特徴とする、
    請求項3記載の頭部検出装置。
  5. 請求項1または2記載の頭部検出方法によって頭部を検出する頭部検出工程と、
    前記頭部の画像から属性を判定する属性判定工程と
    を含むことを特徴とする属性判定方法。
  6. 前記属性判定工程において、予め取得した属性判定モデルおよび属性判定ルールの少なくとも一方を参照して、前記頭部の画像から属性を判定することを特徴とする、請求項5記載の属性判定方法。
  7. 請求項3または4記載の頭部検出装置によって頭部を検出する頭部検出手段と、
    前記頭部の画像から属性を判定する属性判定手段と
    を含むことを特徴とする属性判定装置。
  8. 前記属性判定手段が、予め取得した属性判定モデルおよび属性判定ルールの少なくとも一方を参照して、前記頭部の画像から属性を判定することを特徴とする、請求項7記載の属性判定装置。
  9. 請求項1または2記載の頭部検出方法をコンピュータに実行させることを特徴とする、プログラム。
  10. 請求項5または6記載の属性判定方法をコンピュータに実行させることを特徴とする、プログラム。
  11. 請求項9または10記載のプログラムを記録していることを特徴とする記録媒体。
  12. 検出対象画像を取得する画像取得手段と、
    予め規定された規定画像領域において、頭部の少なくとも一部が含まれている画像を正例とし、かつ、頭部が含まれていない画像を負例として取得した予備的頭部検出モデルと、
    前記規定画像領域において、予め規定された位置および大きさに合致する状態で頭部が含まれている画像を正例とし、かつ、前記予め規定された位置および大きさの少なくとも一方に合致しない状態で頭部が含まれている画像を負例として取得した確定的頭部検出モデルと、
    前記頭部の画像から属性を判定するための属性判定モデルおよび属性判定ルールの少なくとも一方と、
    前記検出対象画像の前記規定画像領域を画像パッチとして切り出し、前記予備的頭部検出モデルを参照して前記検出対象画像から頭部画像を検出する予備的頭部検出手段と、
    前記予備的頭部検出手段により取得された複数の頭部画像の中から、前記確定的頭部検出モデルを参照して、確定的な頭部画像を検出する確定的頭部検出手段と、
    前記頭部の画像から属性を判定する属性判定手段と、
    属性判定結果を出力する出力手段と
    を含み、
    前記画像取得手段および前記出力手段が、システム外の通信回線網を介して、前記予備的頭部検出手段、前記予備的頭部検出モデル、前記確定的頭部検出手段、前記確定的頭部検出モデル、前記属性判定手段、ならびに、属性判定モデルおよび属性判定ルールの少なくとも一方と、接続されていることを特徴とする属性判定システム。
PCT/JP2011/060981 2010-06-30 2011-05-12 頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム WO2012002048A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012522506A JP5451883B2 (ja) 2010-06-30 2011-05-12 頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
CN201180032670.6A CN102971766B (zh) 2010-06-30 2011-05-12 头部检测方法、头部检测装置、属性判定方法、属性判定装置和属性判定系统
US13/807,677 US8917915B2 (en) 2010-06-30 2011-05-12 Head detecting method, head detecting apparatus, attribute determining method, attribute determining apparatus, program, recording medium, and attribute determining system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010149934 2010-06-30
JP2010-149934 2010-06-30

Publications (1)

Publication Number Publication Date
WO2012002048A1 true WO2012002048A1 (ja) 2012-01-05

Family

ID=45401783

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/060981 WO2012002048A1 (ja) 2010-06-30 2011-05-12 頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム

Country Status (4)

Country Link
US (1) US8917915B2 (ja)
JP (1) JP5451883B2 (ja)
CN (1) CN102971766B (ja)
WO (1) WO2012002048A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020128326A1 (fr) 2018-12-20 2020-06-25 Bostik Sa Composition à base de résine époxy et de polyuréthane
KR20200128565A (ko) * 2018-07-23 2020-11-13 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 이미지 처리 방법 및 장치, 단말 및 컴퓨터 판독 가능 저장 매체

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017170440A1 (ja) 2016-03-28 2017-10-05 Necソリューションイノベータ株式会社 計測装置、計測方法、及びコンピュータ読み取り可能な記録媒体
US11504749B2 (en) 2017-09-19 2022-11-22 Intuitive Robotics, Inc. Systems and methods for waste item detection and recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006073081A1 (ja) * 2005-01-05 2006-07-13 Nec Corporation 識別用データ学習システム、学習装置、識別装置及び学習方法
JP2009059047A (ja) * 2007-08-30 2009-03-19 Victor Co Of Japan Ltd 対象物検出装置、対象物検出方法、および対象物検出プログラム
WO2010032298A1 (ja) * 2008-09-17 2010-03-25 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3810943B2 (ja) * 1999-05-06 2006-08-16 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラムを記録した記録媒体
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US7783082B2 (en) * 2003-06-30 2010-08-24 Honda Motor Co., Ltd. System and method for face recognition
WO2006034256A2 (en) * 2004-09-17 2006-03-30 Cyberextruder.Com, Inc. System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
KR100624481B1 (ko) * 2004-11-17 2006-09-18 삼성전자주식회사 형판 기반 얼굴 검출 방법
JP4619762B2 (ja) * 2004-12-10 2011-01-26 富士フイルム株式会社 画像処理方法および装置並びにプログラム
JP4386447B2 (ja) * 2005-09-26 2009-12-16 富士フイルム株式会社 画像分割装置および方法並びにプログラム
US7889892B2 (en) * 2005-10-13 2011-02-15 Fujifilm Corporation Face detecting method, and system and program for the methods
CN100464332C (zh) * 2007-03-20 2009-02-25 北京中星微电子有限公司 一种图片查询方法及系统
JP4881199B2 (ja) * 2007-03-23 2012-02-22 富士フイルム株式会社 画像評価装置および方法並びにプログラム
WO2011065952A1 (en) * 2009-11-30 2011-06-03 Hewlett-Packard Development Company, L.P. Face recognition apparatus and methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006073081A1 (ja) * 2005-01-05 2006-07-13 Nec Corporation 識別用データ学習システム、学習装置、識別装置及び学習方法
JP2009059047A (ja) * 2007-08-30 2009-03-19 Victor Co Of Japan Ltd 対象物検出装置、対象物検出方法、および対象物検出プログラム
WO2010032298A1 (ja) * 2008-09-17 2010-03-25 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200128565A (ko) * 2018-07-23 2020-11-13 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 이미지 처리 방법 및 장치, 단말 및 컴퓨터 판독 가능 저장 매체
US11631275B2 (en) 2018-07-23 2023-04-18 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus, terminal, and computer-readable storage medium
KR102635373B1 (ko) * 2018-07-23 2024-02-07 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 이미지 처리 방법 및 장치, 단말 및 컴퓨터 판독 가능 저장 매체
WO2020128326A1 (fr) 2018-12-20 2020-06-25 Bostik Sa Composition à base de résine époxy et de polyuréthane
FR3090672A1 (fr) 2018-12-20 2020-06-26 Bostik Sa Composition à base de résine époxy et de polyuréthane

Also Published As

Publication number Publication date
CN102971766B (zh) 2016-06-29
JP5451883B2 (ja) 2014-03-26
CN102971766A (zh) 2013-03-13
JPWO2012002048A1 (ja) 2013-08-22
US20130114889A1 (en) 2013-05-09
US8917915B2 (en) 2014-12-23

Similar Documents

Publication Publication Date Title
US11200404B2 (en) Feature point positioning method, storage medium, and computer device
JP5569990B2 (ja) 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
WO2019047789A1 (zh) 关于增强现实场景的处理方法、终端设备、系统及计算机存储介质
JP5594791B2 (ja) 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
US10699473B2 (en) System and method for generating a virtual viewpoint apparatus
JP5213105B2 (ja) 映像ネットワークシステム及び映像データ管理方法
EP3709266A1 (en) Human-tracking methods, apparatuses, systems, and storage media
US20180114363A1 (en) Augmented scanning of 3d models
WO2018133825A1 (zh) 视频通话中视频图像的处理方法、终端设备、服务器及存储介质
KR20140139730A (ko) 깊이 차이를 이용한 얼굴 구성요소의 자동 분류 방법
CN111967319B (zh) 基于红外和可见光的活体检测方法、装置、设备和存储介质
CN107209922A (zh) 图像处理设备、图像处理系统、和图像处理方法
CN104811660A (zh) 控制装置及控制方法
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
JP5451883B2 (ja) 頭部検出方法、頭部検出装置、属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP2018026115A (ja) 火炎検出方法、火炎検出装置及び電子機器
CN113221767B (zh) 训练活体人脸识别模型、识别活体人脸的方法及相关装置
CN109002776B (zh) 人脸识别方法、系统、计算机设备和计算机可读存储介质
CN111225299A (zh) 一种onu故障识别、修复方法和装置
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP6290020B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN103473807A (zh) 一种3d模型变换系统及方法
KR101360063B1 (ko) 제스처 인식 방법 및 시스템

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180032670.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11800517

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012522506

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13807677

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11800517

Country of ref document: EP

Kind code of ref document: A1