WO2015146102A1 - 画像認識装置、画像認識方法、画像認識プログラムが記録された記録媒体、及び、画像認識システム - Google Patents

画像認識装置、画像認識方法、画像認識プログラムが記録された記録媒体、及び、画像認識システム Download PDF

Info

Publication number
WO2015146102A1
WO2015146102A1 PCT/JP2015/001567 JP2015001567W WO2015146102A1 WO 2015146102 A1 WO2015146102 A1 WO 2015146102A1 JP 2015001567 W JP2015001567 W JP 2015001567W WO 2015146102 A1 WO2015146102 A1 WO 2015146102A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
image recognition
recognition apparatus
tracking
Prior art date
Application number
PCT/JP2015/001567
Other languages
English (en)
French (fr)
Inventor
和之 櫻井
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2016510006A priority Critical patent/JP6471746B2/ja
Publication of WO2015146102A1 publication Critical patent/WO2015146102A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to an image recognition device capable of calculating camera parameters, for example.
  • Non-Patent Document 1 and Patent Document 1 based on an image received by a camera, a technique for estimating a camera parameter indicating the orientation of the camera is known.
  • Non-Patent Document 1 discloses an image recognition system that estimates camera parameters.
  • the image recognition system detects a person area estimated as a person for each of the plurality of received images, and calculates the position of the top of the head and the position of the foot for the detected person area. Next, as shown in FIG. 14, the image recognition system approximates the locus of the position of the top of the head (and the position of the foot) using a straight line based on the image 311.
  • FIG. 14 is a diagram illustrating an example of a trajectory calculated by the image recognition system disclosed in Non-Patent Document 1.
  • the image recognition system calculates, for the person 312, a straight line representing the trajectory 313 at the top and a straight line representing the foot locus 314. Next, the image recognition system calculates the camera parameter 315 based on the coordinates of the intersection of the straight line representing the trajectory 313 of the head and the straight line representing the foot locus 314.
  • Patent Document 1 discloses a camera parameter estimation device capable of estimating a camera parameter without fixing a landmark position.
  • the estimation apparatus calculates a similarity between a landmark included in the first image captured using the first camera and a landmark included in the second image captured using the second camera. Next, when the calculated similarity is high, the estimation device estimates the three-dimensional coordinates of the landmark based on the camera parameters regarding the first camera. Next, the estimation apparatus estimates camera parameters related to the second camera based on the estimated three-dimensional coordinates and the landmark coordinates in the second image.
  • Non-Patent Document 1 there is a high possibility that the accuracy regarding the calculated camera parameter is low.
  • the image recognition system does not determine whether or not the detected persons are the same in a plurality of images.
  • the image recognition system approximates the trajectory of the head of a certain person using, for example, a straight line
  • the head of a person different from the person may be mixed. Since the height of the head of the person to be tracked is often different from the height of the head of a person different from the person, in the case of data mixed with another person, the locus should be approximated using a straight line. I can't. Therefore, in this case, the accuracy regarding the parameter calculated by the image recognition system is low.
  • a main object of the present invention is to provide an image recognition device or the like that can calculate parameters with high accuracy.
  • an image recognition apparatus includes: A tracking means for tracking an object whose distance from the ground included as an image in a plurality of images captured using a camera is constant or substantially constant; A calculating unit that calculates an elevation angle at which the camera captures the image based on the position and size of a plurality of specific images among the plurality of images with respect to the tracked object;
  • an image recognition method includes: Tracking an object having a constant or substantially constant distance from the ground included as an image in a plurality of images captured by a camera, and with respect to the tracked object, among the plurality of images, positions of a plurality of specific images and Based on the size, an elevation angle at which the camera captures the image is calculated.
  • this object is also realized by such an image recognition program and a computer-readable recording medium for recording the program.
  • parameters can be calculated with high accuracy.
  • FIG. 1 is a block diagram showing the configuration of the image recognition apparatus 101 according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart showing the flow of processing in the image recognition apparatus 101 according to the first embodiment.
  • the image recognition apparatus 101 includes a tracking unit 102 and a calculation unit 103.
  • the image recognition apparatus 101 may further include a detection unit 106.
  • the image recognition apparatus 101 receives the image 201.
  • the image 201 received by the image recognition apparatus 101 may be an image calculated by performing a filter, geometric transformation, or the like.
  • the tracking unit 102 tracks an object (hereinafter simply referred to as “an object in the image”) included as an image (partial image) in a plurality of images according to a predetermined tracking procedure (step S101). ).
  • step S101 the calculation result (a plurality of images) in step S101 is expressed as “object series”.
  • the predetermined tracking procedure is, for example, a filtering method such as a Kalman filter or a particle filter, a tracking method of an image region such as a Mean_Shift method or template matching, a method of tracking a feature point group in an object, or a temporal change in an image such as an optical flow.
  • a filtering method such as a Kalman filter or a particle filter
  • a tracking method of an image region such as a Mean_Shift method or template matching
  • a method of tracking a feature point group in an object or a temporal change in an image such as an optical flow.
  • the predetermined tracking procedure is a method of tracking by identifying whether or not the objects included as images in the plurality of images are the same using a classifier such as a statistical classifier or template matching. May be.
  • the predetermined tracking procedure may be a method combining the above-described methods.
  • the calculation unit 103 calculates the parameter ⁇ (that is, the parameter 202) according to Equation 1 based on the object series tracked by the tracking unit 102 (step S102).
  • f represents the focal distance regarding a camera (not shown).
  • t 1 and t 2 represent a certain timing.
  • y t is a coordinate value representing the position of the object to be tracked in the image at timing t.
  • ⁇ t represents the size of the object to be tracked in the image at the timing t.
  • tan represents a tangent function
  • tan ⁇ 1 represents an inverse function of the tangent function. “/” Represents division (hereinafter the same in this specification).
  • the parameter ⁇ represents an elevation angle (angle of view) at which a camera (not shown) captures an image.
  • the position of the object and the size of the object may be values calculated by the tracking unit 102 by detecting the object from the image. Further, the position of the object and the size of the object may be values calculated by the detection unit 106 detecting the object from the image 201.
  • the detection unit 106 may be outside the image recognition apparatus 101. In this case, the tracking unit 102 receives the position of the object in the image 201 and the value of the object size from the outside.
  • the size of the object is, for example, the width of the object or the distance between a plurality of parts included in the object.
  • the size is defined using the distance between a plurality of parts, the distance between the part and the ground is assumed to be constant or substantially constant.
  • FIG. 3 and FIG. 4 are diagrams showing an example in which the tracking target is an eye on the face of a person, in a two-dimensional coordinate (XY coordinate) system plane space.
  • the image recognition apparatus 101 includes a detection unit 106.
  • the size of the object is assumed to be the distance between the eyes of the person's face.
  • the detection unit 106 uses, for example, a support vector machine (hereinafter referred to as “SVM”) for a plurality of images (images 301 in FIG. 3 and FIG. 4) captured at a certain timing to detect the face of a person.
  • SVM support vector machine
  • An area hereinafter, referred to as “face area”, the face area 302 in FIGS. 3 and 4) is detected.
  • the detection unit 106 calculates the position of the eyes by searching for a part of the detected face region 302 (for example, a region from the top of the head to the nose) using, for example, SVM.
  • the detection unit 106 calculates the size of the object in the image by calculating the distance between the eyes ( ⁇ 1 in FIG. 3 and ⁇ 2 in FIG. 4) based on the calculated eye position.
  • the detection unit 106 calculates coordinate values (y 1 in FIG. 3 and y 2 in FIG. 4) representing the detected eye position in the image.
  • the tracking unit 102 tracks the face region 302 with respect to a plurality of images (FIGS. 3 and 4) according to a predetermined tracking procedure (for example, Kalman filter) (step S101).
  • the tracking unit 102 calculates an object sequence according to the process in step S101.
  • the tracking unit 102 determines that the face regions 302 in the images illustrated in FIGS. 3 and 4 represent the same person. That is, the tracking unit 102 calculates that the object series includes the face area 302 in FIGS.
  • the tracking unit 102 may calculate a plurality of object sequences by tracking each face area.
  • the calculation unit 103 calculates the parameter ⁇ according to Equation 1 based on the object series calculated by the tracking unit 102 (step S102). For example, the tracking unit 102 calculates the parameter ⁇ according to Equation 1 based on ⁇ 1 and y 1 illustrated in FIG. 3 and ⁇ 2 and y 2 illustrated in FIG.
  • FIG. 5 is a block diagram illustrating the configuration of the image recognition system 104 according to the first embodiment.
  • the image recognition system 104 can control the camera 107.
  • the image recognition apparatus 101 calculates the parameter 202 as described above.
  • the camera control unit 105 controls the direction in which the camera 107 captures an image based on the parameter 202 calculated by the image recognition apparatus 101. Furthermore, the image recognition apparatus 101 may calculate the parameter 202 based on the image captured by the camera 107, and then the camera control unit 105 may control the direction based on the calculated parameter 202. The image recognition system 104 may repeatedly execute a process for calculating the parameter 202 and a process for controlling the orientation based on the parameter 202.
  • the parameter 202 can be calculated with high accuracy.
  • calculation unit 103 calculates the parameter 202 based on the object series tracked by the tracking unit 102.
  • Non-Patent Document 1 is different from the image recognition apparatus 101 according to the present embodiment in that the position of the top of the head or the like regardless of whether or not the objects included as images in the plurality of images are identical.
  • the parameter is calculated based on the trajectory. For this reason, when the image recognition system is used, the probability that the heads detected in a plurality of images are the heads of the same person is lower than that of the image recognition apparatus 101. If the trajectory of the top of the head includes an error, the image recognition system calculates an incorrect camera parameter.
  • the image recognition apparatus 101 calculates the parameter 202 based on the objects estimated to be the same in the object series. For this reason, the image recognition apparatus 101 according to the present embodiment is unlikely to contain an error. Therefore, the image recognition apparatus 101 calculates the parameter 202 based on information with low error (that is, size and coordinate value). As a result, the image recognition apparatus 101 according to the present embodiment can calculate the parameter 202 with high accuracy.
  • the accuracy of detecting human faces in images has been improved. Furthermore, after detecting a face in the image, the process of detecting eyes based on the detected face and calculating the distance between the detected eyes is performed with high accuracy according to recent image processing techniques. Can do. Accordingly, since the image recognition apparatus 101 calculates the parameter 202 based on the size, the parameter 202 calculated by the image recognition apparatus 101 becomes a more accurate value. That is, in the image recognition apparatus 101 according to the present embodiment, the parameter 202 can be further robustly calculated by using the size of a part that is relatively easy to calculate such as the distance between both eyes.
  • Non-Patent Document 1 is highly likely to calculate a parameter including the error.
  • an object can be accurately tracked.
  • FIG. 6 is a block diagram showing the configuration of the image recognition apparatus 111 according to the second embodiment of the present invention.
  • FIG. 7 is a flowchart showing the flow of processing in the image recognition apparatus 111 according to the second embodiment.
  • the image recognition apparatus 111 includes a tracking unit 112, a calculation unit 113, and a totaling unit 114.
  • the tracking unit 112 tracks each specific object among a plurality of objects included in the image 201 (that is, a plurality of images) (step S111).
  • the process in which the tracking unit 112 tracks each specific object is the same as the process shown in step S101.
  • the calculation unit 113 calculates a parameter for each tracked specific object (step S112).
  • the process in which the calculation unit 113 calculates parameters for each specific object is the same as the process shown in step S102.
  • the totaling unit 114 calculates a new parameter 202 based on the parameters calculated for each specific object according to a predetermined totaling procedure (step S113).
  • the predetermined counting procedure may be a procedure for calculating an average value of the parameters.
  • the predetermined counting procedure may be a procedure for calculating an average value after weighting a parameter related to each specific object.
  • the parameter 202 can be calculated with higher accuracy.
  • the reason is Reason 1 and Reason 2. That is, (Reason 1)
  • the configuration of the image recognition apparatus 111 according to the second embodiment includes the configuration of the image recognition apparatus 101 according to the first embodiment. (Reason 2) It is because the error which each parameter includes can be reduced by totaling the parameter calculated regarding each specific object according to a predetermined totalization procedure.
  • the parameter calculated by the calculation unit 113 may also include an error.
  • the counting unit 114 can reduce the error regarding the parameter by calculating the average of the parameter.
  • FIG. 8 is a block diagram showing the configuration of the image recognition apparatus 121 according to the third embodiment of the present invention.
  • FIG. 9 is a flowchart showing the flow of processing in the image recognition apparatus 121 according to the third embodiment.
  • the image recognition apparatus 121 includes a tracking unit 122, a calculation unit 123, and a totaling unit 124.
  • the tracking unit 122 tracks an object in the image 201 (that is, a plurality of images) with respect to the plurality of images according to a predetermined tracking procedure (step S101).
  • the calculation unit 123 calculates parameters for a specific tracked object based on at least two images (step S122).
  • the calculation unit 123 may calculate a parameter regarding a combination of two arbitrary images among a plurality of input images, or satisfy a predetermined condition among the combinations of the two images. Parameters may be calculated for the combinations that are present.
  • the predetermined condition is, for example, whether or not the size of two images is greater than or equal to a specific value. For example, when the distance between both eyes is used as the size, the predetermined condition is whether or not the distance between both eyes is a specific value or more, such as whether or not the distance is 5 pixels or more.
  • the calculation unit 123 calculates a parameter regarding a combination of two arbitrary images among images having a distance between both eyes of 5 pixels or more.
  • the error with respect to the size is reduced, so that the relative error is reduced. Can do. This is because the smaller the size in the image, the more susceptible to error. That is, according to the calculation unit 123, it is possible to reduce the influence of errors by limiting to combinations of images having a relatively large size.
  • the totaling unit 124 calculates a new parameter 202 based on parameters calculated for each specific object according to a predetermined totaling procedure (step S123).
  • the parameter 202 can be calculated with higher accuracy.
  • the reason is Reason 1 and Reason 2. That is, (Reason 1)
  • the configuration of the image recognition apparatus 121 according to the third embodiment includes the configuration of the image recognition apparatus 111 according to the second embodiment. (Reason 2) This is because the calculation unit 123 calculates a parameter for an image having a small size-related error in the image 201. Since the calculation unit 123 calculates the parameter 202 according to Equation 1 for an image with a small error regarding the size, the parameter error is small.
  • FIG. 10 is a block diagram showing a configuration of an image recognition apparatus 135 according to the fourth embodiment of the present invention.
  • FIG. 11 is a flowchart showing the flow of processing in the image recognition apparatus 135 according to the fourth embodiment.
  • the image recognition apparatus 135 includes a detection unit 131, a tracking unit 132, a calculation unit 133, and a totaling unit 134.
  • the detection unit 131 detects an object from the input image 201 (a plurality of images) according to a predetermined detection procedure for detecting the object (step S131). In this case, the detection unit 131 detects an object based on, for example, an object likeness indicating the degree of matching with the object to be searched.
  • object-likeness indicates that, for example, the larger the value, the higher the probability of representing the object.
  • the predetermined detection procedure is, for example, a method using a statistical classifier such as a neural network or SVM, a method using model fitting, a method using three-dimensional information calculated from an image, or the like. Many methods are already known for the predetermined detection procedure. For this reason, in this embodiment, the detailed description regarding a predetermined
  • the detection unit 131 calculates the position of the detected object in the image 201 and the size of the object in the image 201.
  • the tracking unit 132 tracks the object detected by the detection unit 131 with respect to the plurality of input images according to a predetermined tracking procedure (step S132).
  • the calculation unit 133 calculates parameters according to Equation 1 using the image 201 in the object sequence calculated by the tracking unit 132, the size calculated by the detection unit 131, and the like (step S133).
  • the totaling unit 134 calculates a new parameter 202 by totaling the parameters calculated by the calculation unit 133 according to a predetermined totaling procedure (step S134).
  • FIG. 12 is a flowchart illustrating an example of a processing flow in the image recognition apparatus 135 according to the fourth embodiment.
  • ⁇ t in Equation 1 represents the distance between the eyes at the timing t as illustrated in FIGS. 3 and 4.
  • the detection unit 131 receives an image 201 captured using a camera.
  • the detecting unit 131 detects an area representing the face by searching for an area representing the face from the received image 201 using, for example, SVM (step S141).
  • the detection unit 131 may detect a plurality of regions representing a face in one image.
  • the detection unit 131 calculates the position in the image 201 relating to the detected face and the distance between both eyes (step S142).
  • the detection unit 131 determines, for example, whether or not the area represents a face (partial area) using SVM.
  • the detection unit 131 searches for an eye in the face area having a large two-thirds coordinate (that is, the upper part of the face). . Thereby, the detection part 131 can detect eyes efficiently, and also calculates the distance between the detected eyes.
  • the detection unit 131 determines the facial appearance according to the distance between the identification boundary calculated by the SVM (that is, the boundary that identifies whether or not the region represents a face) and the region that represents the face. May be calculated. Further, the detection unit 131 may calculate the likelihood of a face for each of a plurality of images representing the detected face.
  • the face-likeness indicates, for example, that the larger the value, the higher the probability of representing the face.
  • the detection unit 131 may convert the distance between the eyes according to the orientation of the face in the area representing the detected face. For example, the detection unit 131 may convert the distance between the eyes so that the face direction is parallel or substantially parallel to the imaging direction.
  • the detection unit 131 may detect only an image whose face direction is parallel or substantially parallel to the direction in which the face is imaged.
  • the size includes an error when the face orientation is not parallel or substantially parallel to the imaging direction. Therefore, the size-related error can be reduced by the above-described processing.
  • the tracking unit 132 tracks the face area detected by the detection unit 131 with respect to a plurality of images using, for example, a Kalman filter (step S143).
  • the tracking unit 132 tracks a face area estimated to be the same person for a plurality of images.
  • the tracking unit 132 calculates the tracked face area as an object series.
  • the face area included in the object series is referred to as a “face series”.
  • the calculation unit 133 determines whether there is a face series for which no parameter is calculated among the face series calculated by the tracking unit 132 (step S144).
  • calculation unit 133 determines whether there is a combination of images representing faces that have not yet been processed in the unprocessed face series (Ste S145).
  • unprocessed combination a combination of images representing faces that have not yet been processed in the unprocessed face series.
  • the calculation unit 133 calculates a parameter according to Equation 1 using the unprocessed combination (step S146). In this case, the calculation unit 133 may calculate a parameter for only an image that satisfies a predetermined condition.
  • a parameter may be calculated for a combination of images in which the distance between both eyes is a specific value or more, for example, 5 pixels or more.
  • step S145 when determining that there is no unprocessed combination (NO in step S145), the totaling unit 134 follows a predetermined totaling procedure (for example, averages the parameters calculated by the calculation unit 133), and newly sets parameters. Calculate (step S147). By step S147, the process regarding one unprocessed face series is completed.
  • a predetermined totaling procedure for example, averages the parameters calculated by the calculation unit 133
  • step S148 the totaling unit 134 newly calculates the parameter 202 according to a predetermined totaling procedure.
  • the predetermined counting procedure may be a procedure for calculating a weighted average.
  • the predetermined counting procedure may be a procedure for calculating a value according to Equation 2.
  • theta k a face sequence k i.e., the k facial sequence
  • S k represents a combination of images representing an arbitrary face in the face series k.
  • I, j) ⁇ S k represents a specific combination of S k .
  • ⁇ (i, j) represents a parameter calculated for the combination (i, j) in step S146.
  • w i represents the face-likeness of the face image i.
  • g (w i , w j ) represents a weight function related to the face-likeness w i and w j .
  • h (w) represents a monotonically increasing function with respect to w
  • g (w i , w j ) h (w i ⁇ w j ) (where “ ⁇ ” is a number when w i is a numerical value) Represents multiplication, and when w i is a vector, it represents an inner product).
  • h (w) may represent a function such as a polynomial function, a logarithmic function, an exponential function, or a function calculated by combining the functions.
  • the predetermined counting procedure may be a procedure for calculating a value according to Equation 3.
  • d i represents the distance between both eyes in the face image i.
  • l (d i , d j ) represents a weight calculated based on d i and d j .
  • l (d i , d j ) m (d i ⁇ d j ).
  • the predetermined counting procedure may be a procedure for calculating values according to Equation 4 or Equation 5.
  • p and q each represent a weight function.
  • the totaling unit 134 may calculate the parameter according to Equation 6 in the process in step S148.
  • n k represents the number of combinations of images representing faces included in the face series k (that is, the k-th face series).
  • ⁇ all represents a parameter calculated by the counting unit 134 in step S148.
  • r (n) represents a weight function for n.
  • R (n) represents a monotonically increasing function with respect to n.
  • r (n) may represent a function such as a polynomial function, a logarithmic function, an exponential function, or a function calculated by combining the functions.
  • the image recognition system 104 may control the direction of imaging based on the parameters calculated by the image recognition device 135 described above.
  • the parameter 202 can be calculated with higher accuracy in addition to the effects of the image recognition device 111 according to the second embodiment.
  • the reason is Reason 1 and Reason 2. That is, (Reason 1)
  • the configuration of the image recognition apparatus 135 according to the fourth embodiment includes the configuration of the image recognition apparatus 111 according to the second embodiment. (Reason 2) This is because the tabulation unit 134 newly calculates the parameter 202 by weighting according to the error estimated for the parameter.
  • the predetermined counting procedure is a procedure for calculating a value according to Equation 2
  • a large weight is given to a parameter calculated when the likelihood of a face is large. It can be estimated that the higher the face-like value, the higher the probability of representing a face. Therefore, the predetermined counting procedure represents reducing the weight of the parameter calculated from the image having a low probability of representing the face.
  • the tabulation unit 134 calculates the parameter while focusing on an image with a low probability of including an error, so the parameter error is small.
  • the predetermined counting procedure is a procedure for calculating a value according to Equation 3
  • a large weight is given to a parameter calculated when the distance between both eyes is long.
  • the shorter the distance between both eyes the more susceptible to error.
  • the predetermined tabulation procedure represents reducing the weight of the parameter calculated when it is estimated that it is likely to be affected by the error. Therefore, the error of the parameter calculated by the totaling unit 134 is small.
  • Formula 4 or Formula 5 is a formula combining Formula 2 and Formula 3. For this reason, the effect in the case where the predetermined counting procedure calculates a value according to Equation 4 or Equation 5 is the same as the above-described effect.
  • the predetermined counting procedure is a procedure for calculating a value according to Equation 6
  • a large weight is given to a parameter having a large number of combinations of images representing faces included in the face series.
  • the image recognition device 135 When the image recognition device 135 receives a plurality of images captured by the camera in a certain period, the more the number of images representing the face detected by the detection unit 131 is, the more the camera captures an image representing the face. Can be estimated. That is, it can be estimated that the larger the number of combinations of images representing faces included in the face series k (that is, the kth face series), the more reliably the camera captures a face image. Therefore, since the totaling unit 134 calculates parameters while placing importance on images having a low probability of including errors, the parameter errors are small.
  • the image recognition apparatus may be realized using at least two calculation processing apparatuses physically or functionally.
  • the image recognition apparatus may be realized as a dedicated apparatus.
  • FIG. 13 is a diagram schematically illustrating a hardware configuration of a calculation processing apparatus capable of realizing the image recognition apparatus according to the first to fourth embodiments.
  • the computer 20 includes a central processing unit (Central Processing Unit, hereinafter referred to as “CPU”) 21, a memory 22, a disk 23, a nonvolatile recording medium 24, an input device 25, an output device 26, and a communication interface (hereinafter referred to as “CPU”). , “Communication IF”) 27.
  • the calculation processing device 20 can transmit / receive information to / from other calculation processing devices and communication devices via the communication IF 27.
  • the nonvolatile recording medium 24 can be read by a computer, for example, a compact disc (Compact Disc), a digital versatile disc (Digital_Versatile_Disc), a Blu-ray Disc (Blu-ray Disc. Registered trademark), a universal serial bus memory (USB memory), Solid state drive (Solid State Drive).
  • the non-volatile recording medium 24 retains such a program without being supplied with power, and can be carried.
  • the nonvolatile recording medium 24 is not limited to the above-described medium. Further, the program may be carried via the communication network via the communication IF 27 instead of the nonvolatile recording medium 24.
  • the CPU 21 copies a software program (computer program: hereinafter simply referred to as “program”) stored in the disk 23 to the memory 22 and executes arithmetic processing.
  • the CPU 21 reads data necessary for program execution from the memory 22. When the display is necessary, the CPU 21 displays the output result on the output device 26. When inputting a program from the outside, the CPU 21 reads the program from the input device 25.
  • the CPU 21 executes an image recognition program (FIGS. 2, 7, and 7) in the memory 22 corresponding to the function (process) represented by each unit shown in FIG. 1, FIG. 5, FIG. 6, FIG. 9 or 11) is interpreted and executed.
  • the CPU 21 sequentially performs the processes described in the above-described embodiments of the present invention.
  • the present invention can also be achieved by such an image recognition program. Furthermore, it can be understood that the present invention can also be realized by a computer-readable non-volatile recording medium in which the image recognition program is recorded.
  • An image recognition apparatus comprising: a calculating unit that calculates an elevation angle at which the camera captures the image based on positions and sizes of a plurality of specific images among the plurality of images with respect to the tracked object.
  • Appendix 2 The image recognition apparatus according to appendix 1, further comprising a totaling unit that newly calculates an elevation angle based on the plurality of elevation angles calculated by the calculation unit.
  • the object is plural,
  • the tracking unit tracks a plurality of specific objects among objects as images in the plurality of images,
  • the image recognition device according to claim 1 or 2, wherein the calculation unit calculates the elevation angle with respect to the tracked specific object.
  • the plurality of specific images are two images included in the plurality of images, The image recognition device according to any one of Supplementary Note 1 to Supplementary Note 3, wherein the calculation unit calculates the elevation angle with respect to the two images.
  • the tracking unit tracks the plurality of specific objects among the objects detected by the detection unit,
  • the aggregation means calculates the elevation angle by calculating a weighted average using an average of the plurality of the elevation angles or a weight defined based on the object likeness. Any one of the supplementary notes 2 to 4
  • the aggregating means calculates an average value of the plurality of elevation angles for the plurality of specific images, or uses a weight defined based on the number of combinations when selecting the plurality of specific images, and calculates a weighted average.
  • the image recognition device according to any one of appendix 2 to appendix 5, wherein the elevation angle is calculated by calculating.
  • the object is a face;
  • the image recognition device according to any one of supplementary notes 1 to 6, wherein the size is a distance between both eyes in the face.
  • Appendix 8 Further comprising a size calculating means for calculating the distance according to the orientation of the face, and using the calculated distance as the size;
  • the image recognition device according to any one of appendix 1 to appendix 7, wherein the calculation unit calculates the elevation angle based on the size calculated by the size calculation unit.
  • An image recognition system comprising: camera control means for controlling a direction in which the camera captures the image according to the elevation angle calculated by the image recognition apparatus.
  • Computer-readable recording medium Computer-readable recording medium.

Abstract

 高精度にパラメタを算出可能な画像認識装置等が提供される。画像認識装置101は、カメラを用いて撮像された複数の画像201に像として含まれる地面からの距離が一定または略一定である物体を追跡する追跡部102と、追跡された物体に関して、複数の画像201のうち、複数の特定画像の位置及びサイズに基づき、カメラが画像を撮像する仰角を算出する算出部103とを有する。

Description

画像認識装置、画像認識方法、画像認識プログラムが記録された記録媒体、及び、画像認識システム
 本発明は、たとえば、カメラパラメタを算出可能な画像認識装置等に関する。
 非特許文献1や、特許文献1に開示されるように、カメラが受信する画像に基づき、該カメラの向き等を表すカメラパラメタを推定する技術が知られている。
 非特許文献1は、カメラパラメタを推定する画像認識システムを開示する。該画像認識システムは、受信した複数の画像について、それぞれ、人物と推定される人物領域を検出し、検出した人物領域に関して、頭頂の位置及び足元の位置を算出する。次に、該画像認識システムは、図14に示すように、画像311に基づき、直線を用いて、頭頂の位置(及び、足元の位置)の軌跡を近似する。図14は、非特許文献1に開示される画像認識システムが算出する軌跡の一例を表す図である。
 該画像認識システムは、人物312に関して、頭頂の軌跡313を表す直線と、足元の軌跡314を表す直線とを算出する。次に、該画像認識システムは、頭頂の軌跡313を表す直線と、足元の軌跡314を表す直線との交点の座標に基づき、カメラパラメタ315を算出する。
 特許文献1は、ランドマークの位置を固定することなく、カメラパラメタを推定することが可能なカメラパラメタ推定装置を開示する。該推定装置は、第1カメラを用いて撮像される第1画像に含まれるランドマークと、第2カメラを用いて撮像される第2画像に含まれるランドマークとの類似度を算出する。次に、該推定装置は、算出した類似度が高い場合に、第1カメラに関するカメラパラメタに基づき、該ランドマークの3次元座標を推定する。次に、該推定装置は、推定した3次元座標と、第2画像における該ランドマークの座標とに基づき、第2カメラに関するカメラパラメタを推定する。
特開2009-124204号公報
Fengjun Lv, Tao Zhao and Nevatia R, "Self-calibration_of_a_camera_from_video_of_a_walking_human", IEEE Proc. ICPR 2002, Vol.1, pp. 562-567, 2002.
 しかし、非特許文献1に開示される画像認識システムによれば、算出されるカメラパラメタに関する精度が低い可能性が高い。
 この理由は、該画像認識システムが、複数の画像において、それぞれ検出される人物が、同一であるか否かを判定していないからである。この結果、該画像認識システムは、たとえば、直線を用いて、ある人物の頭頂の軌跡を近似する場合に、該人物と異なる人物の頭頂が混入する可能性がある。追跡する対象である人物の頭頂の高さが、該人物と異なる人物の頭頂の高さと異なることが多いので、別の人物が混入するデータの場合には、直線を用いて軌跡を近似することができない。したがって、この場合、該画像認識システムが算出するパラメタに関する精度は低い。
 そこで、本発明の主たる目的は、高精度にパラメタを算出可能な画像認識装置等を提供することである。
 前述の目的を達成するために、本発明の一態様において、画像認識装置は、
 カメラを用いて撮像された複数の画像に像として含まれる地面からの距離が一定または略一定である物体を追跡する追跡手段と、
 追跡された前記物体に関して、前記複数の画像のうち、複数の特定画像の位置及びサイズに基づき、前記カメラが前記画像を撮像する仰角を算出する算出手段と
 を備える。
 また、本発明の他の見地として、画像認識方法は、
 カメラにより撮像された複数の画像に像として含まれる地面からの距離が一定または略一定である物体を追跡し、追跡された前記物体に関して、前記複数の画像のうち、複数の特定画像の位置及びサイズに基づき、前記カメラが前記画像を撮像する仰角を算出する。
 さらに、同目的は、係る画像認識プログラム、および、そのプログラムを記録するコンピュータ読み取り可能な記録媒体によっても実現される。
 本発明に係る画像認識装置等によれば、高精度にパラメタを算出することができる。
本発明の第1の実施形態に係る画像認識装置が有する構成を示すブロック図である。 第1の実施形態に係る画像認識装置における処理の流れを示すフローチャートである。 追跡対象を人物の顔における目とする例を、2次元座標系の平面空間に表した図である。 追跡対象を人物の顔における目とする例を、2次元座標系の平面空間に表した図である。 第1の実施形態に係る画像認識システムが有する構成を表すブロック図である。 本発明の第2の実施形態に係る画像認識装置が有する構成を示すブロック図である。 第2の実施形態に係る画像認識装置における処理の流れを示すフローチャートである。 本発明の第3の実施形態に係る画像認識装置が有する構成を示すブロック図である。 第3の実施形態に係る画像認識装置における処理の流れを示すフローチャートである。 本発明の第4の実施形態に係る画像認識装置が有する構成を示すブロック図である。 第4の実施形態に係る画像認識装置における処理の流れを示すフローチャートである。 第4の実施形態に係る画像認識装置における処理の流れの一例を示すフローチャートである。 本発明の各実施形態に係る画像認識方法を実現可能な計算処理装置のハードウェア構成を、概略的に示すブロック図である。 非特許文献1に開示される画像認識システムが算出する軌跡の一例を表す図である。
 次に、本発明を実施する実施形態について図面を参照しながら詳細に説明する。
 <第1の実施形態>
 本発明の第1の実施形態に係る画像認識装置101が有する構成と、画像認識装置101が行う処理とについて、図1と図2とを参照しながら詳細に説明する。図1は、本発明の第1の実施形態に係る画像認識装置101が有する構成を示すブロック図である。図2は、第1の実施形態に係る画像認識装置101における処理の流れを示すフローチャートである。
 第1の実施形態に係る画像認識装置101は、追跡部102と、算出部103とを有する。画像認識装置101は、さらに、検出部106を有してもよい。
 画像認識装置101は、画像201を受信する。画像認識装置101が受信する画像201は、フィルタや幾何変換等を行うことにより算出される画像であってもよい。
 追跡部102は、所定の追跡手順に従い、複数の画像に像(部分画像)として含まれる物体(以下、単に、「画像中の物体」と表す。)を、複数の画像に関して追跡する(ステップS101)。
 以降、ステップS101における算出結果(複数の画像)を「物体系列」と表す。
 所定の追跡手順は、たとえば、Kalmanフィルタやパーティクルフィルタ等のフィルタリング手法、Mean_Shift法やテンプレートマッチング等の画像領域の追跡手法、物体中の特徴点群を追跡する手法、オプティカルフロー等の画像における時間変化を利用する手法等である。また、所定の追跡手順は、統計的識別器やテンプレートマッチング等の識別器を用いて、複数の画像に像として含まれる物体が同一であるか否かを識別することにより、追跡する手法であってもよい。さらに、所定の追跡手順は、上述した手法を組み合わせた手法であってもよい。
 上述した手法は、一般に知られた手法であるので、本実施形態においては、詳細な説明を省略する。
 次に、算出部103は、追跡部102が追跡した物体系列に基づき、式1に従い、パラメタθ(すなわち、パラメタ202)を算出する(ステップS102)。
Figure JPOXMLDOC01-appb-I000001
   ただし、fは、カメラ(不図示)に関する焦点距離を表す。t及びtは、あるタイミングを表す。yは、タイミングtにおける画像において、追跡対象である物体の位置を表す座標値である。ωは、タイミングtにおける画像において、追跡対象である物体のサイズを表す。tanは、正接関数を表し、tan-1は、正接関数の逆関数を表す。「/」は、割り算を表す(以下、本願明細書において同様)。
 この場合、パラメタθは、カメラ(不図示)が画像を撮像する仰角(画角)を表す。
 物体の位置、及び、物体のサイズは、追跡部102が、画像から物体を検出することにより算出する値であってもよい。また、物体の位置、及び、物体のサイズは、検出部106が、画像201から物体を検出することにより算出する値であってもよい。尚、検出部106は、画像認識装置101の外部であってもよく、この場合に、追跡部102は、外部から画像201における物体の位置、及び、物体のサイズの値を受信する。
 また、物体のサイズは、たとえば、該物体の横幅、あるいは、該物体に含まれる複数の部位間の距離等である。尚、複数の部位間の距離を用いてサイズを定義する場合に、該部位と地面との間の距離は、一定または略一定であるとする。
 ここで、追跡対象を、画像301における人物の顔とする例(図3及び図4)を用いながら、第1の実施形態に係る画像認識装置101における処理について詳細に説明する。図3及び図4は、追跡対象を人物の顔における目とする例を、2次元座標(X-Y座標)系の平面空間に表した図である。
 この例においては、画像認識装置101が、検出部106を有するとする。また、この例において、物体のサイズは、人物の顔における両目の間の距離であるとする。
 検出部106は、あるタイミングにおいて撮像された複数の画像(図3及び図4における画像301)に関して、たとえば、サポートベクトルマシン(以降、「SVM」と表す。)を用いることにより、人物の顔の領域(以降、「顔領域」と表す。図3及び図4における顔領域302)を検出する。
 次に、検出部106は、たとえば、SVM等を用いて、検出した顔領域302の一部の領域(たとえば、頭頂から鼻までの領域)を探索することにより、目の位置を算出する。次に、検出部106は、算出した目の位置に基づき、両目の間における距離(図3におけるω、及び、図4におけるω)を算出することにより、画像における物体のサイズを算出する。さらに、検出部106は、画像において、検出した目の位置を表す座標値(図3におけるy、及び、図4におけるy)を算出する。
 次に、追跡部102は、所定の追跡手順(たとえば、Kalmanフィルタ)に従い、複数の画像(図3及び図4)に関して顔領域302を追跡する(ステップS101)。追跡部102は、ステップS101における処理に従い、物体系列を算出する。
 説明の便宜上、追跡部102は、図3及び図4に例示する画像における顔領域302が同一の人物を表す画像であると判定するとする。すなわち、追跡部102は、物体系列が図3及び図4における顔領域302を含むことを算出する。
 尚、画像が複数の顔領域を含む場合に、追跡部102は、各顔領域を追跡することにより、複数の物体系列を算出してもよい。
 次に、算出部103は、追跡部102が算出する物体系列に基づき、式1に従いパラメタθを算出する(ステップS102)。たとえば、追跡部102は、図3に例示するω及びyと、図4に例示するω及びyとに基づき、式1に従いパラメタθを算出する。
 たとえば、図5に示すように、画像認識システム104に画像認識装置101を設置する場合に、画像認識システム104は、画像認識装置101と、カメラ制御部105とを有する。図5は、第1の実施形態に係る画像認識システム104が有する構成を表すブロック図である。画像認識システム104は、カメラ107を制御することが可能である。
 画像認識装置101は、上述したようにパラメタ202を算出する。
 カメラ制御部105は、画像認識装置101が算出したパラメタ202に基づき、カメラ107が画像を撮像する向きを制御する。さらに、画像認識装置101が、該カメラ107が撮像した画像に基づきパラメタ202を算出し、その後、さらに、算出したパラメタ202に基づき、カメラ制御部105が該向きを制御してもよい。画像認識システム104は、パラメタ202を算出する処理と、パラメタ202に基づき向きを制御する処理とを繰り返し実行してもよい。
 次に、本実施形態に係る画像認識装置101に関する効果について説明する。
 第1の実施形態に係る画像認識装置101によれば、高精度にパラメタ202を算出することができる。
 この理由は、追跡部102が追跡した物体系列に基づいて、算出部103がパラメタ202を算出するからである。
 非特許文献1に開示された画像認識システムは、本実施形態に係る画像認識装置101とは異なり、複数の画像に像として含まれる物体が同一であるか否かに関わらず、頭頂等の位置の軌跡に基づきパラメタを算出する。このため、該画像認識システムを用いた場合に、複数の画像において検出される頭頂が同一人物の頭頂である確率は、画像認識装置101に比べ低い。頭頂の軌跡が誤差を含む場合に、該画像認識システムは、誤ったカメラパラメタを算出する。
 一方、画像認識装置101は、物体系列において同一であると推定される物体に基づきパラメタ202を算出する。このため、本実施形態に係る画像認識装置101に関しては、誤差が含まれる可能性は低い。したがって、画像認識装置101は、誤差の低い情報(すなわち、サイズと座標値)に基づきパラメタ202を算出する。この結果、本実施形態に係る画像認識装置101によれば、高精度にパラメタ202を算出することができる。
 また、画像における人物の顔を検出する精度は、向上している。さらに、画像における顔を検出した後に、該検出した顔に基づき目を検出し、検出した両目の間の距離を算出する処理については、近年の画像処理技術によれば、高精度に実施することができる。したがって、画像認識装置101が、該サイズに基づきパラメタ202を算出するので、画像認識装置101が算出するパラメタ202は、より正確な値となる。すなわち、本実施形態に係る画像認識装置101において、両目の間の距離という比較的計算が容易な部位のサイズを利用することにより、さらに、頑健にパラメタ202を算出することが可能である。
 一方、画像において、頭頂や足元を検出する精度は、顔を検出する精度に比べ低い。したがって、算出される頭頂等の軌跡が誤差を含む可能性が高いので、非特許文献1に開示された画像認識システムは、誤差を含んだパラメタを算出する可能性が高い。
 さらに、本実施形態に係る画像認識システム104によれば、正確に物体を追跡することができる。
 この理由は、画像認識装置101が算出する正確なパラメタ202に基づき、カメラ107が撮像する向きを制御するからである。
 <第2の実施形態>
 次に、上述した第1の実施形態を基本とする本発明の第2の実施形態について説明する。
 以降の説明においては、本実施形態に係る特徴的な部分を中心に説明すると共に、上述した第1の実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明を省略する。
 図6と図7とを参照しながら、第2の実施形態に係る画像認識装置111が有する構成と、画像認識装置111が行う処理とについて説明する。図6は、本発明の第2の実施形態に係る画像認識装置111が有する構成を示すブロック図である。図7は、第2の実施形態に係る画像認識装置111における処理の流れを示すフローチャートである。
 第2の実施形態に係る画像認識装置111は、追跡部112と、算出部113と、集計部114とを有する。
 まず、追跡部112は、画像201(すなわち、複数の画像)に含まれる複数の物体のうち、特定の物体に関して、それぞれ、追跡する(ステップS111)。追跡部112が各特定の物体に関して追跡する処理は、ステップS101に示す処理と同様である。
 次に、算出部113は、追跡された各特定の物体に関して、それぞれ、パラメタを算出する(ステップS112)。算出部113が各特定の物体に関してパラメタを算出する処理は、ステップS102に示す処理と同様である。
 次に、集計部114は、所定の集計手順に従い、各特定の物体に関して算出されるパラメタに基づき、新たにパラメタ202を算出する(ステップS113)。
 所定の集計手順は、該パラメタの平均値を算出する手順であってもよい。また、後述する実施形態に示すように、所定の集計手順は、各特定の物体に関するパラメタに重みづけした後に、平均値を算出する手順であってもよい。
 次に、第2の実施形態に係る画像認識装置111に関する効果について説明する。
 第2の実施形態に係る画像認識装置111によれば、第1の実施形態に係る画像認識装置101が有する効果に加え、より一層、高精度にパラメタ202を算出することができる。
 この理由は、理由1及び理由2である。すなわち、
 (理由1)第2の実施形態に係る画像認識装置111が有する構成は、第1の実施形態に係る画像認識装置101が有する構成を含むからである、
 (理由2)所定の集計手順に従い各特定の物体に関して算出されるパラメタを集計することにより、各パラメタが含む誤差を低減することができるからである。
 一般に、追跡手順に従い算出される結果には、誤差が含まれる。追跡した結果に誤差が含まれる場合に、算出部113が算出するパラメタも誤差を含む可能性がある。誤差を含むパラメタを平均することにより、正確または略正確に該パラメタを推定可能な場合に、集計部114は、パラメタの平均を算出する等により、パラメタに関する誤差を低減することができる。
 <第3の実施形態>
 次に、上述した第2の実施形態を基本とする本発明の第3の実施形態について説明する。
 以降の説明においては、本実施形態に係る特徴的な部分を中心に説明すると共に、上述した第2の実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明を省略する。
 図8と図9とを参照しながら、第3の実施形態に係る画像認識装置121が有する構成と、画像認識装置121が行う処理とについて説明する。図8は、本発明の第3の実施形態に係る画像認識装置121が有する構成を示すブロック図である。図9は、第3の実施形態に係る画像認識装置121における処理の流れを示すフローチャートである。
 第3の実施形態に係る画像認識装置121は、追跡部122と、算出部123と、集計部124とを有する。
 まず、追跡部122は、所定の追跡手順に従い、画像201(すなわち複数の画像)における物体を、該複数の画像に関して追跡する(ステップS101)。
 次に、算出部123は、特定の追跡された物体に関して、少なくとも2つの画像に基づいて、パラメタを算出する(ステップS122)。
 ステップS122において、算出部123は、入力される複数の画像のうち、任意の2つの画像の組み合わせに関して、パラメタを算出してもよいし、該2つの画像の組み合わせのうち、所定の条件を満たしている組み合わせに関して、パラメタを算出してもよい。
 所定の条件は、たとえば、2つの画像において、ともに、サイズが特定の値以上であるか否かである。たとえば、サイズとして、両目の間の距離を用いる場合に、所定の条件は、両目の間の距離が5ピクセル以上であるか否か等、特定の値以上であるか否かである。
 この場合に、算出部123は、両目の間の距離が5ピクセル以上である画像のうち、任意の2つの画像の組み合わせに関してパラメタを算出する。
 上述したように、任意の2枚の画像の組み合わせのうち、サイズが特定の値以上である画像の組み合わせに関してパラメタを算出することにより、サイズに対する誤差が小さくなるので、相対的な誤差を減らすことができる。この理由は、画像におけるサイズが小さいほど、誤差の影響を受けやすいからである。すなわち、算出部123によれば、サイズが比較的大きな画像の組み合わせに限定することにより、誤差の影響を低減することができる。
 次に、集計部124は、所定の集計手順に従い、各特定の物体に関して算出されるパラメタに基づき、新たにパラメタ202を算出する(ステップS123)。
 次に、第3の実施形態に係る画像認識装置121に関する効果について説明する。
 第3の実施形態に係る画像認識装置121によれば、第2の実施形態に係る画像認識装置111が有する効果に加え、一層、高精度にパラメタ202を算出することができる。
 この理由は、理由1及び理由2である。すなわち、
 (理由1)第3の実施形態に係る画像認識装置121が有する構成は、第2の実施形態に係る画像認識装置111が有する構成を含むからである、
 (理由2)算出部123が、画像201のうち、サイズに関する誤差が小さい画像に関してパラメタを算出するからである。算出部123が、サイズに関する誤差が小さい画像について、式1に従いパラメタ202を算出するので、パラメタの誤差は小さい。
 <第4の実施形態>
 次に、上述した第2の実施形態を基本とする本発明の第4の実施形態について説明する。
 以降の説明においては、本実施形態に係る特徴的な部分を中心に説明すると共に、上述した第2の実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明を省略する。
 図10と図11とを参照しながら、第4の実施形態に係る画像認識装置135が有する構成と、画像認識装置135が行う処理とについて説明する。図10は、本発明の第4の実施形態に係る画像認識装置135が有する構成を示すブロック図である。図11は、第4の実施形態に係る画像認識装置135における処理の流れを示すフローチャートである。
 第4の実施形態に係る画像認識装置135は、検出部131と、追跡部132と、算出部133と、集計部134とを有する。
 まず、検出部131は、入力された画像201(複数の画像)から、物体を検出する所定の検出手順に従い、物体を検出する(ステップS131)。この場合に、検出部131は、たとえば、検索する対象である物体に適合する度合を表す物体らしさに基づき、物体を検出する。
 尚、物体らしさは、たとえば、大きな値であるほど、物体を表す確率が高いと推定されることを表す。
 所定の検出手順は、たとえば、ニューラルネットワークやSVM等の統計的識別器を用いる手法、モデル当てはめを用いる手法、画像から算出される3次元情報を用いる手法等である。所定の検出手順は、既に多くの方法が知られている。このため、本実施形態においては、所定の検出手順に関する詳細な説明を省略する。
 次に、検出部131は、画像201における検出した物体の位置と、画像201における物体のサイズとを算出する。
 次に、追跡部132は、所定の追跡手順に従い、入力された複数の画像に関して、検出部131が検出した物体を追跡する(ステップS132)。
 次に、算出部133は、追跡部132が算出した物体系列における画像201、及び、検出部131が算出したサイズ等を用いて、式1に従いパラメタを算出する(ステップS133)。
 次に、集計部134は、所定の集計手順に従い、算出部133が算出するパラメタを集計することにより、新たにパラメタ202を算出する(ステップS134)。
 図12を参照しながら、物体として人物の顔を検出し、物体のサイズとして両目の間の距離を用いる例における、本実施形態に係る画像認識装置135における処理の流れについて説明する。図12は、第4の実施形態に係る画像認識装置135における処理の流れの一例を示すフローチャートである。この場合に、式1におけるωは、図3及び図4に例示すような、タイミングtにおける両目の間の距離を表す。
 検出部131は、カメラを用いて撮像された画像201を受信する。
 検出部131は、たとえば、SVMを用いて、受信した画像201から顔を表す領域を探索することにより、顔を表す領域を検出する(ステップS141)。検出部131は、1枚の画像において、顔を表す複数の領域を検出してもよい。
 次に、検出部131は、検出した顔に関する画像201における位置、及び、両目の間の距離を算出する(ステップS142)。検出した顔の領域から目を検出する場合に、検出部131は、たとえば、SVMを用いて、顔を表す領域(部分領域)であるか否かを判定する。検出部131は、顔を表す領域であると物体系列において判定した各顔の領域について、顔の領域のうち座標が大きな3分の2の領域(すなわち、顔の上部)において、目を探索する。これにより、検出部131は、目を効率よく検出でき、さらに、検出した両目の間の距離を算出する。
 この場合に、検出部131は、SVMにより算出された識別境界(すなわち、顔を表す領域であるか否かを識別する境界)と、該顔を表す領域との距離等に応じて、顔らしさを算出してもよい。また、検出部131は、検出した顔を表す複数の画像について、それぞれ、顔らしさを算出してもよい。
 尚、顔らしさは、たとえば、大きな値であるほど、顔を表す確率が高いと推定されることを表す。
 検出部131は、検出した顔を表す領域における顔の向きに応じて、両目の間の距離を変換してもよい。たとえば、検出部131は、顔の向きが撮像する方向に平行または略平行になるように、両目の間の距離を変換してもよい。
 あるいは、検出部131は、顔の向きが撮像する方向に平行または略平行な画像のみを検出してもよい。顔の向きが撮像する方向に平行または略平行でない場合に、サイズは、誤差を含む。したがって、上述した処理により、サイズに関する誤差を低減することができる。
 次に、追跡部132は、たとえば、Kalmanフィルタを用いて、検出部131が検出した顔の領域を、複数の画像に関して追跡する(ステップS143)。この場合に、追跡部132は、複数の画像に関して、同一人物と推定される顔の領域を追跡する。追跡部132は、追跡した顔の領域を物体系列として算出する。以降においては、物体系列に含まれる顔の領域を「顔系列」と表す。
 次に、算出部133は、追跡部132が算出した顔系列のうち、パラメタを算出していない顔系列があるか否かを判定する(ステップS144)。
 以降、説明の便宜上、パラメタを算出していない顔系列を、「未処理顔系列」と表す。
 算出部133は、未処理顔系列があると判定する場合(ステップS144にてYES)に、未処理顔系列において、まだ処理されていない顔を表す画像の組み合わせがあるか否かを判定する(ステップS145)。
 以降、説明の便宜上、未処理顔系列において、まだ処理されていない顔を表す画像の組み合わせを、「未処理組み合わせ」と表す。
 次に、算出部133は、未処理組み合わせがあると判定する場合に(ステップS145にてYES)、該未処理組み合わせを用いて、式1に従い、パラメタを算出する(ステップS146)。この場合に、算出部133は、所定の条件を満たす画像のみに関して、パラメタを算出してもよい。
 また、所定の条件として、両目の間の距離が、たとえば、5ピクセル以上等、特定の値以上となる画像の組み合わせについて、パラメタを算出してもよい。
 次に、集計部134は、未処理組み合わせがないと判定する場合に(ステップS145にてNO)、所定の集計手順に従い(たとえば、算出部133が算出するパラメタを平均する)、新たにパラメタを算出する(ステップS147)。ステップS147により、1つの未処理顔系列に関する処理が完了する。
 算出部133がステップS144にてNOの場合に、集計部134は、所定の集計手順に従い、新たにパラメタ202を算出する(ステップS148)。
 たとえば、所定の集計手順は、重みづけ平均を算出する手順であってもよい。
 たとえば、検出部131が顔らしさを算出する場合に、所定の集計手順は、式2に従い値を算出する手順であってもよい。

Figure JPOXMLDOC01-appb-I000002
   ただし、θは、ステップS147において顔系列k(すなわち、第k顔系列)から算出されるパラメタを表す。Sは、顔系列kのおける、任意の顔を表す画像の組み合わせを表す。(i,j)∈Sは、Sのうち、特定の組み合わせを表す。θ(i,j)は、ステップS146において組み合わせ(i,j)に関して算出されるパラメタを表す。wは、顔の画像iに関する顔らしさを表す。g(w,w)は、顔らしさw及びwに関する重み関数を表す。
 たとえば、h(w)が、wに関する単調増加関数を表す場合に、g(w,w)=h(w・w)(ただし、「・」は、wが数値である場合には掛け算を表し、wがベクトルである場合には内積を表す。)としてもよい。たとえば、h(w)は、多項式関数、対数関数、指数関数等の関数や、該関数を組み合わせることにより算出される関数を表してもよい。
 たとえば、所定の集計手順は、式3に従い、値を算出する手順であってもよい。
Figure JPOXMLDOC01-appb-I000003
   ただし、dは、顔の画像iにおける両目の間の距離を表す。l(d,d)は、d、dに基づき算出される重みを表す。
 m(d)がdに関する単調増加関数を表す場合に、l(d,d)は、たとえば、l(d,d)=m(d-d)である。
 また、所定の集計手順は、式4あるいは式5に従い値を算出する手順であってもよい。
Figure JPOXMLDOC01-appb-I000004

Figure JPOXMLDOC01-appb-I000005
   ただし、p、qは、それぞれ、重み関数を表す。
 また、集計部134は、ステップS148における処理において、式6に従い、パラメタを算出してもよい。
Figure JPOXMLDOC01-appb-I000006
   ただし、nは、顔系列k(すなわち、第k顔系列)に含まれる顔を表す画像の組み合わせの数を表す。θallは、集計部134がステップS148において算出するパラメタを表す。r(n)はnに対する重み関数を表す。
 r(n)は、nに関する単調増加関数を表す。たとえば、r(n)は、多項式関数や対数関数、指数関数等の関数、または、該関数を組み合わせることにより算出される関数を表してもよい。
 さらに、画像認識システム104(図5)は、上述した画像認識装置135が算出するパラメタに基づき、撮像する向きを制御してもよい。
 次に、第4の実施形態に係る画像認識装置135に関する効果について説明する。
 第4の実施形態に係る画像認識装置135によれば、第2の実施形態に係る画像認識装置111が有する効果に加え、一層、高精度にパラメタ202を算出することができる。
 この理由は、理由1及び理由2である。すなわち、
 (理由1)第4の実施形態に係る画像認識装置135が有する構成は、第2の実施形態に係る画像認識装置111が有する構成を含むからである、
 (理由2)集計部134が、パラメタに関して推定される誤差に応じて重みづけすることにより、新たにパラメタ202を算出するからである。
 たとえば、所定の集計手順が、式2に従い値を算出する手順である場合に、顔らしさが大きな場合に算出されるパラメタに、大きな重みをつける。顔らしさが大きな値であるほど、顔を表す確率が高いと推定できる。従って、所定の集計手順は、顔を表す確率が低い画像から算出されるパラメタの重みを少なくすることを表す。言い換えれば、集計部134が、誤差を含む確率が低い画像を重視しながらパラメタを算出するので、パラメタの誤差は小さい。
 たとえば、所定の集計手順が、式3に従い値を算出する手順である場合に、両目の間の距離が長い場合に算出されるパラメタに、大きな重みをつける。上述したように、両目の間の距離が短いほど、誤差の影響を受けやすい。このため、所定の集計手順は、誤差の影響を受けやすいと推定される場合に算出されるパラメタの重みを少なくすることを表す。したがって、集計部134が算出するパラメタの誤差は小さい。
 式4または式5は、式2及び式3を組み合わせた式である。このため、所定の集計手順が、式4または式5に従い値を算出する場合における効果は、上述した効果と同様である。
 たとえば、所定の集計手順が、式6に従い値を算出する手順である場合に、顔系列に含まれる顔を表す画像の組み合わせ数が多いパラメタに、大きな重みをつける。
 ある期間においてカメラが撮像する複数の画像を、画像認識装置135が受信する場合に、検出部131が検出する顔を表す画像数が多いほど、カメラは、確実に顔を表す画像を撮像していると推定できる。すなわち、顔系列k(すなわち、第k顔系列)に含まれる顔を表す画像の組み合わせの数が多いほど、カメラは、確実に顔の画像を撮像していると推定できる。したがって、集計部134が、誤差を含む確率が低い画像を重視しながらパラメタを算出するため、パラメタの誤差は小さい。
 尚、顔らしさの例を参照しながら、本実施形態に係る画像認識装置135が有する効果について説明したが、本実施形態に係る画像認識装置135は、物体らしさであっても同様の効果を有する。
 (ハードウェア構成例)
 上述した本発明の各実施形態における画像認識装置を、1つの計算処理装置(情報処理装置、コンピュータ)を用いて実現するハードウェア資源の構成例について説明する。但し、係る画像認識装置は、物理的または機能的に少なくとも2つの計算処理装置を用いて実現してもよい。また、係る画像認識装置は、専用の装置として実現してもよい。
 図13は、第1の実施形態乃至第4の実施形態に係る画像認識装置を実現可能な計算処理装置のハードウェア構成を概略的に示す図である。計算処理装置20は、中央処理演算装置(Central Processing Unit、以降「CPU」と表す)21、メモリ22、ディスク23、不揮発性記録媒体24、入力装置25、出力装置26、および、通信インターフェース(以降、「通信IF」と表す。)27を有する。計算処理装置20は、通信IF27を介して、他の計算処理装置、及び、通信装置と情報を送受信することができる。
 不揮発性記録媒体24は、コンピュータが読み取り可能な、たとえば、コンパクトディスク(Compact Disc)、デジタルバーサタイルディスク(Digital_Versatile_Disc)、ブルーレイディスク(Blu-ray Disc。登録商標)、ユニバーサルシリアルバスメモリ(USBメモリ)、ソリッドステートドライブ(Solid State Drive)等である。不揮発性記録媒体24は、電源を供給しなくても係るプログラムを保持し、持ち運びを可能にする。不揮発性記録媒体24は、上述した媒体に限定されない。また、不揮発性記録媒体24の代わりに、通信IF27を介して、通信ネットワークを介して係るプログラムを持ち運びしてもよい。
 すなわち、CPU21は、ディスク23が記憶するソフトウェア・プログラム(コンピュータ・プログラム:以下、単に「プログラム」と称する)を、実行する際にメモリ22にコピーし、演算処理を実行する。CPU21は、プログラム実行に必要なデータをメモリ22から読み取る。表示が必要な場合には、CPU21は、出力装置26に出力結果を表示する。外部からプログラムを入力する場合に、CPU21は、入力装置25からプログラムを読み取る。CPU21は、上述した図1、図5、図6、図8、あるいは、図10に示した各部が表す機能(処理)に対応するところのメモリ22にある画像認識プログラム(図2、図7、図9、あるいは、図11)を解釈し実行する。CPU21は、上述した本発明の各実施形態において説明した処理を順次行う。
 すなわち、このような場合に、本発明は、係る画像認識プログラムによっても成し得ると捉えることができる。更に、係る画像認識プログラムが記録されたコンピュータ読み取り可能な不揮発性の記録媒体によっても、本発明は成し得ると捉えることができる。
 尚、上述した各実施形態の一部又は全部は、以下の付記のようにも記載されうる。しかし、上述した各実施形態により例示的に説明した本発明は、以下には限られない。すなわち、
 (付記1)
 カメラを用いて撮像された複数の画像に像として含まれる地面からの距離が一定または略一定である物体を追跡する追跡手段と、
 追跡された前記物体に関して、前記複数の画像のうち、複数の特定画像の位置及びサイズに基づき、前記カメラが前記画像を撮像する仰角を算出する算出手段と
 を備える画像認識装置。
 (付記2)
 前記算出手段が算出する複数の前記仰角に基づき、新たに仰角を算出する集計手段
 をさらに備える付記1に記載の画像認識装置。
 (付記3)
 前記物体は、複数であり、
 前記追跡手段は、前記複数の画像に像として物体のうち、複数の特定物体を追跡し、
 前記算出手段は、追跡された前記特定物体に関して、前記仰角を算出する
 付記1または付記2に記載の画像認識装置。
 (付記4)
 前記複数の特定画像は、前記複数の画像に含まれる2つの画像であり、
 前記算出手段は、前記2つの画像に関して前記仰角を算出する
 付記1乃至付記3のいずれかに記載の画像認識装置。
 (付記5)
 前記複数の画像に含まれる一部の画像から、対象とする物体に適合する度合を表す物体らしさに基づき、前記物体を検出する検出手段
 をさらに備え、
 前記追跡手段は、前記検出手段が検出する前記物体のうち、前記複数の特定物体を追跡し、
 前記集計手段は、前記複数の前記仰角を平均、または、前記物体らしさに基づき定義される重みを用いて、重み付き平均を算出することにより、前記仰角を算出する
 付記2乃至付記4のいずれかに記載の画像認識装置。
 (付記6)
 前記集計手段は、前記複数の特定画像に関して、前記複数の仰角の平均値を算出する、あるいは、前記複数の特定画像を選ぶ場合における組み合わせ数に基づき定義される重みを用いて、重み付き平均を算出することにより、前記仰角を算出する
 付記2乃至付記5のいずれかに記載の画像認識装置。
 (付記7)
 前記物体は顔であり、
 前記サイズは、前記顔における両目の間の距離である
 付記1乃至付記6のいずれかに記載の画像認識装置。
 (付記8)
 前記顔の向きに応じて前記距離を算出し、算出した前記距離を前記サイズとするサイズ算出手段
 をさらに備え、
 前記算出手段は、前記サイズ算出手段が算出する前記サイズに基づき、前記仰角を算出する
 付記1乃至付記7のいずれかに記載の画像認識装置。
 (付記9)
 付記1乃至付記8のいずれかに記載の画像認識装置と、
 前記画像認識装置が算出する前記仰角に応じて、前記カメラが前記画像を撮像する向きを制御するカメラ制御手段と
 を備える画像認識システム。
 (付記10)
 情報処理装置を用いて、カメラにより撮像された複数の画像に像として含まれる地面からの距離が一定または略一定である物体を追跡し、追跡された前記物体に関して、前記複数の画像のうち、複数の特定画像の位置及びサイズに基づき、前記カメラが前記画像を撮像する仰角を算出する画像認識方法。
 (付記11)
 カメラを用いて撮像された複数の画像に像として含まれる地面からの距離が一定または略一定である物体を追跡する追跡機能と、
 追跡された前記物体に関して、前記複数の画像のうち、複数の特定画像の位置及びサイズに基づき、前記カメラが前記画像を撮像する仰角を算出する算出機能と
 をコンピュータに実現させる画像認識プログラムが記録されたコンピュータが読み取り可能な記録媒体。
 以上、上述した実施形態を模範的な例として本発明を説明した。しかし、本発明は、上述した実施形態には限定されない。すなわち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
 この出願は、2014年3月28日に出願された日本出願特願2014-067651を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 101  画像認識装置
 102  追跡部
 103  算出部
 106  検出部
 107  カメラ
 201  画像
 202  パラメタ
 301  画像
 302  顔領域
 104  画像認識システム
 105  カメラ制御部
 111  画像認識装置
 112  追跡部
 113  算出部
 114  集計部
 121  画像認識装置
 122  追跡部
 123  算出部
 124  集計部
 131  検出部
 132  追跡部
 133  算出部
 134  集計部
 135  画像認識装置
 20  計算処理装置
 21  CPU
 22  メモリ
 23  ディスク
 24  不揮発性記録媒体
 25  入力装置
 26  出力装置
 27  通信IF
 311  画像
 312  人物
 313  頭頂の軌跡
 314  足元の軌跡
 315  カメラパラメタ

Claims (10)

  1.  カメラを用いて撮像された複数の画像に像として含まれる地面からの距離が一定または略一定である物体を追跡する追跡手段と、
     追跡された前記物体に関して、前記複数の画像のうち、複数の特定画像の位置及びサイズに基づき、前記カメラが前記画像を撮像する仰角を算出する算出手段と
     を備える画像認識装置。
  2.  前記算出手段が算出する複数の前記仰角に基づき、新たに仰角を算出する集計手段
     をさらに備える請求項1に記載の画像認識装置。
  3.  前記物体は、複数であり、
     前記追跡手段は、前記複数の画像に像として物体のうち、複数の特定物体を追跡し、
     前記算出手段は、追跡された前記特定物体に関して、前記仰角を算出する
     請求項1に記載の画像認識装置。
  4.  前記複数の特定画像は、前記複数の画像に含まれる2つの画像であり、
     前記算出手段は、前記2つの画像に関して前記仰角を算出する
     請求項1または請求項2に記載の画像認識装置。
  5.  前記複数の画像に含まれる一部の画像から、対象とする物体に適合する度合を表す物体らしさに基づき、前記物体を検出する検出手段
     をさらに備え、
     前記追跡手段は、前記検出手段が検出する前記物体のうち、前記複数の特定物体を追跡し、
     前記集計手段は、前記複数の前記仰角を平均、または、前記物体らしさに基づき定義される重みを用いて、重み付き平均を算出することにより、前記仰角を算出する
     請求項2乃至請求項4のいずれかに記載の画像認識装置。
  6.  前記集計手段は、前記複数の特定画像に関して、前記複数の仰角の平均値を算出する、あるいは、前記複数の特定画像を選ぶ場合における組み合わせ数に基づき定義される重みを用いて、重み付き平均を算出することにより、前記仰角を算出する
     請求項2乃至請求項5のいずれかに記載の画像認識装置。
  7.  前記物体は顔であり、
     前記サイズは、前記顔における両目の間の距離である
     請求項1乃至請求項6のいずれかに記載の画像認識装置。
  8.  請求項1乃至請求項7のいずれかに記載の画像認識装置と、
     前記画像認識装置が算出する前記仰角に応じて、前記カメラが撮像する向きを制御するカメラ制御手段と
     を備える画像認識システム。
  9.  カメラにより撮像された複数の画像に像として含まれる地面からの距離が一定または略一定である物体を追跡し、追跡された前記物体に関して、前記複数の画像のうち、複数の特定画像の位置及びサイズに基づき、前記カメラが前記画像を撮像する仰角を算出する画像認識方法。
  10.  カメラを用いて撮像された複数の画像に像として含まれる地面からの距離が一定または略一定である物体を追跡する追跡機能と、
     追跡された前記物体に関して、前記複数の画像のうち、複数の特定画像の位置及びサイズに基づき、前記カメラが前記画像を撮像する仰角を算出する算出機能と
     をコンピュータに実現させる画像認識プログラムが記録されたコンピュータが読み取り可能な記録媒体。
PCT/JP2015/001567 2014-03-28 2015-03-20 画像認識装置、画像認識方法、画像認識プログラムが記録された記録媒体、及び、画像認識システム WO2015146102A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016510006A JP6471746B2 (ja) 2014-03-28 2015-03-20 画像認識装置、画像認識方法、画像認識プログラム、及び、画像認識システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-067651 2014-03-28
JP2014067651 2014-03-28

Publications (1)

Publication Number Publication Date
WO2015146102A1 true WO2015146102A1 (ja) 2015-10-01

Family

ID=54194652

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/001567 WO2015146102A1 (ja) 2014-03-28 2015-03-20 画像認識装置、画像認識方法、画像認識プログラムが記録された記録媒体、及び、画像認識システム

Country Status (2)

Country Link
JP (1) JP6471746B2 (ja)
WO (1) WO2015146102A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241500A (ja) * 2006-03-07 2007-09-20 Toshiba Corp 顔認証装置および顔認証方法
JP2011211598A (ja) * 2010-03-30 2011-10-20 Sony Corp 撮像システムおよび撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241500A (ja) * 2006-03-07 2007-09-20 Toshiba Corp 顔認証装置および顔認証方法
JP2011211598A (ja) * 2010-03-30 2011-10-20 Sony Corp 撮像システムおよび撮像装置

Also Published As

Publication number Publication date
JP6471746B2 (ja) 2019-02-20
JPWO2015146102A1 (ja) 2017-04-13

Similar Documents

Publication Publication Date Title
US10867189B2 (en) Systems and methods for lane-marker detection
US9947077B2 (en) Video object tracking in traffic monitoring
US10147015B2 (en) Image processing device, image processing method, and computer-readable recording medium
JP2018533805A (ja) 顔位置追跡方法、装置及び電子デバイス
US20160042223A1 (en) Method and apparatus for facial recognition
US9558424B2 (en) On-road stereo visual odometry without explicit pose determinations
WO2015180100A1 (en) Facial landmark localization using coarse-to-fine cascaded neural networks
US11049270B2 (en) Method and apparatus for calculating depth map based on reliability
US10255673B2 (en) Apparatus and method for detecting object in image, and apparatus and method for computer-aided diagnosis
US10207409B2 (en) Image processing method, image processing device, and robot system
JP2010033447A (ja) 画像処理装置および画像処理方法
JP6997369B2 (ja) プログラム、測距方法、及び測距装置
WO2020107326A1 (zh) 车道线检测方法、设备、计算机可读存储介质
JP6265499B2 (ja) 特徴量抽出装置及び場所推定装置
WO2019127306A1 (en) Template-based image acquisition using a robot
US9942465B2 (en) Imaging apparatus and imaging condition setting method and program
Wang et al. Many-to-many superpixel matching for robust tracking
JP6471746B2 (ja) 画像認識装置、画像認識方法、画像認識プログラム、及び、画像認識システム
KR101436695B1 (ko) 깊이 영상을 이용한 손 검출 장치 및 방법
JP6787075B2 (ja) 画像処理システム、画像処理装置および画像処理方法
US8509541B2 (en) Method for eye detection for a given face
JP5643147B2 (ja) 動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラム
JPH03238566A (ja) 消点検出装置
CN107615295B (zh) 用于定位面部图像的面部关键特征的设备和方法
KR101554811B1 (ko) 영상의 국부 영역에 대한 복사 및 이동 변조 탐지 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15768684

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016510006

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase
122 Ep: pct application non-entry in european phase

Ref document number: 15768684

Country of ref document: EP

Kind code of ref document: A1