JP6969878B2 - Discriminator learning device and discriminator learning method - Google Patents

Discriminator learning device and discriminator learning method Download PDF

Info

Publication number
JP6969878B2
JP6969878B2 JP2017047332A JP2017047332A JP6969878B2 JP 6969878 B2 JP6969878 B2 JP 6969878B2 JP 2017047332 A JP2017047332 A JP 2017047332A JP 2017047332 A JP2017047332 A JP 2017047332A JP 6969878 B2 JP6969878 B2 JP 6969878B2
Authority
JP
Japan
Prior art keywords
image
person
whole body
estimation result
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017047332A
Other languages
Japanese (ja)
Other versions
JP2018151833A (en
Inventor
智之 加賀屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2017047332A priority Critical patent/JP6969878B2/en
Publication of JP2018151833A publication Critical patent/JP2018151833A/en
Application granted granted Critical
Publication of JP6969878B2 publication Critical patent/JP6969878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人物の少なくとも一部を含む人物画像に基づきその人物の人物属性を推定する識別器の学習を行う識別器学習装置および識別器学習方法に関する。 The present invention relates to a classifier learning device and a classifier learning method for learning a classifier that estimates a person's attributes based on a person image including at least a part of the person.

近年、例えばショッピングモールやテーマパーク等の商業施設において、客層に応じたデジタルサイネージ広告の表示や客層の調査等を目的として、監視カメラで人物を撮像した撮像画像に基づき、その人物の人物属性を推定することが行われている。そのような技術として、識別器(識別モデル)を用いて、撮像画像から抽出した顔画像に基づき人物属性(例えば年齢や性別等)を推定する技術が知られている(特許文献1、特許文献2、特許文献3参照)。 In recent years, in commercial facilities such as shopping malls and theme parks, for the purpose of displaying digital signage advertisements according to the customer base and investigating the customer base, the person attributes of the person have been changed based on the captured image of the person taken by a surveillance camera. Estimating is being done. As such a technique, a technique for estimating a person's attributes (for example, age, gender, etc.) based on a face image extracted from a captured image using a discriminative model (discriminative model) is known (Patent Document 1, Patent Document 1). 2. See Patent Document 3).

特開平4−264985号公報Japanese Unexamined Patent Publication No. 4-264985 特開2015−125731号公報Japanese Unexamined Patent Publication No. 2015-125731 特表2007−520010号公報Special Table 2007-5210

しかしながら、上記の特許文献1−3の従来技術では、顔画像に基づき人物属性を推定しているため、撮像画像から顔画像を抽出できなかった場合には人物属性を推定することができないという問題があった。そこで、顔画像ではなく、人物の少なくとも一部を含む人物画像(例えば全身画像等)に基づき人物属性を推定することが考えられるが、人物画像に含まれる人物の服装や姿(外見)は、国や地域、季節、年齢等によって大きく異なるため、人物画像に基づき人物属性を精度良く推定することができなかった。 However, in the above-mentioned prior art of Patent Document 1-3, since the person attribute is estimated based on the face image, there is a problem that the person attribute cannot be estimated when the face image cannot be extracted from the captured image. was there. Therefore, it is conceivable to estimate the person attribute based on a person image (for example, a whole body image) including at least a part of the person instead of the face image, but the clothes and appearance (appearance) of the person included in the person image are determined. Since it varies greatly depending on the country, region, season, age, etc., it was not possible to accurately estimate the person attributes based on the person image.

本開示は、このような従来技術の課題を鑑みて案出されたものであり、人物の少なくとも一部を含む人物画像に基づきその人物の人物属性を精度良く推定することができる識別器を提供する識別器学習装置および識別器学習方法を提供することを主目的とする。 The present disclosure has been devised in view of such problems of the prior art, and provides a classifier capable of accurately estimating the person attribute of a person based on a person image including at least a part of the person. The main purpose is to provide a discriminator learning device and a discriminator learning method.

本開示の識別器学習装置は、プロセッサと、撮像装置と通信を実行する通信部とを備え、前記プロセッサは、前記撮像装置から、性別または年齢の推定対象である推定対象人物の顔以外の少なくとも一部を含む全身画像、および、前記推定対象人物の顔を含む顔画像を取得し、機械学習により予め構築した、入力された全身画像を解析して前記入力された全身画像に含まれる人物の性別または年齢の推測結果を出力する人物画像用識別器前記推定対象人物の全身画像を入力することで前記推定対象人物の性別または年齢を推定し、機械学習により予め構築した、入力された顔画像を解析して前記入力された顔画像に含まれる人物の性別または年齢を推測する人物情報用識別器前記推定対象人物の顔画像を入力することで前記推定対象人物の性別または年齢を推定し、前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致するか否かを判定し、前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致すると判定された場合には、前記一致すると判定された推定結果を正解ラベルとし、前記全身画像を前記人物画像用識別器に追加学習させることを特徴とする。 The classifier learning device of the present disclosure includes a processor and a communication unit that executes communication with the image pickup device, and the processor is at least other than the face of an estimation target person to be estimated from the image pickup device for gender or age. A whole-body image including a part and a face image including the face of the estimated target person are acquired, and the input whole-body image constructed in advance by machine learning is analyzed and the person included in the input whole-body image is included. for human image discriminator for outputting the estimation result of sex or age, the sex or age of the estimated target person estimated by entering the systemic image estimation target person was previously constructed by machine learning, it is input the person information for identifier to infer gender or age of a person included a face image the input face image by analyzing, sex or age of the estimated target person by inputting the face image of the estimated target person Is estimated, and it is determined whether or not the estimation result based on the whole body image and the estimation result based on the face image match, and it is determined that the estimation result based on the whole body image and the estimation result based on the face image match. If so, the estimation result determined to match is used as a correct answer label, and the whole body image is additionally trained by the person image classifier.

本開示によれば、人物の少なくとも一部を含む人物画像に基づきその人物の人物属性を精度良く推定することができる識別器を提供することが可能となる。 According to the present disclosure, it is possible to provide a classifier capable of accurately estimating the person attribute of a person based on a person image including at least a part of the person.

本開示に係る識別器学習装置を含む識別器学習システムの概要を示す構成図A block diagram showing an outline of a classifier learning system including a classifier learning device according to the present disclosure. 識別器学習装置の概略構成を示すブロック図Block diagram showing the schematic configuration of the classifier learning device 識別器学習処理の流れを示すフロー図Flow diagram showing the flow of classifier learning process 撮像画像から抽出した全身画像および顔画像の一例を示す図The figure which shows an example of the whole body image and the face image extracted from the captured image. 人物属性の推定結果の一例を示す図Figure showing an example of estimation result of person attribute 人物属性推定処理の流れを示すフロー図Flow diagram showing the flow of person attribute estimation processing

上記課題を解決するためになされた第1の発明は、プロセッサと、撮像装置と通信を実行する通信部とを備え、前記プロセッサは、前記撮像装置から、人物属性の推定対象である推定対象人物の少なくとも一部を含む人物画像を取得し、機械学習により予め構築した人物画像用識別器を用いて、前記人物画像に基づき前記推定対象人物の人物属性を推定し、機械学習により予め構築した人物情報用識別器を用いて、前記人物画像とは異なる情報である人物情報に基づき前記推定対象人物の人物属性を推定し、前記人物画像に基づく推定結果と前記人物情報に基づく推定結果とが一致するか否かを判定し、前記人物画像に基づく推定結果と前記人物情報に基づく推定結果とが一致すると判定された場合には、前記人物画像を学習データとして追加して前記人物画像用識別器の学習を行うことを特徴とする。 The first invention made to solve the above-mentioned problems includes a processor and a communication unit that executes communication with an image pickup device, and the processor is an estimation target person who is an estimation target of a person attribute from the image pickup device. A person image including at least a part of the above is acquired, a person attribute of the estimated target person is estimated based on the person image using a person image classifier constructed in advance by machine learning, and a person constructed in advance by machine learning. Using the information classifier, the person attribute of the estimation target person is estimated based on the person information which is different from the person image, and the estimation result based on the person image and the estimation result based on the person information match. If it is determined whether or not the estimation result matches the estimation result based on the person image and the estimation result based on the person information, the person image is added as training data and the person image classifier is used. It is characterized by learning.

この第1の発明に係る識別器学習装置によれば、人物画像に基づく推定結果と人物画像以外の人物情報に基づく推定結果とが一致した場合に、推定対象人物の人物画像を学習データとして追加して人物画像用識別器の学習を行うので、精度の高いオンライン学習(追加学習)を実現することが可能となる。これにより、人物の人物画像に基づきその人物の人物属性を精度良く推定することができる識別器を提供することが可能となる。 According to the classifier learning device according to the first invention, when the estimation result based on the person image and the estimation result based on the person information other than the person image match, the person image of the person to be estimated is added as learning data. Since the learning of the classifier for the person image is performed, it is possible to realize highly accurate online learning (additional learning). This makes it possible to provide a classifier capable of accurately estimating the person attributes of the person based on the person image of the person.

また、第2の発明は、上記第1の発明において前記人物画像に基づく推定結果と前記人物情報に基づく推定結果とが一致しないと判定された場合には、前記人物画像を、前記人物画像に基づく推定結果と前記人物情報に基づく推定結果とが一致する場合よりも信頼度が低い学習データとして追加して前記人物画像用識別器の学習を行うことを特徴とする。 Further, in the second invention, when it is determined in the first invention that the estimation result based on the person image and the estimation result based on the person information do not match, the person image is converted into the person image. It is characterized in that the discriminator for a person image is trained by adding it as learning data having a lower reliability than when the estimation result based on the estimation result and the estimation result based on the person information match.

この第2の発明に係る識別器学習装置によれば、人物画像に基づく推定結果と、人物画像以外の人物情報に基づく推定結果とが一致しない場合に、推定対象人物の人物画像を信頼度の低い学習データとして追加して人物画像用識別器の学習を行うので、より精度の高いオンライン学習を実現することが可能となる。 According to the classifier learning device according to the second invention, when the estimation result based on the person image and the estimation result based on the person information other than the person image do not match, the person image of the person to be estimated has the reliability. Since the classifier for a person image is learned by adding it as low learning data, it is possible to realize more accurate online learning.

また、第3の発明は、上記第2の発明において、前記人物情報に基づく推定結果を正解ラベルとして使用することを特徴とする。 Further, the third invention is characterized in that, in the second invention, the estimation result based on the person information is used as a correct answer label.

この第3の発明に係る識別器学習装置によれば、人物情報が人物画像よりも信頼度が高い場合に、人物情報を正解ラベルとして使用することによって、より精度の高いオンライン学習を実現することが可能となる。 According to the classifier learning device according to the third invention, when the person information is more reliable than the person image, the person information is used as a correct label to realize more accurate online learning. Is possible.

また、第4の発明は、上記第1の発明ないし第3の発明のいずれかにおいて、前記人物情報が、前記人物画像に含まれる顔画像であることを特徴とする。 Further, the fourth invention is characterized in that, in any one of the first invention to the third invention, the person information is a face image included in the person image.

この第4の発明に係る識別器学習装置によれば、人物画像に含まれる顔画像を人物情報として用いるので、人物情報を容易に取得することができる。 According to the classifier learning device according to the fourth invention, since the face image included in the person image is used as the person information, the person information can be easily acquired.

また、第5の発明は、上記第4の発明において、前記プロセッサは、前記人物画像に基づく前記推定対象人物の人物属性の推定をさらに行い、前記人物画像から前記顔画像が抽出された場合には、前記人物情報用識別器を用いて、前記顔画像に基づき前記人物の人物属性を推定し、前記人物画像から前記顔画像が抽出されなかった場合には、前記人物画像用識別器を用いて、前記人物画像に基づき前記推定対象人物の人物属性を推定することを特徴とする。 Further, in the fifth aspect of the invention, in the fourth aspect, the processor further estimates the person attribute of the estimation target person based on the person image, and the face image is extracted from the person image. Estimates the person attribute of the person based on the face image using the person information classifier, and if the face image is not extracted from the person image, the person image classifier is used. It is characterized in that the person attribute of the estimation target person is estimated based on the person image.

この第5の発明に係る識別器学習装置によれば、人物画像から顔画像を抽出できなかった場合でも、人物画像に基づきその人物の人物属性を推定することができる。また、人物画像用識別器は、精度の高いオンライン学習により構築されているので、人物画像に基づく人物属性の推定を高精度で行うことができる。 According to the classifier learning device according to the fifth invention, even if the face image cannot be extracted from the person image, the person attribute of the person can be estimated based on the person image. Further, since the person image classifier is constructed by highly accurate online learning, it is possible to estimate the person attribute based on the person image with high accuracy.

また、第6の発明は、上記第1の発明ないし第5の発明のいずれかにおいて、前記人物属性が、前記人物の性別および年齢を含むことを特徴とする。 Further, the sixth invention is characterized in that, in any one of the first invention to the fifth invention, the person attribute includes the gender and age of the person.

この第6の発明に係る識別器学習装置によれば、人物属性として性別または年齢を推定することができる。 According to the classifier learning device according to the sixth invention, gender or age can be estimated as a person attribute.

また、第7の発明は、上記第1の発明ないし第6の発明のいずれかにおいて、前記人物画像が、前記推定対象人物の全身画像であることを特徴とする。 Further, the seventh invention is characterized in that, in any one of the first invention to the sixth invention, the person image is a whole body image of the person to be estimated.

この第7の発明に係る識別器学習装置によれば、人物画像として、人物の全身画像を利用することができる。全身画像は、例えば人物が背を向けている場合など顔画像等の人物情報が得られない場合にも取得し易い情報であるため、人物属性の推定を行う機会を多く確保することができる。 According to the discriminator learning device according to the seventh invention, a whole body image of a person can be used as a person image. Since the whole body image is information that can be easily acquired even when the person information such as the face image cannot be obtained, for example, when the person turns his back, it is possible to secure many opportunities to estimate the person attribute.

また、第8の発明は、撮像装置から、人物属性の推定対象である推定対象人物の少なくとも一部を含む人物画像を取得ステップと、機械学習により予め構築した人物画像用識別器を用いて、前記人物画像に基づき前記推定対象人物の人物属性を推定するステップと、機械学習により予め構築した人物情報用識別器を用いて、前記人物画像とは異なる情報である人物情報に基づき前記推定対象人物の人物属性を推定ステップと、前記人物画像に基づく推定結果と前記人物情報に基づく推定結果とが一致するか否かを判定ステップと、前記人物画像に基づく推定結果と前記人物情報に基づく推定結果とが一致すると判定された場合には、前記人物画像を学習データとして追加して前記人物画像用識別器の学習を行うステップとを有することを特徴とする。 Further, the eighth invention uses a step of acquiring a person image including at least a part of the person to be estimated to be an estimation target of a person attribute from an image pickup apparatus, and a person image classifier constructed in advance by machine learning. The estimation target person is estimated based on the person information which is different from the person image by using the step of estimating the person attribute of the estimation target person based on the person image and the person information classifier constructed in advance by machine learning. The person attribute of the person is estimated, the estimation result based on the person image and the estimation result based on the person information are determined to match, the estimation result based on the person image and the estimation result based on the person information. When it is determined that the above is the same, the person image is added as training data to include a step of learning the person image classifier.

この第8の発明に係る識別器学習方法によれば、人物画像に基づく推定結果と人物画像以外の人物情報に基づく推定結果とが一致した場合に、推定対象人物の人物画像を学習データとして追加して人物画像用識別器の学習を行うので、精度の高いオンライン学習(追加学習)を実現することが可能となる。これにより、人物の人物画像に基づきその人物の人物属性を精度良く推定することができる識別器を提供することが可能となる。 According to the discriminator learning method according to the eighth invention, when the estimation result based on the person image and the estimation result based on the person information other than the person image match, the person image of the person to be estimated is added as learning data. Since the learning of the classifier for the person image is performed, it is possible to realize highly accurate online learning (additional learning). This makes it possible to provide a classifier capable of accurately estimating the person attributes of the person based on the person image of the person.

また、第9の発明は、上記第8の発明において、前記人物画像に基づく推定結果と前記人物情報に基づく推定結果とが一致しないと判定された場合には、前記人物画像を、前記人物画像に基づく推定結果と前記人物情報に基づく推定結果とが一致する場合よりも信頼度が低い学習データとして追加して前記人物画像用識別器の学習を行うステップをさらに有することを特徴とする。 Further, in the ninth invention, when it is determined in the eighth invention that the estimation result based on the person image and the estimation result based on the person information do not match, the person image is used as the person image. It is characterized by further having a step of learning the person image classifier by adding it as training data having lower reliability than the case where the estimation result based on the person information and the estimation result based on the person information match.

この第9の発明に係る識別器学習方法によれば、人物画像に基づく推定結果と、人物画像以外の人物情報に基づく推定結果とが一致しない場合に、推定対象人物の人物画像を信頼度の低い学習データとして追加して人物画像用識別器の学習を行うので、より精度の高いオンライン学習を実現することが可能となる。 According to the discriminator learning method according to the ninth invention, when the estimation result based on the person image and the estimation result based on the person information other than the person image do not match, the person image of the person to be estimated has the reliability. Since the classifier for a person image is learned by adding it as low learning data, it is possible to realize more accurate online learning.

また、第10の発明は、上記第9の発明において、前記人物情報に基づく推定結果を正解ラベルとして使用することを特徴とする。 Further, the tenth invention is characterized in that, in the ninth invention, the estimation result based on the person information is used as a correct answer label.

この第10の発明に係る識別器学習方法によれば、人物情報が人物画像よりも信頼度が高い場合に、人物情報を正解ラベルとして使用することによって、より精度の高いオンライン学習を実現することが可能となる。 According to the classifier learning method according to the tenth invention, when the person information is more reliable than the person image, the person information is used as a correct label to realize more accurate online learning. Is possible.

また、第11の発明は、上記第8の発明ないしの第10の発明のいずれかにおいて、前記人物情報が、前記人物画像に含まれる顔画像であることを特徴とする。 Further, the eleventh invention is characterized in that, in any one of the eighth invention or the tenth invention, the person information is a face image included in the person image.

この第11の発明に係る識別器学習方法によれば、人物画像に含まれる顔画像を人物情報として用いるので、人物情報を容易に取得することができる。 According to the discriminator learning method according to the eleventh invention, since the face image included in the person image is used as the person information, the person information can be easily acquired.

また、第12の発明は、上記第11の発明において、前記人物画像に基づく前記推定対象人物の人物属性の推定をさらに行い、前記人物画像から前記顔画像が抽出された場合には、前記人物情報用識別器を用いて、前記顔画像に基づき前記人物の人物属性を推定するステップと、前記人物画像から前記顔画像が抽出されなかった場合には、前記人物画像用識別器を用いて、前記人物画像に基づき前記推定対象人物の人物属性を推定するステップとをさらに有することを特徴とする。 Further, in the twelfth invention, in the eleventh invention, the person attribute of the estimation target person is further estimated based on the person image, and when the face image is extracted from the person image, the person. Using the information classifier, the step of estimating the person attribute of the person based on the face image, and when the face image is not extracted from the person image, the person image classifier is used. It is characterized by further including a step of estimating the person attribute of the person to be estimated based on the person image.

この第12の発明に係る識別器学習方法によれば、人物画像から顔画像を抽出できなかった場合でも、人物画像に基づきその人物の人物属性を推定することができる。また、人物画像用識別器は、精度の高いオンライン学習により構築されているので、人物画像に基づく人物属性の推定を高精度で行うことができる。 According to the discriminator learning method according to the twelfth invention, even if the face image cannot be extracted from the person image, the person attribute of the person can be estimated based on the person image. Further, since the person image classifier is constructed by highly accurate online learning, it is possible to estimate the person attribute based on the person image with high accuracy.

また、第13の発明は、上記第8の発明ないし第12の発明のいずれかにおいて、前記人物属性が、前記人物の性別および年齢を含むことを特徴とする。 Further, the thirteenth invention is characterized in that, in any one of the eighth invention to the twelfth invention, the person attribute includes the gender and age of the person.

この第13の発明に係る識別器学習方法によれば、人物属性として性別または年齢を推定することができる。 According to the discriminator learning method according to the thirteenth invention, gender or age can be estimated as a person attribute.

また、第14の発明は、上記第8の発明ないし第13の発明のいずれかにおいて、前記人物画像が、前記推定対象人物の全身画像であることを特徴とする。 Further, the fourteenth invention is characterized in that, in any one of the eighth invention to the thirteenth invention, the person image is a whole body image of the estimation target person.

この第14の発明に係る識別器学習方法によれば、人物画像として、人物の全身画像を利用することができる。全身画像は、例えば人物が背を向けている場合など顔画像等の人物情報が得られない場合にも取得し易い情報であるため、人物属性の推定を行う機会を多く確保することができる。 According to the discriminator learning method according to the fourteenth invention, a whole body image of a person can be used as a person image. Since the whole body image is information that can be easily acquired even when the person information such as the face image cannot be obtained, for example, when the person turns his back, it is possible to secure many opportunities to estimate the person attribute.

以下、本開示の実施形態について、図面を参照しながら説明する。本実施形態では、例えばショッピングモールやテーマパーク等の商業施設において、撮像装置で人物を撮像した撮像画像に基づき、該撮像画像に含まれる人物の人物属性を推定する場合について説明する。本実施形態では、人物属性として性別を推定する。また、本実施形態では、人物画像として全身画像を用い、人物情報として顔画像を用いる。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the present embodiment, for example, in a commercial facility such as a shopping mall or a theme park, a case where a person attribute of a person included in the captured image is estimated based on an captured image obtained by capturing a person with an image pickup device will be described. In this embodiment, gender is estimated as a person attribute. Further, in the present embodiment, a whole body image is used as the person image, and a face image is used as the person information.

図1は、本開示に係る識別器学習装置3を含む識別器学習システム1の概要を示す構成図である。図1に示すように、この識別器学習システム1は、撮像装置2と、識別器学習装置3とを主として備えている。撮像装置2と識別器学習装置3とは、専用回線やLAN(Local Area Network)等のネットワーク4を介して互いに接続されている。 FIG. 1 is a configuration diagram showing an outline of a classifier learning system 1 including a classifier learning device 3 according to the present disclosure. As shown in FIG. 1, the classifier learning system 1 mainly includes an image pickup device 2 and a classifier learning device 3. The image pickup device 2 and the classifier learning device 3 are connected to each other via a network 4 such as a dedicated line or a LAN (Local Area Network).

撮像装置2は、公知の撮影機能や通信機能を有する監視カメラ(ビデオカメラ)であり、商業施設の各所の壁、天井、ポール等に設置され、予め定められた監視領域を静止画像または動画像として時系列に撮像する。撮像装置2の撮像により生成された撮像画像(静止画像または動画像)は、ネットワーク4を介して識別器学習装置3に適宜送信される。なお、撮像装置2は、予め定められた監視領域を撮像可能な限りにおいて、その形態、機能、配置、数量等については、特に限定されるものではなく種々の変更が可能である。 The image pickup device 2 is a surveillance camera (video camera) having a known shooting function and communication function, and is installed on a wall, a ceiling, a pole, or the like in various places of a commercial facility, and a predetermined surveillance area is a still image or a moving image. Image in time series. The captured image (still image or moving image) generated by the imaging of the imaging device 2 is appropriately transmitted to the classifier learning device 3 via the network 4. The form, function, arrangement, quantity, and the like of the image pickup apparatus 2 are not particularly limited as long as the predetermined monitoring area can be imaged, and various changes can be made.

識別器学習装置3は、公知の構成を有するコンピュータからなり、撮像装置2から取得した撮像画像から抽出した全身画像を学習データとして追加して、全身画像に基づき人物属性(性別)を推定する識別器(識別モデル)の学習を行う。この学習は、識別器学習装置3が予め有している識別器に新たな学習データを追加して学習を行うオンライン学習(追加学習)である。また、識別器学習装置3は、上記の識別器を用いて、撮像装置2から取得した撮像画像から抽出した全身画像に基づき人物属性(性別)を推定することもできる。 The classifier learning device 3 is composed of a computer having a known configuration, and a whole body image extracted from the captured image acquired from the image pickup device 2 is added as learning data to estimate a person attribute (gender) based on the whole body image. Learn the vessel (discrimination model). This learning is online learning (additional learning) in which new learning data is added to the classifier possessed by the classifier learning device 3 in advance to perform learning. Further, the classifier learning device 3 can also estimate the person attribute (gender) based on the whole body image extracted from the captured image acquired from the image pickup device 2 by using the above-mentioned classifier.

図2は、識別器学習装置3の概略構成を示すブロック図である。識別器学習装置3は、公知のハードウェア構成を備えており、所定の制御プログラム(例えば識別器学習プログラムおよび人物属性推定プログラム)に基づき識別器学習および人物属性推定の各処理を統括的に実行するプロセッサ11、このプロセッサ11のワークエリア等として機能する揮発性メモリであるRAM12、プロセッサ11が実行する制御プログラムやデータを格納する不揮発性メモリであるROM13、HDDやフラッシュメモリ等からなる記憶部14、液晶モニタ等からなる表示部15、キーボードおよびマウス等の入力デバイスからなる入力部16、ネットワーク4を介した通信を実行する通信部17等を有している。 FIG. 2 is a block diagram showing a schematic configuration of the classifier learning device 3. The classifier learning device 3 has a known hardware configuration, and collectively executes each process of classifier learning and person attribute estimation based on a predetermined control program (for example, a classifier learning program and a person attribute estimation program). CPU 12, RAM 12, which is a volatile memory that functions as a work area of the processor 11, ROM 13, which is a non-volatile memory for storing control programs and data executed by the processor 11, and a storage unit 14 including an HDD and a flash memory. It has a display unit 15 including a liquid crystal monitor and the like, an input unit 16 including an input device such as a keyboard and a mouse, and a communication unit 17 for executing communication via a network 4.

識別器学習装置3の各機能は、図2に示したハードウェア構成において、プロセッサ11が所定の制御プログラムを実行することによって実現可能である。なお、識別器学習装置3は、コンピュータに限らず、同様の機能を果たすことが可能な他の情報処理装置(例えばサーバ等)を用いることもできる。また、識別器学習装置3の機能の少なくとも一部を他の公知のハードウェアによる処理によって代替してもよい。 Each function of the classifier learning device 3 can be realized by the processor 11 executing a predetermined control program in the hardware configuration shown in FIG. The classifier learning device 3 is not limited to a computer, and other information processing devices (for example, a server or the like) capable of performing the same function can also be used. Further, at least a part of the function of the classifier learning device 3 may be replaced by processing by other known hardware.

図3は、識別器学習装置3における識別器学習処理の流れを示すフロー図である。以下の処理は、識別器学習装置3のプロセッサ11で行われ、外部装置である撮像装置2から人物の撮像画像を取得したときに開始される。 FIG. 3 is a flow chart showing the flow of the classifier learning process in the classifier learning device 3. The following processing is performed by the processor 11 of the classifier learning device 3, and is started when a captured image of a person is acquired from the image pickup device 2 which is an external device.

まず、撮像画像から人物の全身画像を抽出する(ステップST101)。具体的には、撮像画像から人物の全身を含む領域(全身領域)を検出し、検出された全身領域を撮像画像から切り出すことにより、撮像画像から全身画像を抽出する。全身領域の検出は、統計的または非統計的識別器を用いる手法やテンプレートマッチングを用いる手法等の公知の手法を用いて行う。 First, a whole-body image of a person is extracted from the captured image (step ST101). Specifically, a region including the whole body of a person (whole body region) is detected from the captured image, and the detected whole body region is cut out from the captured image to extract the whole body image from the captured image. Detection of the whole body region is performed by using a known method such as a method using a statistical or non-statistical classifier or a method using template matching.

続いて、全身画像から人物の顔画像を抽出する(ステップST102)。具体的には、全身画像から人物の顔を含む領域(顔領域)を検出し、検出された顔領域を全身画像から切り出すことにより、全身画像から顔画像を抽出する。顔領域の検出は、統計的または非統計的識別器を用いる手法やテンプレートマッチングを用いる手法等の公知の手法を用いて行う。なお、顔画像は、全身画像からではなく、撮像画像から直接抽出してもよい。 Subsequently, the face image of the person is extracted from the whole body image (step ST102). Specifically, a region including a person's face (face region) is detected from the whole body image, and the detected face region is cut out from the whole body image to extract a face image from the whole body image. The face region is detected by using a known method such as a method using a statistical or non-statistical classifier or a method using template matching. The face image may be directly extracted from the captured image instead of the whole body image.

顔画像は、全身画像よりも、国や地域、季節、年齢等による影響が小さいので、人物属性を推定する上での信頼度は全身画像よりも高い。 Since the face image is less affected by the country / region, season, age, etc. than the full-body image, the reliability in estimating the human attribute is higher than that of the full-body image.

図4は、撮像画像から抽出した全身画像および顔画像の一例を示す図である。図4(a)の例では、撮像画像21に含まれる人物は大人の女性であり、撮像画像21から大人の女性の全身画像22から抽出され、その全身画像22から大人の女性の顔画像23が抽出されている。図4(b)の例では、撮像画像31に含まれる人物は子供の男性であり、撮像画像31から子供の男性の全身画像32から抽出され、その全身画像32から子供の男性の顔画像33が抽出されている。 FIG. 4 is a diagram showing an example of a whole body image and a face image extracted from a captured image. In the example of FIG. 4A, the person included in the captured image 21 is an adult female, and the captured image 21 is extracted from the whole body image 22 of the adult female, and the whole body image 22 is used to capture the face image 23 of the adult female. Has been extracted. In the example of FIG. 4B, the person included in the captured image 31 is a male child, the captured image 31 is extracted from the full-body image 32 of the male child, and the full-body image 32 is the facial image 33 of the male child. Has been extracted.

次のステップST103では、人物の全身画像を学習データとして使用した機械学習により構築した全身画像用識別器(人物画像用識別器)を用いて、撮像画像から抽出した全身画像に基づき人物属性(性別)を推定する。具体的には、例えばGabor特徴量を用いる手法、LBP(Local Binary Pattern)特徴量を用いる手法、色特徴量を用いる手法等の公知の手法を用いて全身画像から人物の輪郭(もしくは輪郭の一部)またはや色を検出し、検出された輪郭や色に基づき人物属性(性別)を推定する。例えば、人物の輪郭からその人物がスカートを履いていると判断された場合は、その人物は女性と推定することができる。同様に、服装の色、姿(外見)、髪型等に基づき、人物属性(性別)を推定することが可能である。 In the next step ST103, the person attribute (gender) is based on the whole body image extracted from the captured image by using the whole body image classifier (person image classifier) constructed by machine learning using the whole body image of the person as learning data. ) Is estimated. Specifically, for example, a method using a Gabor feature amount, a method using an LBP (Local Binary Pattern) feature amount, a method using a color feature amount, and other known methods are used to capture the contour (or one of the contours) of a person from a whole body image. Part) or slightly color is detected, and the person attribute (gender) is estimated based on the detected contour and color. For example, if it is determined from the contour of a person that the person is wearing a skirt, the person can be presumed to be a female. Similarly, it is possible to estimate the person attribute (gender) based on the color, appearance (appearance), hairstyle, etc. of the clothes.

全身画像用識別器(人物画像用識別器)は、学習データとして使用される様々な全身画像から画像特徴量を抽出し、統計的または非統計的に解析することにより構築した識別器である。全身画像用識別器としては、例えばSVM(Support Vector Machine)やニューラルネットワーク等を用いることができる。なお、全身画像用識別器は、全身画像に基づき人物属性を推定することができる限りにおいて特に限定されるものではなく、様々な種類の識別器を用いることができる。 The whole-body image classifier (human image classifier) is a classifier constructed by extracting image features from various whole-body images used as learning data and analyzing them statistically or non-statistically. As the discriminator for the whole body image, for example, an SVM (Support Vector Machine), a neural network, or the like can be used. The discriminator for the whole body image is not particularly limited as long as the person attribute can be estimated based on the whole body image, and various types of discriminators can be used.

続くステップST104では、人物の顔画像を学習データとして使用した顔画像用識別器(人物情報用識別器)を用いて、顔画像に基づき人物属性(性別)を推定する。具体的には、例えばGabor特徴量を用いる手法、LBP特徴量を用いる手法、色特徴量を用いる手法等の公知の手法を用いて顔画像から目、鼻、口等の顔特徴点を検出し、検出された顔特徴点に基づき人物属性(性別)を推定する。 In the following step ST104, the person attribute (gender) is estimated based on the face image by using the face image classifier (person information classifier) that uses the face image of the person as learning data. Specifically, facial feature points such as eyes, nose, and mouth are detected from facial images using known methods such as a method using a Gabor feature, a method using an LBP feature, and a method using a color feature. , The person attribute (gender) is estimated based on the detected facial feature points.

顔画像用識別器は、学習データとして使用される様々な顔画像から画像特徴量を抽出し、統計的または非統計的に解析することにより構築した識別器である。顔画像用識別器としては、例えばSVMやニューラルネットワーク等を用いることができる。なお、顔画像用識別器は、顔画像に基づき人物属性を推定することができる限りにおいて特に限定されるものではなく、様々な種類の識別器を用いることができる。 The face image classifier is a classifier constructed by extracting image features from various face images used as learning data and analyzing them statistically or non-statistically. As the face image classifier, for example, an SVM, a neural network, or the like can be used. The face image classifier is not particularly limited as long as the person attribute can be estimated based on the face image, and various types of classifiers can be used.

図5は、ステップST103およびステップST104での人物属性の推定結果の一例を示す図である。図5(a)は、図4(a)の全身画像22に基づく推定結果および顔画像23に基づく推定結果を示し、図5(b)は、図4(b)の全身画像32に基づく推定結果および顔画像33に基づく推定結果を示す。図5(a)の例では、全身画像22に基づく検出結果は「女性」であり、顔画像23に基づく検出結果も「女性」であった。図5(b)の例では、全身画像32に基づく検出結果は「女性」であるが、顔画像23に基づく検出結果は「男性」であった。 FIG. 5 is a diagram showing an example of the estimation result of the person attribute in step ST103 and step ST104. 5 (a) shows the estimation result based on the whole body image 22 of FIG. 4 (a) and the estimation result based on the face image 23, and FIG. 5 (b) shows the estimation result based on the whole body image 32 of FIG. 4 (b). The result and the estimation result based on the face image 33 are shown. In the example of FIG. 5A, the detection result based on the whole body image 22 was “female”, and the detection result based on the face image 23 was also “female”. In the example of FIG. 5B, the detection result based on the whole body image 32 was "female", but the detection result based on the face image 23 was "male".

次のステップST105では、全身画像に基づく推定結果(全身画像用識別器の推定結果)と顔画像に基づく推定結果(顔画像用識別器の推定結果)との2つの推定結果が互いに一致するか否かを判定する。2つの推定結果が互いに一致すると判定された場合(ステップST105:Yes)は、ステップST106に進み、2つの推定結果が互いに一致しないと判定された場合(ステップST105:No)は、ステップST107に進む。図5の例では、図5(a)の場合は、2つの推定結果が互いに一致するのでステップST106に進み、図5(b)の場合は、2つの推定結果が互いに一致しないのでステップST107に進む。 In the next step ST105, do the two estimation results of the estimation result based on the whole body image (estimation result of the whole body image classifier) and the estimation result based on the face image (estimation result of the face image classifier) match each other? Judge whether or not. If it is determined that the two estimation results match each other (step ST105: Yes), the process proceeds to step ST106, and if it is determined that the two estimation results do not match each other (step ST105: No), the process proceeds to step ST107. .. In the example of FIG. 5, in the case of FIG. 5A, since the two estimation results match each other, the process proceeds to step ST106, and in the case of FIG. 5B, the two estimation results do not match each other, so the process proceeds to step ST107. move on.

ステップST106では、全身画像を信頼度の高い学習データとして追加して、全身画像用識別器のオンライン学習(追加学習)を行う。正解ラベルは、顔画像および全身画像に基づく推定結果を使用する。図5(a)の例では、全身画像22が信頼度の高い学習データとして追加され、正解ラベルは「女性」となる。 In step ST106, the whole body image is added as highly reliable learning data, and online learning (additional learning) of the discriminator for the whole body image is performed. The correct label uses estimation results based on facial and whole body images. In the example of FIG. 5A, the whole body image 22 is added as highly reliable learning data, and the correct label is “female”.

ステップST107では、全身画像を信頼度の低い学習データとして追加して、全身画像用識別器のオンライン学習(追加学習)を行う。正解ラベルは、顔画像に基づく推定結果を使用する。図5(b)の例では、全身画像32が信頼度の低い学習データとして追加され、正解ラベルは「男性」となる。 In step ST107, the whole body image is added as learning data with low reliability, and online learning (additional learning) of the discriminator for the whole body image is performed. The correct label uses the estimation result based on the facial image. In the example of FIG. 5B, the whole body image 32 is added as learning data with low reliability, and the correct answer label is “male”.

上述したように、顔画像の信頼度は全身画像よりも高いので、顔画像に基づく推定結果と全身画像に基づく推定結果とが一致しない場合は、顔画像に基づく推定結果を信頼して正解ラベルとして使用する。また、顔画像に基づく推定結果と全身画像に基づく推定結果とが一致しない場合は、学習データである全身画像の信頼度は、顔画像に基づく推定結果と全身画像に基づく推定結果とが一致する場合よりも下げる。なお、顔画像による推定結果が単体で高い信頼度を有する場合には、信頼度は下げなくてもよい。 As mentioned above, the reliability of the face image is higher than that of the whole body image, so if the estimation result based on the face image and the estimation result based on the whole body image do not match, the estimation result based on the face image is trusted and the correct answer label is given. Used as. If the estimation result based on the face image and the estimation result based on the whole body image do not match, the reliability of the whole body image, which is the learning data, matches the estimation result based on the face image and the estimation result based on the whole body image. Lower than if. If the estimation result from the face image has high reliability by itself, the reliability may not be lowered.

このように、上述した識別器学習処理によれば、全身画像に基づく推定結果と顔画像(人物情報)に基づく推定結果とが一致の有無に基づき学習データである全身画像の信頼度を変更することにより、精度の高いオンライン学習を実現することが可能となる。これにより、人物の全身画像に基づきその人物の人物属性を精度良く推定することができる識別器を提供することが可能となる。 As described above, according to the above-mentioned classifier learning process, the reliability of the whole body image, which is the learning data, is changed based on whether or not the estimation result based on the whole body image and the estimation result based on the face image (personal information) match. This makes it possible to realize highly accurate online learning. This makes it possible to provide a classifier capable of accurately estimating the person's attribute based on the whole body image of the person.

なお、図5(a)の例のように、全身画像に基づく推定結果と顔画像に基づく推定結果とが一致する場合は、学習効果が小さいと考えられるので、その全身画像は学習データから排除するようにしてもよい。また、顔画像のサイズや顔画像に含まれる顔の向きが予め定められた許容範囲から外れた場合は、その顔画像を含む全身画像を学習データから排除するか、またはその全身画像の信頼度を下げるようにしてもよい。 If the estimation result based on the whole body image and the estimation result based on the face image match as in the example of FIG. 5A, the learning effect is considered to be small, and the whole body image is excluded from the training data. You may try to do it. If the size of the face image or the orientation of the face included in the face image is out of the predetermined allowable range, the whole body image including the face image is excluded from the training data, or the reliability of the whole body image is removed. You may try to lower.

図6は、識別器学習装置3における人物属性推定処理の流れを示すフロー図である。以下の処理は、上述した識別器学習処理の場合と同様に、識別器学習装置3のプロセッサ11で行われ、人物の撮像画像を撮像装置2から取得したときに開始される。 FIG. 6 is a flow chart showing the flow of the person attribute estimation process in the classifier learning device 3. The following processing is performed by the processor 11 of the discriminator learning device 3 as in the case of the discriminator learning process described above, and is started when a captured image of a person is acquired from the image pickup device 2.

まず、撮像画像から人物の全身画像を抽出する(ステップST201)。続いて、全身画像から人物の顔画像の抽出を試みる(ステップST202)。全身画像を抽出する方法および顔画像を抽出する方法は、図3を参照して説明した識別器学習処理のステップST101およびステップST102と同様なので、説明は省略する。 First, a whole-body image of a person is extracted from the captured image (step ST201). Subsequently, an attempt is made to extract a person's face image from the whole body image (step ST202). Since the method of extracting the whole body image and the method of extracting the face image are the same as those of step ST101 and step ST102 of the discriminator learning process described with reference to FIG. 3, the description thereof will be omitted.

次のステップST203では、顔画像が抽出されたか否かを判定する。ステップST203で顔画像が抽出されたと判定された場合(ステップST203:Yes)は、ステップST204に進み、顔画像が抽出されなかったと判定された場合(ステップST203:No)は、ステップST205に進む。撮像装置2で人物を撮像したときに、その人物が撮像装置2の方を向いていない場合(例えば撮像装置2に背を向けている場合)やその人物の顔領域が遮蔽物や他の人物等により遮られた場合は、撮像画像にその人物の顔領域が写らないので、顔画像は抽出されない。 In the next step ST203, it is determined whether or not the face image has been extracted. If it is determined in step ST203 that the face image has been extracted (step ST203: Yes), the process proceeds to step ST204, and if it is determined that the face image has not been extracted (step ST203: No), the process proceeds to step ST205. When a person is imaged by the image pickup device 2, if the person is not facing the image pickup device 2 (for example, the back is turned to the image pickup device 2), or the face area of the person is a shield or another person. If it is obstructed by such as, the face area of the person is not shown in the captured image, so that the face image is not extracted.

ステップST204では、上述した顔画像用識別器を用いて、顔画像に基づき人物属性(性別)を推定する。ステップST205では、上述した全身画像用識別器を用いて、全身画像に基づき人物属性を推定する。顔画像に基づき人物属性を推定する方法および全身画像に基づき人物属性を推定する方法は、図3を参照して説明した識別器学習処理のステップST103およびステップST104と同様なので、説明は省略する。 In step ST204, the person attribute (gender) is estimated based on the face image by using the above-mentioned face image classifier. In step ST205, the person attribute is estimated based on the whole body image by using the above-mentioned whole body image classifier. Since the method of estimating the person attribute based on the face image and the method of estimating the person attribute based on the whole body image are the same as those in steps ST103 and ST104 of the discriminator learning process described with reference to FIG. 3, the description thereof will be omitted.

このように、上述した人物属性推定処理によれば、全身画像から顔画像を抽出できなかった場合でも、全身画像に基づきその人物の人物属性を推定することができる。また、上述したように、全身画像用識別器は、精度の高いオンライン学習により構築されているので、全身画像に基づく人物属性の推定を高精度で行うことができる。 As described above, according to the above-mentioned person attribute estimation process, even if the face image cannot be extracted from the whole body image, the person attribute of the person can be estimated based on the whole body image. Further, as described above, since the discriminator for the whole body image is constructed by highly accurate online learning, it is possible to estimate the person attribute based on the whole body image with high accuracy.

以上、本開示を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本開示はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本開示に係る識別器学習装置および識別器学習方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本開示の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。 Although the present disclosure has been described above based on specific embodiments, these embodiments are merely examples, and the present disclosure is not limited to these embodiments. Further, all the components of the discriminator learning device and the discriminator learning method according to the present disclosure shown in the above embodiment are not necessarily all indispensable, and may be appropriately selected as long as they do not deviate from the scope of the present disclosure. It is possible.

例えば、本実施形態では、全身画像および顔画像は、撮像装置2から取得した撮像画像から抽出したが、全身画像および顔画像は、撮像装置2以外の図示しない外部装置から取得するようにしてもよい。 For example, in the present embodiment, the whole body image and the face image are extracted from the captured image acquired from the image pickup device 2, but the whole body image and the face image may be acquired from an external device (not shown) other than the image pickup device 2. good.

また、本実施形態では人物属性として性別を推定したが、人物属性は性別に限定されるものではなく、年層(年齢帯)や人種等であってもよい。 Further, although gender is estimated as a person attribute in the present embodiment, the person attribute is not limited to gender and may be a year group (age band), race, or the like.

また、本実施形態では、顔画像に基づく推定結果と全身画像に基づく推定結果とが一致しない場合、両者が一致した場合よりも信頼度の低い学習データとして学習を行ったが、これに限られるものではない。例えば、識別器の性能が低い場合などの学習の精度よりも単純さが求められる場合は、両者が一致した場合と一致しなかった場合とで同程度の信頼度の学習データとして学習を行ってもよい。また、不確かな学習データを学習対象から排除したい場合、両者が一致した場合のみ、全身画像識別器を学習させてもよい。また、どのようなデータを学習させるべきかは識別器の学習の成熟度によっても変化するため、推定結果を全身画像用識別器に学習させる条件および信頼度は、随時変更できるようにしてもよい。 Further, in the present embodiment, when the estimation result based on the face image and the estimation result based on the whole body image do not match, the learning is performed as learning data with lower reliability than when both match, but the learning is limited to this. It's not a thing. For example, when simplicity is required rather than learning accuracy, such as when the performance of the classifier is low, learning is performed as learning data with the same degree of reliability as when both match and when they do not match. May be good. Further, when it is desired to exclude uncertain learning data from the learning target, the whole body image classifier may be trained only when both match. Further, since what kind of data should be trained also changes depending on the maturity of learning of the discriminator, the conditions and reliability for training the estimation result in the discriminator for whole body image may be changed at any time. ..

また、本実施形態において、顔画像に基づく推定結果と全身画像に基づく推定結果とが一致した場合と、顔画像に基づく推定結果と全身画像に基づく推定結果とが一致しなかった場合とで、学習させる識別器を異なる識別器としてもよい。このようにすることで、全身画像のみに基づく推定結果が、どちらの学習データに基づく識別器で推定されたものかを出力することが可能となり、ひいては、推定結果の信頼度の高低を通知することが可能となる。 Further, in the present embodiment, there are cases where the estimation result based on the face image and the estimation result based on the whole body image match, and the case where the estimation result based on the face image and the estimation result based on the whole body image do not match. The discriminator to be trained may be a different discriminator. By doing so, it is possible to output which training data the classifier based on the estimation result based only on the whole body image is estimated, and by extension, notify the reliability of the estimation result. It becomes possible.

また、本実施形態では、全身画像以外の人物情報として顔画像を用いたが、顔画像の代わりに、例えば人物属性情報を含むビーコン信号を用いてもよい。この場合は、人物が所持するスマートホン等からビーコン信号を受信し、そのビーコン信号に含まれる人物属性情報を人物情報として用いるようにするとよい。 Further, in the present embodiment, the face image is used as the person information other than the whole body image, but instead of the face image, for example, a beacon signal including the person attribute information may be used. In this case, it is preferable to receive the beacon signal from a smart phone or the like possessed by the person and use the person attribute information included in the beacon signal as the person information.

また、本実施形態では、全身画像を用いたが、全身画像以外の情報を全身画像に替えて利用することも可能である。例えば、全身画像からつま先や指先などの一部が欠けた画像を用いた場合でも実質的に全身画像と同等の推定結果を得ることができる。また、髪型や上半身の形状など、全身画像から多くの部分が欠けた画像を用いる場合であっても人物属性を推定することは可能である。 Further, although the whole body image is used in this embodiment, it is also possible to use information other than the whole body image instead of the whole body image. For example, even when an image in which a part such as a toe or a fingertip is missing from a whole body image is used, an estimation result substantially equivalent to that of the whole body image can be obtained. In addition, it is possible to estimate the person attribute even when using an image in which many parts are missing from the whole body image such as the hairstyle and the shape of the upper body.

すなわち、本実施形態における顔画像と全身画像はあくまでも一例である。本開示の思想は、検出可能な状況が少ないが信頼度の高い推定結果が得られる情報(例えば顔画像)と検出可能な状況が多い情報(例えば全身画像)の組合せであれば、多様な組合せに適用可能である。ただし、本実施形態における全身画像は、撮像された人物について人物属性の推定を高精度に行うことができる情報(例えば顔画像)が得られない場合に代替的に用いられる情報であるため、全身画像に替えて他の情報を用いる場合であっても、そのような他の情報は撮像画像から得られる情報であることが望ましい。 That is, the face image and the whole body image in this embodiment are merely examples. The idea of the present disclosure is various combinations as long as it is a combination of information (for example, a face image) that can obtain a highly reliable estimation result with few detectable situations and information that has many detectable situations (for example, a whole body image). Applicable to. However, since the whole body image in the present embodiment is information used as an alternative when information (for example, a face image) capable of estimating the person attribute of the captured person with high accuracy cannot be obtained, the whole body is used. Even when other information is used in place of the image, it is desirable that such other information is information obtained from the captured image.

本開示に係る識別器学習装置および識別器学習方法は、人物の少なくとも一部を含む人物画像に基づきその人物の人物属性を精度良く推定することができる識別器を提供することを可能とする識別器学習装置および識別器学習方法等として有用である。 The discriminator learning device and the discriminator learning method according to the present disclosure make it possible to provide a discriminator capable of accurately estimating the person attribute of a person based on a person image including at least a part of the person. It is useful as an instrument learning device and a discriminator learning method.

1 識別器学習システム
2 撮像装置
3 識別器学習装置
4 ネットワーク
11 プロセッサ
12 RAM
13 ROM
14 記憶部
15 表示部
16 入力部
17 通信部
21、31 撮像画像
22、32 全身画像(人物画像)
23、33 顔画像(人物情報)
1 Discriminator learning system 2 Imaging device 3 Discriminator learning device 4 Network 11 Processor 12 RAM
13 ROM
14 Storage unit 15 Display unit 16 Input unit 17 Communication unit 21, 31 Captured image 22, 32 Whole body image (human image)
23, 33 Face image (personal information)

Claims (8)

プロセッサと、
撮像装置と通信を実行する通信部とを備え、
前記プロセッサは、
前記撮像装置から、性別または年齢の推定対象である推定対象人物の顔以外の少なくとも一部を含む全身画像、および、前記推定対象人物の顔を含む顔画像を取得し、
機械学習により予め構築した、入力された全身画像を解析して前記入力された全身画像に含まれる人物の性別または年齢の推測結果を出力する人物画像用識別器前記推定対象人物の全身画像を入力することで前記推定対象人物の性別または年齢を推定し、
機械学習により予め構築した、入力された顔画像を解析して前記入力された顔画像に含まれる人物の性別または年齢を推測する人物情報用識別器前記推定対象人物の顔画像を入力することで前記推定対象人物の性別または年齢を推定し、
前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致するか否かを判定し、
前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致すると判定された場合には、前記一致すると判定された推定結果を正解ラベルとし、前記全身画像を前記人物画像用識別器に追加学習させることを特徴とする識別器学習装置。
With the processor
It is equipped with an image pickup device and a communication unit that executes communication.
The processor
From the image pickup apparatus, a whole-body image including at least a part other than the face of the estimation target person who is the estimation target of gender or age , and a face image including the face of the estimation target person are acquired.
Machine learning was previously constructed by, the person image for classifier analyzes the input whole body imaging and outputs the estimation result of the sex or age of the person included in the input whole body imaging, whole body imaging of the estimated target person By inputting, the gender or age of the person to be estimated is estimated, and
Previously constructed by machine learning, for personal information discriminator to estimate the gender or age of a person included in analyzes the input face image is the input face image, and inputs a face image of the estimated target person By estimating the gender or age of the person to be estimated,
It is determined whether or not the estimation result based on the whole body image and the estimation result based on the face image match.
When it is determined that the estimation result based on the whole body image and the estimation result based on the face image match, the estimation result determined to match is used as the correct answer label, and the whole body image is used as the person image classifier. A classifier learning device characterized by additional learning.
前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致しないと判定された場合には、前記顔画像に基づく推定結果を正解ラベルとし、前記全身画像を前記人物画像用識別器に追加学習させることを特徴とする請求項1に記載の識別器学習装置。 When it is determined that the estimation result based on the whole body image and the estimation result based on the face image do not match, the estimation result based on the face image is used as the correct answer label, and the whole body image is used as the person image classifier. The classifier learning device according to claim 1, wherein additional learning is performed. 前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致しないと判定された場合には、前記全身画像を、前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致した場合よりも信頼度が低い学習データとして前記人物画像用識別器に追加学習させることを特徴とする請求項2に記載の識別器学習装置。 When it is determined that the estimation result based on the whole body image and the estimation result based on the face image do not match, the estimation result based on the whole body image and the estimation result based on the face image match the whole body image. The discriminator learning device according to claim 2, wherein the discriminator for a person image is additionally trained as learning data having a lower reliability than in the case of the above. 前記プロセッサは、
全身画像から前記顔画像が抽出された場合には、前記人物情報用識別器を用いて、前記顔画像に基づき前記推定対象人物の性別または年齢を推定し、
前記全身画像から前記顔画像が抽出されなかった場合には、前記人物画像用識別器を用いて、前記全身画像に基づき前記推定対象人物の性別または年齢を推定することを特徴とする請求項1ないし請求項3のいずれかに記載の識別器学習装置。
The processor
If it is the face image is extracted from the pre-Symbol whole body imaging, using a discriminator the person information, estimates the gender or age of the estimated target person based on the face image,
When said from whole body imaging face image is not extracted, claim 1 using a classifier for the person image, and estimates the gender or age of the estimated target person based on the whole body image Or the classifier learning device according to any one of claims 3.
撮像装置から、性別または年齢の推定対象である推定対象人物の顔以外の少なくとも一部を含む全身画像、および、前記推定対象人物の顔を含む顔画像を取得するステップと、
機械学習により予め構築した、入力された全身画像を解析して前記入力された全身画像に含まれる人物の性別または年齢の推測結果を出力する人物画像用識別器に、前記推定対象人物の全身画像を入力することで前記推定対象人物の性別または年齢を推定するステップと、
機械学習により予め構築した、入力された顔画像を解析して前記入力された顔画像に含まれる人物の性別または年齢を推測する人物情報用識別器前記推定対象人物の顔画像を入力することで前記推定対象人物の性別または年齢を推定するステップと、
前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致するか否かを判定するステップと、
前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致すると判定された場合には、前記一致すると判定された推定結果を正解ラベルとし、前記全身画像を前記人物画像用識別器に追加学習させるステップとを有することを特徴とする識別器学習方法。
A step of acquiring a full-body image including at least a part other than the face of the estimation target person who is the estimation target of gender or age and a face image including the face of the estimation target person from the image pickup apparatus.
A whole-body image of the estimated target person is used in a person image classifier that analyzes the input whole-body image and outputs the estimation result of the gender or age of the person included in the input whole-body image, which is constructed in advance by machine learning. And the step of estimating the gender or age of the person to be estimated by inputting
Previously constructed by machine learning, for personal information discriminator to estimate the gender or age of a person included in analyzes the input face image is the input face image, and inputs a face image of the estimated target person By doing so, the step of estimating the gender or age of the person to be estimated,
A step of determining whether the estimation result based on the whole body image and the face estimated results based on the images match,
When it is determined that the estimation result based on the whole body image and the estimation result based on the face image match, the estimation result determined to match is used as the correct answer label, and the whole body image is used as the person image classifier. A discriminator learning method characterized by having a step for additional learning.
前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致しないと判定された場合には、前記顔画像に基づく推定結果を正解レベルとし、前記全身画像を前記人物画像用識別器に追加学習させるステップをさらに有することを特徴とする請求項に記載の識別器学習方法。 When it is determined that the estimation result based on the whole body image and the estimation result based on the face image do not match, the estimation result based on the face image is set as the correct answer level, and the whole body image is used as the person image classifier. classifier learning method according to claim 5, further comprising the step of additional learning. 前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致しないと判定された場合には、前記全身画像を、前記全身画像に基づく推定結果と前記顔画像に基づく推定結果とが一致した場合よりも信頼度が低い学習データとして前記人物画像用識別器に追加学習させることを特徴とする請求項に記載の識別器学習方法。 When it is determined that the estimation result based on the whole body image and the estimation result based on the face image do not match, the estimation result based on the whole body image and the estimation result based on the face image match the whole body image. The discriminator learning method according to claim 6 , wherein the discriminator for a person image is additionally trained as learning data having a lower reliability than the case where the data is performed. 全身画像から前記顔画像が抽出された場合には、前記人物情報用識別器を用いて、前記顔画像に基づき前記推定対象人物の性別または年齢を推定するステップと、
前記全身画像から前記顔画像が抽出されなかった場合には、前記人物画像用識別器を用いて、前記全身画像に基づき前記推定対象人物の性別または年齢を推定するステップとをさらに有することを特徴とする請求項5ないし請求項7のいずれかに記載の識別器学習方法。
When the face image from the previous SL systemic image is extracted, a step of using a classifier the person information, estimates the gender or age of the estimated target person based on the face image,
When said from whole body imaging face image is not extracted, further comprising the step of using a classifier for the person image, estimates the gender or age of the estimated target person based on the whole body image The classifier learning method according to any one of claims 5 to 7.
JP2017047332A 2017-03-13 2017-03-13 Discriminator learning device and discriminator learning method Active JP6969878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017047332A JP6969878B2 (en) 2017-03-13 2017-03-13 Discriminator learning device and discriminator learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017047332A JP6969878B2 (en) 2017-03-13 2017-03-13 Discriminator learning device and discriminator learning method

Publications (2)

Publication Number Publication Date
JP2018151833A JP2018151833A (en) 2018-09-27
JP6969878B2 true JP6969878B2 (en) 2021-11-24

Family

ID=63681720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017047332A Active JP6969878B2 (en) 2017-03-13 2017-03-13 Discriminator learning device and discriminator learning method

Country Status (1)

Country Link
JP (1) JP6969878B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6508797B1 (en) * 2019-01-17 2019-05-08 Arithmer株式会社 Work support apparatus, work support method, program, and object detection model.
WO2020149242A1 (en) * 2019-01-17 2020-07-23 Arithmer株式会社 Work assistance device, work assistance method, program, and object detection model
JP6667703B1 (en) * 2019-04-24 2020-03-18 サントリーホールディングス株式会社 Beverage serving device management system
JP6651085B1 (en) * 2019-07-03 2020-02-19 Awl株式会社 Attribute recognition system, learning server, and attribute recognition program
CN110991380A (en) * 2019-12-11 2020-04-10 腾讯科技(深圳)有限公司 Human body attribute identification method and device, electronic equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012053311A1 (en) * 2010-10-22 2012-04-26 Necソフト株式会社 Attribute determination method, attribute determination device, program, recording medium, and attribute determination system
JP5865784B2 (en) * 2012-06-05 2016-02-17 日立アプライアンス株式会社 Air conditioner
JP6410427B2 (en) * 2014-01-20 2018-10-24 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2018151833A (en) 2018-09-27

Similar Documents

Publication Publication Date Title
JP6969878B2 (en) Discriminator learning device and discriminator learning method
JP6799302B2 (en) Systems and methods for whole body measurement extraction
JP7132387B2 (en) Image processing device, image processing method and program
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
JP6664163B2 (en) Image identification method, image identification device, and program
WO2018028546A1 (en) Key point positioning method, terminal, and computer storage medium
CN106897658B (en) Method and device for identifying human face living body
JP6544900B2 (en) Object identification device, object identification method and program
WO2019071664A1 (en) Human face recognition method and apparatus combined with depth information, and storage medium
WO2015165365A1 (en) Facial recognition method and system
CN109299658B (en) Face detection method, face image rendering device and storage medium
CN110427859A (en) A kind of method for detecting human face, device, electronic equipment and storage medium
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
JP6410450B2 (en) Object identification device, object identification method, and program
WO2019200872A1 (en) Authentication method and apparatus, and electronic device, computer program, and storage medium
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
JP2017211938A (en) Biological information processor, biological information processing method and biological information processing program
CN112418177A (en) Face recognition method and system
CN114698399A (en) Face recognition method and device and readable storage medium
JP2018049566A (en) Image processing apparatus, image processing method, and program
JP2019113959A (en) Muzzle pattern collation system, muzzle pattern collation method and muzzle pattern collation program
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
JPWO2021199114A5 (en) Recommendation device, system, method and program
JP7103443B2 (en) Information processing equipment, information processing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211028

R151 Written notification of patent or utility model registration

Ref document number: 6969878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151