JP7259313B2 - Attribute determination device, attribute determination system, attribute determination method, program and recording medium - Google Patents

Attribute determination device, attribute determination system, attribute determination method, program and recording medium Download PDF

Info

Publication number
JP7259313B2
JP7259313B2 JP2018236417A JP2018236417A JP7259313B2 JP 7259313 B2 JP7259313 B2 JP 7259313B2 JP 2018236417 A JP2018236417 A JP 2018236417A JP 2018236417 A JP2018236417 A JP 2018236417A JP 7259313 B2 JP7259313 B2 JP 7259313B2
Authority
JP
Japan
Prior art keywords
attribute
person
image
attribute determination
control point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018236417A
Other languages
Japanese (ja)
Other versions
JP2020098474A (en
Inventor
望 倉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018236417A priority Critical patent/JP7259313B2/en
Publication of JP2020098474A publication Critical patent/JP2020098474A/en
Application granted granted Critical
Publication of JP7259313B2 publication Critical patent/JP7259313B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人物を上方から撮影した画像をもとにして、人物の属性を決定する属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体に関する。 The present invention relates to an attribute determination device, an attribute determination system, an attribute determination method, a program, and a recording medium for determining attributes of a person based on an image of the person photographed from above.

従来、人物の顔画像に基づいて、人物の性別や年齢などの属性を認識する技術が広く知られている。しかし、例えば店舗において、ある商品群とコンタクトをとる人物の属性を顔画像に基づいて認識するためには、各売り場や各陳列棚に、顔画像を取得するためのカメラを設置する必要がある。この場合、カメラの設置台数が多くなり、コストが掛かるだけでなく、カメラを向けられるユーザの心理的負担も高くなる。 2. Description of the Related Art Conventionally, techniques for recognizing attributes such as a person's gender and age based on a person's face image are widely known. However, in a store, for example, in order to recognize the attributes of a person who contacts a certain product group based on the face image, it is necessary to install a camera for acquiring the face image at each sales floor and each display shelf. . In this case, the number of cameras to be installed increases, which not only increases the cost but also increases the psychological burden on the user to whom the camera is directed.

したがって、コスト低減およびユーザの心理的負担の軽減の観点では、店舗の天井などにカメラを設置し、人物を上方から広域に撮影して人物の全身像を含む画像を取得し、取得した画像から人物の属性を認識することが望ましい。この点、例えば特許文献1のシステムでは、天井や壁面に設置したメインカメラで店舗全域を撮影して人物の画像部分を解析し、顧客の顔、髪型、衣服、身長、アクセサリ、靴などを総合的に考慮して性別、年齢層を推測するようにしている。 Therefore, from the viewpoint of reducing costs and reducing the psychological burden on the user, a camera is installed on the ceiling of a store, etc., a person is photographed from above in a wide range, and an image including a full-body image of the person is acquired. It is desirable to recognize attributes of a person. In this respect, for example, in the system of Patent Document 1, the entire store is photographed by a main camera installed on the ceiling or on the wall, and the image portion of the person is analyzed, and the customer's face, hairstyle, clothes, height, accessories, shoes, etc. are integrated. I'm trying to guess the gender and age group in consideration of it.

また、例えば特許文献2の技術では、人物形状のひな形と、被服の種類ごとに用意された被服形状とを記憶部に格納し、カメラ画像内において検出されるエッジをひな形と照合して人物検出を行い、その人物形状から人物の性別を推定するようにしている。また、被服形状と人物形状とを照合することにより、人物が着用している被服の種類を推定し、推定された性別および被服の種類に基づいて、性別および被服の種類別に、画像に含まれる人数を集計するようにしている。 Further, for example, in the technique of Patent Document 2, a model of a person's shape and clothing shapes prepared for each type of clothing are stored in a storage unit, and edges detected in a camera image are compared with the model. A person is detected, and the sex of the person is estimated from the shape of the person. Also, by comparing the clothing shape and the person's shape, the type of clothing worn by the person is estimated, and based on the estimated gender and clothing type, the image is included in the image by gender and clothing type. I am trying to count the number of people.

一方、店舗内で人物を撮影して画像を取得した場合、上記画像には、人物以外の背景が映り込むことが多い。この背景には、属性を認識する対象となる人物以外の人物や、売り場に陳列されている商品も含まれる。この場合、画像の背景部分が人物の属性認識そのものに悪影響を及ぼしてしまうことが考えられる。例えば、女性向けの洋服が陳列されている売り場の前を通る男性が、背景に映り込んだ女性向けの洋服で女性と誤認識される可能性は高い。 On the other hand, when a person is photographed in a store and an image is acquired, the background other than the person is often reflected in the image. This background includes people other than the person whose attributes are to be recognized, and products displayed in the sales floor. In this case, the background portion of the image may adversely affect the attribute recognition of the person. For example, there is a high possibility that a man passing in front of a sales floor where women's clothes are displayed will be misidentified as a woman because of the women's clothes reflected in the background.

この点、例えば特許文献3では、入力画像から人物のシルエットを抽出し、背景に相当する部分の特徴量に乱数を加えるなどの処理を行って、背景のバリエーションを増やし、物体を識別するための識別パラメータを学習することにより、背景の影響を受けにくい、高い識別性能を得るようにしている。 In this respect, for example, in Patent Document 3, a silhouette of a person is extracted from an input image, and processing such as adding a random number to the feature amount of the portion corresponding to the background is performed to increase the variation of the background and to identify the object. By learning the discrimination parameters, it is possible to obtain high discrimination performance that is less susceptible to the background.

特開2007-74330号公報(請求項1~3、段落〔0021〕、〔0023〕、図1等参照)Japanese Patent Application Laid-Open No. 2007-74330 (claims 1 to 3, paragraphs [0021], [0023], see FIG. 1, etc.) 特開2012-173761号公報(請求項1、段落〔0007〕~〔0012〕、図1~図4等参照)Japanese Patent Application Laid-Open No. 2012-173761 (Claim 1, paragraphs [0007] to [0012], see FIGS. 1 to 4, etc.) 特開2008-59110号公報(請求項1、7、8、段落〔0010〕~〔0012〕、〔0050〕、図1~図6等参照)Japanese Patent Application Laid-Open No. 2008-59110 (Claim 1, 7, 8, paragraphs [0010] to [0012], [0050], see FIGS. 1 to 6, etc.)

ところが、天井などに設置されたカメラで撮影された画像から、人物の属性を精度よく判定する手法は難易度が高い。特許文献1においては、属性の特定が困難な場合、売り場の陳列棚の近くに設置した補助カメラで撮影した顔画像を詳細に解析して性別、年齢層を推測するようにしている。したがって、特許文献1の技術では、カメラを向けられるユーザに心理的負担を与える問題が依然として残る(特許文献1の技術は、画像として人物の全身像のみを用いて属性を認識する手法としては十分ではない)。 However, it is difficult to accurately determine a person's attribute from an image captured by a camera installed on the ceiling or the like. In Patent Literature 1, when it is difficult to identify attributes, a face image captured by an auxiliary camera installed near a display shelf in a sales floor is analyzed in detail to estimate gender and age group. Therefore, the technique of Patent Document 1 still has the problem of imposing a psychological burden on the user who is pointed at the camera (the technique of Patent Document 1 is sufficient as a method of recognizing attributes using only a full-body image of a person as an image). isn't it).

また、店舗内において、属性を認識する対象となる人物の姿勢は、自らの移動や商品棚からの商品の取り出し等によって絶えず変化する。特許文献2では、推定した人物形状を、予め記憶部に格納した一定の被服形状とマッチングするか否かで被服を推定するため、人物の姿勢が変化すると、人物形状と被服形状とのマッチングが困難となり、被服を認識できない場合が生ずる。つまり、人物の姿勢によっては属性を認識できない場合があり、汎用性の高い属性認識を行うことができない。 In addition, in a store, the posture of a person whose attributes are to be recognized constantly changes due to his or her movement, taking out products from a product shelf, and the like. In Patent Document 2, clothes are estimated based on whether or not the estimated human shape is matched with a certain clothing shape stored in advance in a storage unit. It becomes difficult, and the clothes may not be recognized. In other words, attributes may not be recognized depending on the posture of the person, and highly versatile attribute recognition cannot be performed.

また、特許文献3のように、背景のバリエーションを増やして識別パラメータを学習する場合、人物のシルエット部分は同じで、背景部分の特徴量だけが異なる複数の画像が生成される。このような画像を用いて識別パラメータを学習すると、識別パラメータが同じ人物に過学習してしまう可能性がある。このため、様々な人物について属性を高精度で認識することが困難となる。 In addition, when the identification parameter is learned by increasing the variation of the background as in Patent Document 3, a plurality of images are generated in which the silhouette portion of the person is the same and only the feature amount of the background portion is different. If the identification parameters are learned using such images, the identification parameters may overlearn for the same person. Therefore, it becomes difficult to recognize attributes of various persons with high accuracy.

本発明は、上記の問題点を解決するためになされたもので、その目的は、顔の撮影によってユーザに心理的負担を与えることを回避でき、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識を行うことができ、さらに、様々な人物に対して属性認識を高精度で行うことができる属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems. To provide an attribute determination device, an attribute determination system, an attribute determination method, a program, and a recording medium capable of highly versatile attribute recognition and highly accurate attribute recognition of various persons. It is in.

本発明の一側面に係る属性決定装置は、人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備えている。 An attribute determination device according to one aspect of the present invention includes a position detection unit that detects the position of a control point that defines a skeleton of the person from an image of the person photographed from above, and detection by the position detection unit. and an attribute recognition unit that recognizes the attributes of the person using the result.

本発明の他の側面に係る属性決定システムは、上記の属性決定装置と、人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えている。 An attribute determination system according to another aspect of the present invention includes the attribute determination device described above, and an image acquisition unit that acquires the image by photographing the person from above and outputs data of the image to the attribute determination device. I have.

本発明のさらに他の側面に係る属性決定方法は、人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含む。 An attribute determination method according to still another aspect of the present invention includes a position detection step of detecting the position of a control point that defines the skeleton of the person from an image of the person photographed from above; and an attribute recognition step of recognizing the attributes of the person using the detection result of.

本発明のさらに他の側面に係るプログラムは、上記の属性決定方法をコンピュータに実行させるためのプログラムである。 A program according to still another aspect of the present invention is a program for causing a computer to execute the above attribute determination method.

本発明のさらに他の側面に係る記録媒体は、上記のプログラムを記録した、コンピュータ読取可能な記録媒体である。 A recording medium according to still another aspect of the present invention is a computer-readable recording medium recording the above program.

顔の撮影によってユーザに心理的負担を与えることを回避することができる。また、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識を行うことができる。さらに、様々な人物に対して属性認識を高精度で行うことができる。 It is possible to avoid imposing a psychological burden on the user by photographing the face. In addition, it is possible to perform attribute recognition with high versatility that easily copes with changes in a person's posture. Furthermore, attribute recognition can be performed with high accuracy for various persons.

本発明の実施の一形態の属性決定システムの概略の構成を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the structure of the outline of the attribute determination system of one embodiment of this invention. 上記属性決定システムでの属性認識方法による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the attribute recognition method in the said attribute determination system. 各フレームの画像で検出した制御点の例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of control points detected in each frame image; 本発明の他の実施の形態の属性決定システムにおいて、体型の異なる人物の撮影画像で検出した制御点の例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of control points detected in photographed images of persons having different body types in an attribute determination system according to another embodiment of the present invention; 本発明のさらに他の実施の形態の属性決定システムの概略の構成を示すブロック図である。FIG. 11 is a block diagram showing a schematic configuration of an attribute determination system according to still another embodiment of the present invention; 正規分布曲線を示すグラフである。4 is a graph showing a normal distribution curve; 上記属性決定システムでの属性認識方法による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the attribute recognition method in the said attribute determination system. 上記属性認識方法による処理を模式的に示す説明図である。It is explanatory drawing which shows typically the process by the said attribute recognition method.

本発明の各実施の形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 Each embodiment of the present invention will be described below with reference to the drawings. In addition, the present invention is not limited to the following contents.

<実施の形態1>
〔属性決定システム〕
図1は、本実施形態の属性決定システム1の概略の構成を示すブロック図である。属性決定装置1は、画像取得部2と、属性決定装置3とを有して構成されている。画像取得部2と属性決定装置3とは、通信回線Nを介して通信可能に接続されている。通信回線Nは、例えばケーブル、光ファイバー、有線LAN(Local Area Network)、無線LAN、インターネット回線などから適宜選択されて構成される。以下、画像取得部2および属性決定装置3の詳細について説明する。
<Embodiment 1>
[Attribute determination system]
FIG. 1 is a block diagram showing a schematic configuration of an attribute determination system 1 of this embodiment. The attribute determination device 1 includes an image acquisition section 2 and an attribute determination device 3 . The image acquisition unit 2 and the attribute determination device 3 are connected via a communication line N so as to be communicable. The communication line N is appropriately selected from, for example, cables, optical fibers, wired LANs (Local Area Networks), wireless LANs, Internet lines, and the like. Details of the image acquisition unit 2 and the attribute determination device 3 will be described below.

(画像取得部)
画像取得部2は、例えば店舗の天井または壁に設置され、店舗内の人物を上方から撮影して時間的に異なる各フレームの画像を取得するカメラ(撮像部)で構成されている。画像取得部2によって人物を上方から撮影することにより、人物の全身像を含む画像が取得される。画像取得部2を構成するカメラとしては、例えばRGBカメラを用いることができる。RGBカメラは、R(赤)、G(緑)、B(青)に対応する画素を有し、各画素から受光量に応じた電気信号(画像データ)を出力する。RGBカメラでの撮影により、人物のカラー画像を取得することができる。
(Image acquisition unit)
The image acquiring unit 2 is installed, for example, on the ceiling or wall of the store, and is configured by a camera (image capturing unit) that captures an image of a person in the store from above and acquires temporally different frames of images. By photographing a person from above with the image acquisition unit 2, an image including a full body image of the person is acquired. For example, an RGB camera can be used as the camera that constitutes the image acquisition unit 2 . The RGB camera has pixels corresponding to R (red), G (green), and B (blue), and outputs an electric signal (image data) corresponding to the amount of light received from each pixel. A color image of a person can be obtained by photographing with an RGB camera.

店舗内に設置される画像取得部2の台数は、特に限定されず、1台であってもよいし、2台以上であってもよい。少なくとも1台の画像取得部2で取得された画像のデータは、通信回線Nを介して属性決定装置3に出力される。 The number of image acquisition units 2 installed in the store is not particularly limited, and may be one or two or more. Image data acquired by at least one image acquisition unit 2 is output to the attribute determination device 3 via a communication line N. FIG.

(属性決定装置)
属性決定装置3は、画像取得部2で取得されて該属性決定装置3に入力された画像、つまり、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する端末装置であり、例えばパーソナルコンピュータで構成されている。属性決定装置3は、画像取得部2が設置される店舗と同じ店舗内に設置されていてもよいし、店舗の外部に画像取得部2と通信可能に設置されていてもよい。
(attribute determination device)
The attribute determination device 3 is a terminal device that determines the attributes of a person based on the image acquired by the image acquisition unit 2 and input to the attribute determination device 3, that is, the image of each frame obtained by photographing the person from above. Yes, it consists of a personal computer, for example. The attribute determination device 3 may be installed in the same store as the store where the image acquisition unit 2 is installed, or may be installed outside the store so as to be able to communicate with the image acquisition unit 2 .

属性決定装置3は、入力部11と、記憶部12と、表示部13と、通信部14と、読取部15と、位置検出部16と、属性認識部17と、制御部18とを有して構成されている。 The attribute determination device 3 has an input unit 11, a storage unit 12, a display unit 13, a communication unit 14, a reading unit 15, a position detection unit 16, an attribute recognition unit 17, and a control unit 18. configured as follows.

入力部11は、例えばキーボード、マウス、タッチパッド、タッチパネルなどで構成され、例えば属性決定装置3を操作する操作者による各種の指示入力を受け付ける。 The input unit 11 is composed of, for example, a keyboard, a mouse, a touch pad, a touch panel, etc., and receives various instruction inputs from an operator who operates the attribute determination device 3, for example.

記憶部12は、属性決定装置3の各部を動作させるための動作プログラム、画像取得部2から入力された画像のデータ、位置検出部16での検出結果、属性認識部認17での属性の認識結果等を記憶するメモリである。この記憶部12は、例えばハードディスクで構成されるが、RAM(Random Access Memory)、ROM(Read Only Memory)、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。 The storage unit 12 stores an operation program for operating each unit of the attribute determination device 3, image data input from the image acquisition unit 2, detection results from the position detection unit 16, and attribute recognition by the attribute recognition unit 17. A memory for storing results and the like. The storage unit 12 is configured by, for example, a hard disk, but may be configured by appropriately selecting from recording media such as RAM (Random Access Memory), ROM (Read Only Memory), optical disk, magneto-optical disk, and nonvolatile memory. good.

表示部13は、各種の情報を表示するデバイスであり、例えば液晶表示装置で構成される。通信部14は、外部と通信するための入出力ポートを含むインターフェースである。通信部14は、外部と無線通信を行う場合、アンテナ、送受信回路、変調回路、復調回路などを含んで構成される。 The display unit 13 is a device that displays various types of information, and is configured by, for example, a liquid crystal display device. The communication unit 14 is an interface including an input/output port for communicating with the outside. The communication unit 14 includes an antenna, a transmission/reception circuit, a modulation circuit, a demodulation circuit, and the like when performing wireless communication with the outside.

読取部15は、記録媒体Rに記録された情報(例えば制御部18の動作プログラム)を読み取る装置であり、例えばディスクドライブで構成される。なお、記録媒体Rが可搬型の不揮発性メモリである場合、上記不揮発性メモリの接続部が指し込まれる接続ポートも読取部15に含まれるとする。 The reading unit 15 is a device for reading information recorded on the recording medium R (for example, an operation program of the control unit 18), and is composed of, for example, a disk drive. If the recording medium R is a portable non-volatile memory, the reading unit 15 also includes a connection port into which the connection unit of the non-volatile memory is inserted.

制御部18は、属性決定装置3の各部の動作を制御する中央演算処理装置(CPU;Central Processing Unit)で構成されており、記憶部12に記憶された動作プログラムに従って動作する。 The control section 18 is composed of a central processing unit (CPU) that controls the operation of each section of the attribute determination device 3 , and operates according to an operation program stored in the storage section 12 .

位置検出部16は、画像取得部2にて取得され、属性決定装置3に入力された画像、つまり、人物を上方から撮影した画像から、人物の骨格を規定する点となる制御点の位置を検出する。なお、上記の「制御点」には、人物の関節点(骨と骨とを連接する可動性の結合部)、頭蓋骨の中心点、手足の指の骨の先端の点などが含まれる。 The position detection unit 16 detects the positions of the control points that define the skeleton of the person from the image acquired by the image acquisition unit 2 and input to the attribute determination device 3, that is, the image of the person photographed from above. To detect. The above-mentioned "control points" include human joint points (movable joints connecting bones), the center point of the skull, points at the tips of the bones of the fingers and toes, and the like.

この位置検出部16は、例えば制御部18と同一のまたは別個のCPUで構成される。なお、入力画像から人物の制御点(例えば関節点)の位置を検出する手法は、既存のソフトウェア(プログラム)で確立されている。したがって、上記ソフトウェアを読取部15にて読み取り、読み取ったプログラムを位置検出部16が実行することにより、人物を上方から撮影した画像から、人物の制御点の位置を検出することができる。 The position detection unit 16 is composed of, for example, the same CPU as the control unit 18 or a separate CPU. Note that a method for detecting the positions of control points (for example, joint points) of a person from an input image has been established with existing software (programs). Therefore, by reading the software with the reading unit 15 and executing the read program with the position detection unit 16, the positions of the control points of the person can be detected from the image of the person photographed from above.

属性認識部17は、位置検出部16での検出結果(制御点の位置情報)を用いて、人物の属性を認識する。上記属性としては、例えば、人物の年齢、年齢層、性別、肥満度、被服、装着物、携帯物の少なくともいずれかを考えることができる。このような属性認識部17は、例えばGPU(Graphics Processing Unit)で構成されている。GPUは、リアルタイムな画像処理に特化した演算装置である。 The attribute recognition unit 17 uses the detection result (position information of the control point) from the position detection unit 16 to recognize the attributes of the person. For example, at least one of the person's age, age group, sex, degree of obesity, clothing, attachments, and belongings can be considered as the attributes. Such an attribute recognition unit 17 is composed of, for example, a GPU (Graphics Processing Unit). A GPU is an arithmetic device specialized for real-time image processing.

〔属性認識方法〕
次に、本実施形態の属性認識方法について説明する。なお、ここでは、例として、属性認識部17が人物の属性として性別(男性/女性)を認識する場合について説明する。図2は、本実施形態の属性認識方法による処理の流れを示すフローチャートである。
[Attribute recognition method]
Next, the attribute recognition method of this embodiment will be described. Here, as an example, a case where the attribute recognition unit 17 recognizes gender (male/female) as an attribute of a person will be described. FIG. 2 is a flow chart showing the flow of processing by the attribute recognition method of this embodiment.

まず、店舗に設置された画像取得部2にて、店舗内の人物を上方から撮影して複数フレーム分の画像(人物の全身像を含む画像)を取得する(S1;画像取得工程)。各フレームの画像のデータが属性決定装置3に入力されると、位置検出部16は、各フレームの画像について、人物の骨格を規定する点となる制御点およびその位置を検出する(S2;位置検出工程)。図3は、1フレーム目の画像で検出した制御点、および2フレーム目の画像で検出した制御点の例を示している。なお、図中の黒丸が制御点を示す。 First, the image acquisition unit 2 installed in the store captures a person in the store from above to acquire a plurality of frames of images (images including the full body image of the person) (S1; image acquisition step). When the image data of each frame is input to the attribute determination device 3, the position detection unit 16 detects control points that define the skeleton of a person and their positions for each frame image (S2; position detection step). FIG. 3 shows an example of control points detected in the first frame image and control points detected in the second frame image. Black circles in the figure indicate control points.

続いて、属性認識部17は、位置検出部16での検出結果を用いて、人物の属性を認識する(S3;属性認識工程)。具体的には、属性認識部17は、制御点の位置の時系列の変動に基づいて属性を認識する。 Subsequently, the attribute recognition unit 17 uses the detection result of the position detection unit 16 to recognize the attributes of the person (S3; attribute recognition step). Specifically, the attribute recognition unit 17 recognizes the attribute based on the time-series variation of the position of the control point.

例えば、図3において、人物の右手の指の先端を示す制御点をP1とし、右腕の肘を示す制御点(関節点)をP2とし、右肩を示す制御点をP3とする。1フレーム目の画像において、所定の位置を原点にとったときの各制御点の座標を、それぞれ、P1=(x11,y11)、P2=(x21,y21)、P3=(x31,y31)とする。同様に、2フレーム目の画像において、上記原点に対する各制御点の座標を、それぞれ、P1=(x12,y12)、P2=(x22,y22)、P3=(x32,y32)とする。1フレーム目と2フレーム目との間での各制御点P1~P3の変動量を、それぞれ、ΔP1、ΔP2、ΔP3としたとき、ΔP1=√{(x12-x112+(y12-y112}、ΔP2=√{(x22-x212+(y22-y212}、ΔP3=√{(x32-x312+(y32-y312}で表される。 For example, in FIG. 3, let P1 be the control point indicating the tip of the finger of the person's right hand, P2 be the control point (joint point) indicating the elbow of the right arm, and P3 be the control point indicating the right shoulder. In the image of the first frame, the coordinates of each control point when a predetermined position is taken as the origin are respectively P 1 =(x 11 , y 11 ), P 2 =(x 21 , y 21 ), P 3 = (x 31 , y 31 ). Similarly, in the image of the second frame, the coordinates of each control point with respect to the origin are P 1 =(x 12 , y 12 ), P 2 =(x 22 , y 22 ), P 3 =(x 32 , y 32 ). Let ΔP 1 , ΔP 2 , and ΔP 3 be the amounts of variation of the control points P 1 to P 3 between the first frame and the second frame, respectively . ) 2 + (y 12 - y 11 ) 2 }, ΔP 2 = √ {(x 22 - x 21 ) 2 + (y 22 - y 21 ) 2 }, ΔP 3 = √ {(x 32 - x 31 ) 2 +(y 32 −y 31 ) 2 }.

例えば、男性と女性とでは歩き方が異なり、男性の場合、歩行時に腕の振りが大きく、フレーム間での変動量ΔP1~ΔP3が大きい傾向にある。一方、女性の場合、歩行時に腕の振りが小さく、フレーム間での変動量ΔP1~ΔP3が小さい傾向にある。したがって、属性認識部17は、制御点P1~P3の位置の変動量ΔP1~ΔP3と所定の閾値とを比較することにより、人物が男性であるか女性であるか、つまり、属性(性別)を認識することができる。 For example, men and women walk differently. Men tend to swing their arms more when walking, and the amount of variation ΔP 1 to ΔP 3 between frames tends to be greater. On the other hand, in the case of females, there is a tendency that the amount of variation ΔP 1 to ΔP 3 between frames is small because the swing of the arms is small during walking. Therefore, the attribute recognizing unit 17 compares the variation amounts ΔP 1 to ΔP 3 of the positions of the control points P 1 to P 3 with a predetermined threshold to determine whether the person is male or female. (gender) can be recognized.

なお、歩行時の歩幅は、男性では大きく、女性では小さい傾向にある。したがって、制御点として脚の関節点(例えば膝)に着目すると、属性認識部17は、脚の関節点の時系列の変動に基づいて属性としての性別を認識することもできる。つまり、属性認識部17は、歩行時に男性または女性に特有の動きを示す関節点の時系列の変動に基づいて、属性としての性別を認識することができる。 Note that the stride during walking tends to be large for men and small for women. Therefore, focusing on leg joint points (for example, knees) as control points, the attribute recognizing unit 17 can also recognize gender as an attribute based on time-series fluctuations in the leg joint points. In other words, the attribute recognizing unit 17 can recognize sex as an attribute based on the time-series variation of the joint points that show movements peculiar to males or females during walking.

属性認識部17での認識結果(属性の判定結果)は、例えば表示部13に表示される(S4;認識結果出力工程)。 The recognition result (attribute determination result) by the attribute recognition unit 17 is displayed on the display unit 13, for example (S4; recognition result output step).

以上のように、本実施形態では、位置検出部16が、人物を上方から撮影した画像(人物の全身像を含む画像)から、人物の骨格を規定する点となる制御点の位置を検出する。そして、属性認識部17が、位置検出部16での検出結果、つまり、制御点の位置情報を用いて、人物の属性を認識する。制御点の位置情報を用いることにより、人物の顔画像を全く用いることなく属性認識を行うことができる。これにより、顔の撮影によってユーザ(店舗内の人物)に心理的負担を与えることを回避することができる。 As described above, in the present embodiment, the position detection unit 16 detects the positions of the control points that define the skeleton of the person from an image of the person photographed from above (an image including the full-body image of the person). . Then, the attribute recognition unit 17 recognizes the attributes of the person using the detection result of the position detection unit 16, that is, the position information of the control points. By using the position information of the control points, attribute recognition can be performed without using a person's face image at all. As a result, it is possible to avoid imposing a psychological burden on the user (a person in the store) due to photographing the face.

また、人物の姿勢がどのように変化しても、つまり、姿勢の変化によって制御点の位置がどのように変化しても、その制御点の位置を位置検出部16が検出して、属性認識部17が人物の属性を認識する。したがって、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識が可能となる。 In addition, no matter how the posture of the person changes, that is, no matter how the position of the control point changes due to the change of posture, the position detection unit 16 detects the position of the control point and recognizes the attribute. A unit 17 recognizes the attributes of the person. Therefore, attribute recognition with high versatility that easily copes with changes in the posture of a person is possible.

さらに、属性認識部17は、位置検出部16での検出結果を用いて人物の属性を認識するため、どのような人物についても、その人物の制御点の位置情報に基づいて属性を認識することができる。また、制御点の位置情報に基づいて属性を認識することで、制御点に関係のない領域、つまり、人物の属性認識に不要な領域(例えば背景領域)が、属性認識に影響を与えることもない。したがって、様々な人物について属性認識を高精度で行うことができる。 Furthermore, since the attribute recognition unit 17 recognizes the attributes of the person using the detection result of the position detection unit 16, the attributes of any person can be recognized based on the position information of the control points of the person. can be done. In addition, by recognizing attributes based on the positional information of control points, areas that are not related to control points, that is, areas that are unnecessary for human attribute recognition (for example, background areas) can affect attribute recognition. do not have. Therefore, attribute recognition can be performed with high accuracy for various persons.

特に、本実施形態では、属性認識部17は、制御点の位置の時系列の変動に基づいて、人物の歩き方を認識することができる。したがって、その認識結果(歩き方)に基づいて、人物の属性としての性別(男性/女性)を認識することができる。 In particular, in the present embodiment, the attribute recognition unit 17 can recognize a person's walking style based on time-series changes in the positions of the control points. Therefore, it is possible to recognize the gender (male/female) as a person's attribute based on the recognition result (walking style).

また、本実施形態では、画像取得部2として、RGBカメラを用いている。比較的容易に入手可能なRGBカメラを用いることにより、本実施形態の属性決定システム1を容易に実現することができる。なお、後述する実施の形態3では、入力画像からニューラルネットワークによって特徴量を抽出し、抽出した特徴量に基づいて属性を認識するが、入力画像としてカラー画像を用いると、特徴量を精度よく抽出することができる。この点では、RGBカメラは実施の形態3の構成にも非常に好適であると言える。 Further, in this embodiment, an RGB camera is used as the image acquisition unit 2 . The attribute determination system 1 of this embodiment can be easily realized by using an RGB camera that is relatively easily available. In Embodiment 3, which will be described later, a feature amount is extracted from an input image by a neural network, and an attribute is recognized based on the extracted feature amount. can do. In this respect, it can be said that the RGB camera is also very suitable for the configuration of the third embodiment.

ところで、画像取得部2として、サーマルカメラを用いてもよいし、デプスカメラを用いてもよい。また、RGBカメラとサーマルカメラまたはデプスカメラとを併用してもよい。サーマルカメラは、物体から放射される熱(赤外線放射エネルギー)を検出して温度に変換し、その温度分布を画像表示するカメラである。デプスカメラは、奥行きの情報を取得する深度センサーを内蔵したカメラである。サーマルカメラまたはデプスカメラを用いることにより、位置検出部16は、カメラ画像から、温度分布または奥行情報を利用して人物の制御点の位置を精度よく検出することができる。このため、属性認識部17による属性の認識精度の向上が期待できる。 By the way, as the image acquisition unit 2, a thermal camera or a depth camera may be used. Also, an RGB camera and a thermal camera or a depth camera may be used together. A thermal camera is a camera that detects heat (infrared radiant energy) radiated from an object, converts it into temperature, and displays the temperature distribution as an image. A depth camera is a camera with a built-in depth sensor that acquires depth information. By using a thermal camera or a depth camera, the position detection unit 16 can accurately detect the position of the person's control point from the camera image using temperature distribution or depth information. Therefore, an improvement in the accuracy of attribute recognition by the attribute recognition unit 17 can be expected.

また、画像取得部2として、赤外線カメラを用いてもよいし、モノクロカメラを用いてもよい。このとき、RGBカメラと赤外線カメラまたはモノクロカメラとを併用してもよい。赤外線カメラは、赤外線(近赤外線)を放射し、物体での赤外線の反射を捉えることで画像を取得するカメラである。モノクロカメラは、撮影によりモノクロ(白黒)の画像を取得するカメラである。赤外線カメラおよびモノクロカメラは、夜間でも人物を撮影して明瞭な画像を取得できるため、そのような暗環境で取得された画像に基づく属性認識に非常に有効となる。 Also, as the image acquisition unit 2, an infrared camera may be used, or a monochrome camera may be used. At this time, an RGB camera and an infrared camera or a monochrome camera may be used together. An infrared camera is a camera that acquires an image by emitting infrared rays (near-infrared rays) and capturing infrared rays reflected by an object. A monochrome camera is a camera that obtains a monochrome (black and white) image by photographing. Infrared cameras and monochrome cameras are very effective in recognizing attributes based on images captured in such dark environments, since they can capture clear images of people even at night.

なお、本実施形態では、属性認識部17が人物の属性として性別を認識する例について説明したが、本実施形態と同様の考え方に基づいて、性別以外の属性(例えば年齢層(大人/子供、老人/中年/若者))を認識することも可能である。 In this embodiment, an example in which the attribute recognition unit 17 recognizes gender as an attribute of a person has been described. It is also possible to recognize old/middle-aged/young)).

なお、本実施形態では、属性決定装置3が画像取得部2から画像データを取得して、属性認識を行う例について説明したが、例えば通信回線を介して他の端末装置から送信される画像データを用いて属性認識を行ってもよい。また、記録媒体Rに記録された画像のデータを属性決定装置3が読み取って属性認識を行うようにしてもよい。 In this embodiment, the attribute determination device 3 acquires image data from the image acquisition unit 2 and performs attribute recognition. may be used for attribute recognition. Further, the attribute determination device 3 may read the data of the image recorded on the recording medium R to recognize the attribute.

<実施の形態2>
本実施形態では、実施の形態1で説明したS3の属性認識工程において、属性認識部17は、複数の制御点の位置関係に基づいて、人物の属性を認識する。ここでは、例として、属性認識部17が人物の属性として肥満度を認識する場合について説明する。
<Embodiment 2>
In the present embodiment, in the attribute recognition step of S3 described in Embodiment 1, the attribute recognition unit 17 recognizes the attributes of a person based on the positional relationship of a plurality of control points. Here, as an example, a case where the attribute recognition unit 17 recognizes the degree of obesity as an attribute of a person will be described.

例えば、図4は、やせ型の人物を撮影した画像で検出した制御点、および肥満体型の人物を撮影した画像で検出した制御点の例を示している。なお、図中の黒丸が制御点を示す。各制御点の位置は、複数フレームにわたって人物が静止状態またはそれに近い状態である(各制御点の連続フレーム間での変動量が閾値以下である)場合の、複数フレーム間での平均の位置とする(人物が歩行状態ではないとする)。 For example, FIG. 4 shows an example of control points detected in an image of a thin person and control points detected in an image of an obese person. Black circles in the figure indicate control points. The position of each control point is the average position over multiple frames when the person is in a stationary state or in a state close to that over multiple frames (the amount of variation in each control point between consecutive frames is less than the threshold). (assuming that the person is not in a walking state).

図4で示す各制御点の位置から、やせ型の人物と肥満体型の人物とでは、肩、肘、手指の先端、股関節、膝の相互の位置関係が互いに異なることがわかる。特に、股関節と手指の先端との距離は、やせ型の人物と肥満体型の人物とで大きく異なることがわかる。 From the positions of the respective control points shown in FIG. 4, it can be seen that the mutual positional relationships of the shoulders, elbows, fingertips, hip joints, and knees are different between the thin person and the obese person. In particular, it can be seen that the distance between the hip joint and the tip of the finger is significantly different between a lean person and an obese person.

そこで、属性認識部17は、複数の制御点(例えば股関節と手指の先端)の位置座標からこれらの制御点の位置関係を認識する。例えば、属性認識部17は、股関節と手指の先端との距離を各制御点の位置座標から求める。そして、属性認識部17は、上記距離が所定範囲よりも大きい場合には、人物は肥満体型であり、上記距離が所定範囲内である場合には、人物は標準体型であり、上記距離が所定範囲よりも小さい場合には、人物はやせ型であると認識する。 Therefore, the attribute recognition unit 17 recognizes the positional relationship of these control points from the positional coordinates of a plurality of control points (for example, the hip joint and the tip of the finger). For example, the attribute recognition unit 17 obtains the distance between the hip joint and the tip of the finger from the position coordinates of each control point. If the distance is greater than the predetermined range, the attribute recognition unit 17 determines that the person is obese, and if the distance is within the predetermined range, the person is of normal body type. If it is smaller than the range, the person is recognized as thin.

このように、属性認識部17は、複数の制御点の位置関係に基づいて、人物の体型を認識することができる。これにより、人物の属性として、肥満度(肥満体型/標準体型/やせ型)を認識することが可能となる。 In this way, the attribute recognition unit 17 can recognize a person's body type based on the positional relationship of a plurality of control points. This makes it possible to recognize the degree of obesity (obesity type/standard type/thin type) as an attribute of a person.

なお、属性認識部17が複数の制御点の位置関係に基づいて認識できる属性は、本実施形態の肥満度には限定されない。本実施形態と同様の考え方に基づき、属性認識部17は、例えば性別(男性/女性)、年齢層(大人/子供、老人/中年/若者)など、肥満度以外の属性を認識することも可能である。 Note that the attribute that the attribute recognition unit 17 can recognize based on the positional relationship of the plurality of control points is not limited to the degree of obesity in this embodiment. Based on the same idea as in the present embodiment, the attribute recognition unit 17 may recognize attributes other than the degree of obesity, such as gender (male/female) and age group (adult/child, old/middle-aged/young). It is possible.

<実施の形態3>
図5は、本実施形態の属性認識システム1の概略の構成を示すブロック図である。本実施形態の属性認識システム1は、属性決定装置3の属性認識部17を、属性認識部17’に置き換えた以外は、実施の形態1と同様の構成である。以下、実施の形態1と異なる点について説明する。
<Embodiment 3>
FIG. 5 is a block diagram showing a schematic configuration of the attribute recognition system 1 of this embodiment. The attribute recognition system 1 of this embodiment has the same configuration as that of the first embodiment except that the attribute recognition unit 17 of the attribute determination device 3 is replaced with an attribute recognition unit 17'. Differences from the first embodiment will be described below.

属性認識部17’は、属性認識部17と同様に、位置検出部16での検出結果を用いて、人物の属性を認識する。この属性認識部17’は、特徴量抽出器17a、特徴量変換器17bおよび識別器17cとしての機能を有するGPUで構成されている。特に、特徴量抽出器17aおよび識別器17cの機能は、深層学習(ディープラーニング)が可能なディープニューラルネットワーク(DNN)によって実現される。 The attribute recognition unit 17 ′ recognizes attributes of a person using the detection result of the position detection unit 16 , similarly to the attribute recognition unit 17 . This attribute recognizing unit 17' is composed of a GPU having functions as a feature quantity extractor 17a, a feature quantity converter 17b, and a discriminator 17c. In particular, the functions of the feature quantity extractor 17a and classifier 17c are realized by a deep neural network (DNN) capable of deep learning.

特徴量抽出器17aは、人物を上方から撮影した画像から、属性を認識するための特徴量を抽出してn次元(nは自然数)の特徴マップを生成する。特徴量変換器17bは、上記の特徴マップに対してマスク処理を行う。より詳しくは、特徴量変換器17bは、上記画像中の制御点から離れる位置ほど特徴量の低下度合いが大きくなるマスクを特徴マップにかけることにより、上記マスク処理を行う。ここで、上記のマスクは、特徴量の低下度合いが制御点を頂上とする正規分布となるように変化する重み(ウェイト)を有する。識別器17cは、マスク処理後の特徴マップに基づいて、属性を識別する。 The feature quantity extractor 17a extracts a feature quantity for recognizing an attribute from an image of a person photographed from above, and generates an n-dimensional (n is a natural number) feature map. The feature quantity converter 17b performs mask processing on the above feature map. More specifically, the feature quantity converter 17b performs the above-described masking process by applying a mask to the feature map in which the degree of decrease in the feature quantity increases with increasing distance from the control point in the image. Here, the above mask has weights that change so that the degree of deterioration of the feature quantity becomes a normal distribution with the control point at the top. The discriminator 17c discriminates attributes based on the masked feature map.

図6は、正規分布曲線を示すグラフである。なお、正規分布曲線の式f(x)において、μは平均を示し、σは標準偏差を示す。上記のマスクの重みMは、図6のf(x)に相当する。ただし、0≦M≦1であり、制御点の位置で最大(M=1)である。画像中の位置(x,y)におけるn次元目の特徴量をfn(x,y)とし、その特徴量に乗算するマスクの重みをM(x,y)としたとき、特徴量変換器17bによってマスク処理を行うと、マスク処理後の特徴量、つまり、属性を認識するための特徴量Gn(x,y)は、以下の式で表される。
Gn(x,y)=fn(x,y)×M(x,y)
FIG. 6 is a graph showing a normal distribution curve. In the normal distribution curve formula f(x), μ indicates the average and σ indicates the standard deviation. The above mask weight M corresponds to f(x) in FIG. However, 0≤M≤1, and is maximum (M=1) at the position of the control point. Let fn(x, y) be the nth-dimensional feature quantity at the position (x, y) in the image, and let M(x, y) be the weight of the mask to be multiplied by the feature quantity. Then, the feature amount after masking, that is, the feature amount Gn(x, y) for recognizing the attribute is expressed by the following equation.
Gn(x,y)=fn(x,y)×M(x,y)

次に、本実施形態の属性認識方法について説明する。図7は、本実施形態の属性認識方法による処理の流れを示すフローチャートである。また、図8は、本実施形態の属性認識方法による処理を模式的に示す説明図である。なお、特徴量抽出器17aおよび識別器17cは、教師あり学習によって予め学習されているとする(ニューラルネットワークを構成する各ノードのパラメータが適切に設定(更新)されているとする)。 Next, the attribute recognition method of this embodiment will be described. FIG. 7 is a flow chart showing the flow of processing by the attribute recognition method of this embodiment. FIG. 8 is an explanatory diagram schematically showing processing by the attribute recognition method of this embodiment. It is assumed that the feature quantity extractor 17a and the classifier 17c have been pre-learned by supervised learning (the parameters of each node constituting the neural network are appropriately set (updated)).

まず、店舗に設置された画像取得部2にて、店舗内の人物を上方から撮影して画像(例えば1フレーム目)が取得される(S1;画像取得工程)。1フレーム目の画像のデータが属性決定装置3に入力されると、位置検出部16は、上記画像について制御点およびその位置を検出する(S2;位置検出工程)。 First, an image (for example, the first frame) is acquired by photographing a person in the store from above in the image acquisition unit 2 installed in the store (S1; image acquisition step). When the data of the first frame image is input to the attribute determination device 3, the position detection unit 16 detects control points and their positions in the image (S2; position detection step).

次に、位置検出部16は、S2で検出された制御点の位置から、人物の頭部、胴体部、腕、脚などの領域を認識し、これらの領域を含む人物矩形を設定し、S1で取得した撮影画像から人物矩形内の画像を抽出する(S2-1;人物矩形画像抽出工程)。なお、S2-1の工程は必須ではなく、省略することも可能である。 Next, the position detection unit 16 recognizes areas such as the head, torso, arms, and legs of the person from the positions of the control points detected in S2, sets a person rectangle including these areas, and sets S1. The image inside the rectangle of the person is extracted from the photographed image acquired in 1 (S2-1; person rectangle image extraction step). Note that the step of S2-1 is not essential and can be omitted.

続いて、属性認識部17’は、S2-1で取得した人物矩形画像またはS1で取得した撮影画像と、位置検出部16での検出結果とに基づいて、人物の属性を認識する(S3;属性認識工程)。 Subsequently, the attribute recognition unit 17′ recognizes the attribute of the person based on the rectangular image of the person acquired in S2-1 or the photographed image acquired in S1 and the detection result of the position detection unit 16 (S3; attribute recognition process).

具体的には、まず、特徴量抽出器17aが入力画像(人物矩形画像または撮影画像)から特徴量を抽出し、抽出した特徴量の分布である特徴マップを生成する(S31;特徴量抽出工程)。上記特徴マップは、色情報、エッジ情報などの特徴量の種類に応じてn次元分生成される。 Specifically, first, the feature amount extractor 17a extracts feature amounts from an input image (human rectangular image or photographed image), and generates a feature map that is the distribution of the extracted feature amounts (S31; feature amount extraction step ). The feature maps are generated for n dimensions according to the types of feature amounts such as color information and edge information.

次に、特徴量変換器17bは、上記のn次元分の特徴マップに対して上述したマスクをかけてマスク処理を行い、制御点から離れた位置ほど特徴量を低下させる(S32;特徴量変換工程)。この処理により、例えば画像中で人物以外の背景部分(商品棚の商品も含む)の特徴量が低下する。その後、識別器17cは、マスク処理後の特徴マップに基づいて、人物の属性を識別する(S33;識別工程)。 Next, the feature quantity converter 17b applies the above-described mask to the n-dimensional feature map to perform mask processing, and reduces the feature quantity at positions farther from the control point (S32; feature quantity conversion process). By this processing, for example, the feature amount of the background portion (including the product on the product shelf) other than the person in the image is reduced. Thereafter, the discriminator 17c discriminates the attributes of the person based on the masked feature map (S33; discrimination step).

属性認識部17’での認識結果(識別器17cでの属性の識別結果)は、例えば表示部13に表示される(S4;認識結果出力工程)。そして、次の撮影画像についても処理を継続する場合は、S1以降の工程を繰り返し、次の撮影画像について処理を行わない場合は、一連の処理を終了する(S5)。 The recognition result of the attribute recognition unit 17' (the attribute identification result of the classifier 17c) is displayed, for example, on the display unit 13 (S4; recognition result output step). Then, when the processing is to be continued for the next captured image, the steps after S1 are repeated, and when the next captured image is not to be processed, the series of processing ends (S5).

人物を上方から撮影した画像において、制御点から離れた領域ほど、人物とは関係のない領域(例えば背景領域などの、人物の属性を現しているとは考えにくい領域)である可能性が高い。特徴量変換器17bは、特徴マップに対してマスク処理を行って、制御点から離れた、人物とは関係のない領域の特徴量を低下させ、識別器17cは、マスク処理後の特徴マップに基づいて属性を識別する。これにより、人物とは関係のない領域の特徴量の、属性認識への影響を低減することができ、人物の属性を精度よく識別(認識)することが可能となる。 In an image of a person photographed from above, the more distant the area from the control point, the more likely it is an area unrelated to the person (for example, a background area, which is unlikely to represent an attribute of the person). . The feature quantity converter 17b performs mask processing on the feature map to reduce the feature quantity of regions unrelated to the person away from the control point. Identify attributes based on As a result, it is possible to reduce the influence of the feature amount of the area unrelated to the person on the attribute recognition, and it is possible to accurately identify (recognize) the attribute of the person.

また、マスク処理に用いるマスクは、特徴量の低下度合いが制御点を頂上とする正規分布となるように変化する重みを有する。特徴量変換器17bが上記マスクを用いてマスク処理を行うことにより、特徴マップに対して、制御点から離れた領域ほど特徴量を確実に低下させることができる。これにより、人物とは関係のない領域の特徴量の、属性認識への影響を確実に低減して、属性認識の精度を確実に向上させることができる。 Also, the mask used for the mask processing has weights that change so that the degree of feature amount reduction becomes a normal distribution with the control point at the top. By performing the masking process using the mask by the feature amount converter 17b, the feature amount can be reliably reduced in the area farther from the control point on the feature map. As a result, it is possible to reliably reduce the influence of the feature amount of the area unrelated to the person on attribute recognition, and to reliably improve the accuracy of attribute recognition.

また、本実施形態では、人物とは関係のない領域の特徴量を削減して得た識別結果を新たに正解ラベルとして用いて、特徴量抽出器17aおよび識別器17cを学習させることができる。これにより、未知の店舗内での撮影によって取得された画像をもとに人物の属性を認識する場合でも、認識性能を向上させることができ、汎化性を向上させることができる。 In addition, in this embodiment, the feature amount extractor 17a and the classifier 17c can be learned by using the identification result obtained by reducing the feature amount of the area unrelated to the person as a new correct label. As a result, recognition performance can be improved and versatility can be improved even when recognizing a person's attribute based on an image acquired by photographing in an unknown store.

ところで、マスクの重みの分布である正規分布の標準偏差σは、人物の骨格中での制御点の位置に応じて異なるようにしてもよい。例えば、制御点が人物の手指の骨の先端の点であれば、その点を頂上とする正規分布の標準偏差σを小さくし、制御点が人物の頭蓋骨の中心点であれば、その中心点を頂上とする正規分布の標準偏差σを大きくしてもよい。 By the way, the standard deviation σ of the normal distribution, which is the mask weight distribution, may vary according to the positions of the control points in the skeleton of the person. For example, if the control point is the tip of a person's finger bone, the standard deviation σ of the normal distribution with that point as the top is reduced, and if the control point is the center point of the person's skull, You may increase the standard deviation σ of the normal distribution with .

このように正規分布の標準偏差σを設定することにより、特徴マップにおいて、マスク処理によって特徴量を保持しようとする領域(人物と関係する領域)の範囲を、人物骨格の位置に応じて適切に調整することができる。つまり、人物の頭部については広い範囲で特徴量を保持し、手指については狭い範囲で特徴量を保持することができる。これにより、識別器17cは、マスク処理後の特徴マップに基づいて、人物の形状を表す領域の特徴量のみに基づいて人物の属性を識別することが可能となり、人物の属性の識別精度を向上させることができる。 By setting the standard deviation σ of the normal distribution in this way, in the feature map, the range of the region (region related to the person) in which the feature amount is to be retained by the mask processing can be appropriately adjusted according to the position of the human skeleton. can be adjusted. In other words, it is possible to hold the feature amount of the person's head in a wide range and hold the feature amount of the fingers in a narrow range. As a result, the classifier 17c can identify the attribute of the person based only on the feature amount of the area representing the shape of the person, based on the feature map after the mask processing, thereby improving the accuracy of identifying the attribute of the person. can be made

また、マスクの重みの分布である正規分布の標準偏差σは、識別器17cが識別する属性に応じて異なるようにしてもよい。例えば、人物の属性として携帯物(例えばペット、手提げかばん、拳銃など)を識別する場合、人物の手指の骨の先端の点を頂上とする正規分布の標準偏差σを大きくしてもよい。また、人物の属性として性別を識別する場合、人物の指の骨の先端の点を頂上とする正規分布の標準偏差σを小さくしてもよい。 Further, the standard deviation σ of the normal distribution, which is the mask weight distribution, may differ according to the attributes identified by the discriminator 17c. For example, when identifying belongings (for example, pets, handbags, pistols, etc.) as attributes of a person, the standard deviation σ of the normal distribution with the point at the tip of the finger bone of the person as the top may be increased. Also, when gender is identified as a person's attribute, the standard deviation σ of the normal distribution with the point at the tip of the finger bone of the person as the top may be reduced.

このように識別する属性に応じて正規分布の標準偏差σを異ならせることにより、特徴量変換器17bは、特徴マップに対するマスク処理によって特徴量を保持する範囲を、識別対象の属性に応じて適切に調整することができる。その結果、識別器17cは、上記属性を適切に識別することが可能となる。例えば属性として人物が携帯物を所持しているか否かを識別する場合には、マスク処理により、人物の手指よりも広い範囲の特徴量が保持されるため、識別器17cは上記特徴量に基づいて携帯物を適切に識別することができる。一方、属性として人物の性別等、携帯物以外の属性を識別する場合には、マスク処理により、人物の手指の領域の特徴量が保持されるため、識別器17cは上記特徴量に基づいて携帯物以外の属性を適切に識別することができる。 By varying the standard deviation .sigma. can be adjusted to As a result, the discriminator 17c can appropriately discriminate the attribute. For example, in the case of identifying whether or not a person possesses a portable item as an attribute, the mask processing holds a feature amount that is wider than the person's fingers. to properly identify the item. On the other hand, when identifying an attribute other than a portable item such as a person's gender as an attribute, since the feature amount of the area of the person's fingers is retained by mask processing, the discriminator 17c uses the portable item based on the feature amount. Attributes other than objects can be appropriately identified.

<プログラムおよび記録媒体>
以上の各実施の形態で説明した属性決定装置3は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部18)が読み取って実行することにより、属性決定装置3の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されて記憶部12に記憶される。また、上記プログラムは、例えばCD-ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体に記録され、この記録媒体から上記プログラムをコンピュータが読み取って記憶部12に記憶する形態であってもよい。
<Program and recording medium>
The attribute determination device 3 described in each of the above embodiments can be configured by, for example, a computer (PC) in which a predetermined program (application software) is installed. A computer (for example, the control unit 18 as a CPU) reads and executes the above program, so that each unit of the attribute determination device 3 can be operated to execute each process (each process) described above. Such a program is acquired by, for example, downloading from the outside via a network and stored in the storage unit 12 . The program is recorded in a computer-readable recording medium such as a CD-ROM (Compact Disk-Read Only Memory), and the computer reads the program from the recording medium and stores the program in the storage unit 12. may

<補足>
以上で説明した本実施形態の属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体は、以下のように表現することもできる。
<Supplement>
The attribute determination device, attribute determination system, attribute determination method, program, and recording medium of this embodiment described above can also be expressed as follows.

1.人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備えていることを特徴とする属性決定装置。
1. a position detection unit that detects the position of a control point that defines the skeleton of the person from an image of the person photographed from above;
An attribute determination device, comprising: an attribute recognition unit that recognizes the attribute of the person by using the detection result of the position detection unit.

2.前記属性認識部は、前記制御点の位置の時系列の変動に基づいて、前記属性を認識することを特徴とする前記1に記載の属性決定装置。 2. 2. The attribute determination device according to 1, wherein the attribute recognition unit recognizes the attribute based on a time-series change in the position of the control point.

3.前記属性認識部は、複数の前記制御点の位置関係に基づいて、前記属性を認識することを特徴とする前記1に記載の属性決定装置。 3. 2. The attribute determination device according to 1, wherein the attribute recognition unit recognizes the attribute based on the positional relationship of the plurality of control points.

4.前記属性認識部は、
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出器と、
前記特徴マップに対してマスク処理を行う特徴量変換器と、
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別器とを含み、
前記特徴量変換器は、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする前記1に記載の属性決定装置。
4. The attribute recognition unit
a feature quantity extractor that extracts a feature quantity for recognizing the attribute from the image and generates a feature map;
a feature quantity converter that performs mask processing on the feature map;
a classifier that identifies the attribute based on the masked feature map;
2. The attribute determination according to 1, wherein the feature value converter performs the mask processing by applying a mask to the feature map in which the degree of decrease in the feature value increases with the position away from the control point. Device.

5.前記マスクは、前記特徴量の低下度合いが前記制御点を頂上とする正規分布となるように変化する重みを有することを特徴とする前記4に記載の属性決定装置。 5. 5. The attribute determination device according to 4 above, wherein the mask has weights that vary so that the degree of deterioration of the feature quantity has a normal distribution with the control point at the top.

6.前記正規分布の標準偏差は、前記人物の骨格中での前記制御点の位置に応じて異なることを特徴とする前記5に記載の属性決定装置。 6. 6. The attribute determination device according to 5, wherein the standard deviation of the normal distribution differs according to the position of the control point in the skeleton of the person.

7.前記正規分布の標準偏差は、前記識別器が識別する前記属性に応じて異なることを特徴とする前記5または6に記載の属性決定装置。 7. 7. The attribute determination device according to 5 or 6, wherein the standard deviation of the normal distribution differs according to the attribute identified by the discriminator.

8.前記人物の属性は、前記人物の年齢、年齢層、性別、肥満度、被服、装着物、携帯物の少なくともいずれかであることを特徴とする前記1から7のいずれかに記載の属性決定装置。 8. 8. The attribute determination device according to any one of 1 to 7, wherein the attribute of the person is at least one of the person's age, age group, sex, degree of obesity, clothing, attachment, and belongings. .

9.前記1から8のいずれかに記載の属性決定装置と、
人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えていることを特徴とする属性決定システム。
9. 9. The attribute determination device according to any one of 1 to 8;
An attribute determination system, comprising: an image acquisition unit that captures an image of a person from above to acquire the image, and outputs data of the image to the attribute determination device.

10.前記画像取得部は、RGBカメラを含むことを特徴とする前記9に記載の属性決定システム。 10. 10. The attribute determination system as described in 9 above, wherein the image acquisition unit includes an RGB camera.

11.前記画像取得部は、サーマルカメラまたはデプスカメラを含むことを特徴とする前記9または10に記載の属性決定システム。 11. 11. The attribute determination system according to 9 or 10, wherein the image acquisition unit includes a thermal camera or a depth camera.

12.前記画像取得部は、赤外線カメラまたはモノクロカメラを含むことを特徴とする前記9から11のいずれかに記載の属性決定システム。 12. 12. The attribute determination system according to any one of 9 to 11, wherein the image acquisition unit includes an infrared camera or a monochrome camera.

13.人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含むことを特徴とする属性決定方法。
13. a position detection step of detecting the positions of control points that define the skeleton of the person from an image of the person photographed from above;
and an attribute recognition step of recognizing the attributes of the person using the detection result of the position detection unit.

14.前記属性認識工程では、前記制御点の位置の時系列の変動に基づいて、前記属性を認識することを特徴とする前記13に記載の属性決定方法。 14. 14. The attribute determination method according to 13 above, wherein, in the attribute recognition step, the attribute is recognized based on a time-series change in the position of the control point.

15.前記属性認識工程では、複数の前記制御点の位置関係に基づいて、前記属性を認識することを特徴とする前記13に記載の属性決定方法。 15. 14. The attribute determination method according to 13 above, wherein in the attribute recognition step, the attribute is recognized based on a positional relationship between a plurality of the control points.

16.前記属性認識工程は、
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出工程と、
前記特徴マップに対してマスク処理を行う特徴量変換工程と、
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別工程とを含み、
前記特徴量変換工程では、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする前記13に記載の属性決定方法。
16. The attribute recognition step includes
a feature quantity extraction step of extracting a feature quantity for recognizing the attribute from the image and generating a feature map;
a feature amount conversion step of performing mask processing on the feature map;
an identification step of identifying the attribute based on the masked feature map;
14. The attribute determination according to 13 above, wherein in the feature value conversion step, the mask processing is performed by applying a mask to the feature map in which the degree of decrease in the feature value increases with the position away from the control point. Method.

17.前記13から16のいずれかに記載の属性決定方法をコンピュータに実行させるためのプログラム。 17. 17. A program for causing a computer to execute the attribute determination method according to any one of 13 to 16 above.

18.前記17に記載のプログラムを記録した、コンピュータ読取可能な記録媒体。 18. 18. A computer-readable recording medium recording the program according to 17 above.

以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited thereto, and can be implemented by being expanded or modified without departing from the gist of the invention.

本発明は、人物を上方から撮影した画像に基づいて、人物の属性を決定する装置に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for a device that determines attributes of a person based on an image of the person photographed from above.

1 属性決定システム
2 画像取得部
3 属性決定装置
16 位置検出部
17 属性認識部
17’ 属性認識部
17a 特徴量抽出器
17b 特徴量変換器
17c 識別器
1 attribute determination system 2 image acquisition unit 3 attribute determination device 16 position detection unit 17 attribute recognition unit 17' attribute recognition unit 17a feature amount extractor 17b feature amount converter 17c classifier

Claims (14)

人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、
前記位置検出部での検出結果を用いて、上方から撮影された前記人物の属性を認識する属性認識部とを備え、
前記人物の属性は、前記人物の年齢層、性別少なくともいずれかを含み、
前記属性認識部は、前記制御点の位置の時系列の変動に基づいて、前記属性を認識するとともに、前記制御点の位置の、時間的に異なるフレーム間での変動量と所定の閾値とを比較することにより、前記属性を認識することを特徴とする属性決定装置。
a position detection unit that detects the position of a control point that defines the skeleton of the person from an image of the person photographed from above;
an attribute recognition unit that recognizes the attributes of the person photographed from above using the detection result of the position detection unit;
The attributes of the person include at least one of the age group and gender of the person ,
The attribute recognizing unit recognizes the attribute based on the time-series variation of the position of the control point, and determines an amount of variation between temporally different frames and a predetermined threshold value of the position of the control point. An attribute determination device that recognizes the attribute by comparison .
人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、a position detection unit that detects the position of a control point that defines the skeleton of the person from an image of the person photographed from above;
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備え、an attribute recognition unit that recognizes attributes of the person using the detection result of the position detection unit;
前記属性認識部は、The attribute recognition unit
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出器と、a feature quantity extractor that extracts a feature quantity for recognizing the attribute from the image and generates a feature map;
前記特徴マップに対してマスク処理を行う特徴量変換器と、a feature quantity converter that performs mask processing on the feature map;
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別器とを含み、a classifier that identifies the attribute based on the masked feature map;
前記特徴量変換器は、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする属性決定装置。The attribute determination device, wherein the feature value converter performs the mask processing by applying a mask to the feature map in which the degree of decrease in the feature value increases with the position away from the control point.
前記マスクは、前記特徴量の低下度合いが前記制御点を頂上とする正規分布となるように変化する重みを有することを特徴とする請求項2に記載の属性決定装置。3. The attribute determination apparatus according to claim 2, wherein the mask has weights that vary so that the degree of deterioration of the feature quantity has a normal distribution with the control point at the top. 前記正規分布の標準偏差は、前記人物の骨格中での前記制御点の位置に応じて異なることを特徴とする請求項3に記載の属性決定装置。4. The attribute determination device according to claim 3, wherein the standard deviation of said normal distribution differs according to the position of said control point in said person's skeleton. 前記正規分布の標準偏差は、前記識別器が識別する前記属性に応じて異なることを特徴とする請求項3または4に記載の属性決定装置。5. The attribute determination device according to claim 3, wherein the standard deviation of said normal distribution differs according to said attribute identified by said discriminator. 前記人物の属性は、前記人物の年齢、年齢層、性別、肥満度、被服、装着物、携帯物の少なくともいずれかであることを特徴とする請求項2から5のいずれかに記載の属性決定装置。6. The attribute determination according to any one of claims 2 to 5, wherein the attributes of the person are at least one of the person's age, age group, sex, degree of obesity, clothes, attachments, and belongings. Device. 請求項1から6のいずれかに記載の属性決定装置と、an attribute determination device according to any one of claims 1 to 6;
人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えていることを特徴とする属性決定システム。An attribute determination system, comprising: an image acquisition unit that captures an image of a person from above to acquire the image, and outputs data of the image to the attribute determination device.
前記画像取得部は、RGBカメラを含むことを特徴とする請求項7に記載の属性決定システム。8. The attribute determination system according to claim 7, wherein said image acquisition unit includes an RGB camera. 前記画像取得部は、サーマルカメラまたはデプスカメラを含むことを特徴とする請求項7または8に記載の属性決定システム。9. The attribute determination system according to claim 7, wherein the image acquisition unit includes a thermal camera or a depth camera. 前記画像取得部は、赤外線カメラまたはモノクロカメラを含むことを特徴とする請求項7から9のいずれかに記載の属性決定システム。10. The attribute determination system according to any one of claims 7 to 9, wherein the image acquisition unit includes an infrared camera or a monochrome camera. 人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、a position detection step of detecting the positions of control points that define the skeleton of the person from an image of the person photographed from above;
前記位置検出工程での検出結果を用いて、上方から撮影された前記人物の属性を認識する属性認識工程とを含み、an attribute recognition step of recognizing the attributes of the person photographed from above using the detection result of the position detection step;
前記人物の属性は、前記人物の年齢層、性別の少なくともいずれかを含み、The attributes of the person include at least one of the age group and gender of the person,
前記属性認識工程では、前記制御点の位置の時系列の変動に基づいて、前記属性を認識するとともに、前記制御点の位置の、時間的に異なるフレーム間での変動量と所定の閾値とを比較することにより、前記属性を認識することを特徴とする属性決定方法。In the attribute recognition step, the attribute is recognized based on the time-series variation of the position of the control point, and the amount of variation of the position of the control point between temporally different frames and a predetermined threshold are determined. An attribute determination method, wherein the attribute is recognized by comparison.
人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、a position detection step of detecting the positions of control points that define the skeleton of the person from an image of the person photographed from above;
前記位置検出工程での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含み、an attribute recognition step of recognizing attributes of the person using the detection result of the position detection step;
前記属性認識工程は、The attribute recognition step includes
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出工程と、a feature quantity extraction step of extracting a feature quantity for recognizing the attribute from the image and generating a feature map;
前記特徴マップに対してマスク処理を行う特徴量変換工程と、a feature amount conversion step of performing mask processing on the feature map;
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別工程とを含み、an identification step of identifying the attribute based on the masked feature map;
前記特徴量変換工程では、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする属性決定方法。In the feature value conversion step, the attribute determination method is characterized in that the mask processing is performed by applying a mask to the feature map in which the degree of decrease in the feature value increases with the position away from the control point.
請求項11または12に記載の属性決定方法をコンピュータに実行させるためのプログラム。A program for causing a computer to execute the attribute determination method according to claim 11 or 12. 請求項13に記載のプログラムを記録した、コンピュータ読取可能な記録媒体。A computer-readable recording medium on which the program according to claim 13 is recorded.
JP2018236417A 2018-12-18 2018-12-18 Attribute determination device, attribute determination system, attribute determination method, program and recording medium Active JP7259313B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018236417A JP7259313B2 (en) 2018-12-18 2018-12-18 Attribute determination device, attribute determination system, attribute determination method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018236417A JP7259313B2 (en) 2018-12-18 2018-12-18 Attribute determination device, attribute determination system, attribute determination method, program and recording medium

Publications (2)

Publication Number Publication Date
JP2020098474A JP2020098474A (en) 2020-06-25
JP7259313B2 true JP7259313B2 (en) 2023-04-18

Family

ID=71106577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018236417A Active JP7259313B2 (en) 2018-12-18 2018-12-18 Attribute determination device, attribute determination system, attribute determination method, program and recording medium

Country Status (1)

Country Link
JP (1) JP7259313B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011377B (en) * 2021-04-06 2023-04-07 新疆爱华盈通信息技术有限公司 Pedestrian attribute identification method and device, electronic equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077286A1 (en) 2010-12-09 2012-06-14 パナソニック株式会社 Object detection device and object detection method
WO2018109997A1 (en) 2016-12-16 2018-06-21 アイシン精機株式会社 Passenger detection device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006654A (en) * 2001-06-20 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting feature amount of moving object in moving image and method and device for automatically tracking moving object in moving image, program for executing the method and recording medium with the program recorded thereon
JP2010015472A (en) * 2008-07-07 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> Pedestrian sex determination device, pedestrian sex determination method, pedestrian sex determination program, and recording medium therefor
JP6596309B2 (en) * 2015-11-11 2019-10-23 株式会社東芝 Analysis apparatus and analysis method
JP2018084890A (en) * 2016-11-22 2018-05-31 サイジニア株式会社 Information processing unit, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012077286A1 (en) 2010-12-09 2012-06-14 パナソニック株式会社 Object detection device and object detection method
WO2018109997A1 (en) 2016-12-16 2018-06-21 アイシン精機株式会社 Passenger detection device

Also Published As

Publication number Publication date
JP2020098474A (en) 2020-06-25

Similar Documents

Publication Publication Date Title
US10789454B2 (en) Image processing device, image processing method, and computer program product
JP4318465B2 (en) Person detection device and person detection method
JP5873442B2 (en) Object detection apparatus and object detection method
CA2734143C (en) Method and apparatus for estimating body shape
JP5010937B2 (en) Image processing apparatus, program, and image processing method
US11023908B2 (en) Information processing apparatus for performing customer gaze analysis
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
KR101612605B1 (en) Method for extracting face feature and apparatus for perforimg the method
US20210319585A1 (en) Method and system for gaze estimation
JP2006293644A (en) Information processing device and information processing method
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
TW201835805A (en) Method, system, and computer-readable recording medium for long-distance person identification
JP7151875B2 (en) Image processing device, image processing method, and program
JP6969878B2 (en) Discriminator learning device and discriminator learning method
Bhargavas et al. Human identification using gait recognition
JP7259313B2 (en) Attribute determination device, attribute determination system, attribute determination method, program and recording medium
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
JP2005351814A (en) Detector and detecting method
CN107231519B (en) Video processing apparatus and control method
JP5373128B2 (en) Person identification device, person identification method, and person identification program
Wang et al. Robust pose recognition of the obscured human body
WO2012161291A1 (en) Site separation location extraction device, program, and method
KR101087250B1 (en) Apparatus for detecting face using skin region detection
CN113544738B (en) Portable acquisition device for anthropometric data and method for collecting anthropometric data
Soneja et al. Body weight estimation using 2D body image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7259313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150