JP2020098474A - Attribute determination device, attribute determination system, attribute determination method, program, and recording medium - Google Patents

Attribute determination device, attribute determination system, attribute determination method, program, and recording medium Download PDF

Info

Publication number
JP2020098474A
JP2020098474A JP2018236417A JP2018236417A JP2020098474A JP 2020098474 A JP2020098474 A JP 2020098474A JP 2018236417 A JP2018236417 A JP 2018236417A JP 2018236417 A JP2018236417 A JP 2018236417A JP 2020098474 A JP2020098474 A JP 2020098474A
Authority
JP
Japan
Prior art keywords
attribute
person
image
attribute determination
control point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018236417A
Other languages
Japanese (ja)
Other versions
JP7259313B2 (en
Inventor
望 倉本
Nozomi Kuramoto
望 倉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018236417A priority Critical patent/JP7259313B2/en
Publication of JP2020098474A publication Critical patent/JP2020098474A/en
Application granted granted Critical
Publication of JP7259313B2 publication Critical patent/JP7259313B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To avoid putting any mental burden on a user through photographing of a face, to enable attribute recognition with a high versatility so as to easily correspond to a posture change of a person, and to enable attribute recognition of various people with high precision.SOLUTION: An attribute determination device 3 includes a position detection unit 16 and an attribute recognition unit 17. From an image obtained by photographing a person from above, the position detection unit 16 detects the position of a control point that defines the skeleton of the person. By using the detection result obtained by the position detection unit 16, the attribute recognition unit 17 recognizes the attribute of the person.SELECTED DRAWING: Figure 1

Description

本発明は、人物を上方から撮影した画像をもとにして、人物の属性を決定する属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体に関する。 The present invention relates to an attribute determination device, an attribute determination system, an attribute determination method, a program, and a recording medium that determine the attributes of a person based on an image of a person captured from above.

従来、人物の顔画像に基づいて、人物の性別や年齢などの属性を認識する技術が広く知られている。しかし、例えば店舗において、ある商品群とコンタクトをとる人物の属性を顔画像に基づいて認識するためには、各売り場や各陳列棚に、顔画像を取得するためのカメラを設置する必要がある。この場合、カメラの設置台数が多くなり、コストが掛かるだけでなく、カメラを向けられるユーザの心理的負担も高くなる。 Conventionally, a technique of recognizing attributes such as gender and age of a person based on a face image of the person is widely known. However, for example, in a store, in order to recognize an attribute of a person who contacts a certain product group based on a face image, it is necessary to install a camera for acquiring a face image in each sales floor or each display shelf. .. In this case, the number of cameras installed increases, which not only increases the cost but also increases the psychological burden on the user who points the camera.

したがって、コスト低減およびユーザの心理的負担の軽減の観点では、店舗の天井などにカメラを設置し、人物を上方から広域に撮影して人物の全身像を含む画像を取得し、取得した画像から人物の属性を認識することが望ましい。この点、例えば特許文献1のシステムでは、天井や壁面に設置したメインカメラで店舗全域を撮影して人物の画像部分を解析し、顧客の顔、髪型、衣服、身長、アクセサリ、靴などを総合的に考慮して性別、年齢層を推測するようにしている。 Therefore, from the viewpoint of cost reduction and user's psychological burden reduction, a camera is installed on the ceiling of a store, a person is photographed over a wide area from above, and an image including a full-body image of the person is acquired. It is desirable to recognize the attributes of people. In this respect, for example, in the system of Patent Document 1, the main camera installed on the ceiling or the wall surface is used to photograph the entire area of the store to analyze the image portion of the person, and the face, hairstyle, clothes, height, accessories, shoes, etc. of the customer are integrated. The gender and age group are presumed in consideration.

また、例えば特許文献2の技術では、人物形状のひな形と、被服の種類ごとに用意された被服形状とを記憶部に格納し、カメラ画像内において検出されるエッジをひな形と照合して人物検出を行い、その人物形状から人物の性別を推定するようにしている。また、被服形状と人物形状とを照合することにより、人物が着用している被服の種類を推定し、推定された性別および被服の種類に基づいて、性別および被服の種類別に、画像に含まれる人数を集計するようにしている。 Further, for example, in the technique of Patent Document 2, a human-shaped template and a clothing shape prepared for each type of clothing are stored in a storage unit, and edges detected in a camera image are compared with the template. A person is detected and the gender of the person is estimated from the shape of the person. In addition, by comparing the clothing shape and the person shape, the type of clothing worn by the person is estimated, and based on the estimated gender and clothing type, it is included in the image by gender and clothing type. I try to count the number of people.

一方、店舗内で人物を撮影して画像を取得した場合、上記画像には、人物以外の背景が映り込むことが多い。この背景には、属性を認識する対象となる人物以外の人物や、売り場に陳列されている商品も含まれる。この場合、画像の背景部分が人物の属性認識そのものに悪影響を及ぼしてしまうことが考えられる。例えば、女性向けの洋服が陳列されている売り場の前を通る男性が、背景に映り込んだ女性向けの洋服で女性と誤認識される可能性は高い。 On the other hand, when a person is photographed and an image is acquired in a store, a background other than the person is often reflected in the image. This background includes persons other than the person whose attribute is to be recognized, and products displayed in the sales floor. In this case, it is conceivable that the background portion of the image adversely affects the attribute recognition itself of the person. For example, there is a high possibility that a man passing in front of a sales floor where clothes for women are displayed will be mistakenly recognized as a woman because of the clothes for women reflected in the background.

この点、例えば特許文献3では、入力画像から人物のシルエットを抽出し、背景に相当する部分の特徴量に乱数を加えるなどの処理を行って、背景のバリエーションを増やし、物体を識別するための識別パラメータを学習することにより、背景の影響を受けにくい、高い識別性能を得るようにしている。 In this regard, for example, in Patent Document 3, for extracting a silhouette of a person from an input image and performing a process such as adding a random number to a feature amount of a portion corresponding to the background, the variation of the background is increased and an object is identified. By learning the discrimination parameter, high discrimination performance that is not easily influenced by the background is obtained.

特開2007−74330号公報(請求項1〜3、段落〔0021〕、〔0023〕、図1等参照)JP-A-2007-74330 (see claims 1 to 3, paragraphs [0021] and [0023], FIG. 1 and the like) 特開2012−173761号公報(請求項1、段落〔0007〕〜〔0012〕、図1〜図4等参照)JP 2012-173761 A (see claim 1, paragraphs [0007] to [0012], FIGS. 1 to 4, etc.) 特開2008−59110号公報(請求項1、7、8、段落〔0010〕〜〔0012〕、〔0050〕、図1〜図6等参照)Japanese Unexamined Patent Application Publication No. 2008-59110 (Claims 1, 7, 8 and paragraphs [0010] to [0012], [0050], FIGS. 1 to 6 and the like)

ところが、天井などに設置されたカメラで撮影された画像から、人物の属性を精度よく判定する手法は難易度が高い。特許文献1においては、属性の特定が困難な場合、売り場の陳列棚の近くに設置した補助カメラで撮影した顔画像を詳細に解析して性別、年齢層を推測するようにしている。したがって、特許文献1の技術では、カメラを向けられるユーザに心理的負担を与える問題が依然として残る(特許文献1の技術は、画像として人物の全身像のみを用いて属性を認識する手法としては十分ではない)。 However, the method of accurately determining the attribute of a person from an image captured by a camera installed on a ceiling or the like is difficult. In Patent Document 1, when it is difficult to specify the attribute, a facial image taken by an auxiliary camera installed near the display shelf in the sales floor is analyzed in detail to estimate the sex and age group. Therefore, the technique of Patent Document 1 still has a problem of giving a psychological burden to the user who points the camera (the technique of Patent Document 1 is sufficient as a method of recognizing attributes by using only a full-body image of a person as an image). is not).

また、店舗内において、属性を認識する対象となる人物の姿勢は、自らの移動や商品棚からの商品の取り出し等によって絶えず変化する。特許文献2では、推定した人物形状を、予め記憶部に格納した一定の被服形状とマッチングするか否かで被服を推定するため、人物の姿勢が変化すると、人物形状と被服形状とのマッチングが困難となり、被服を認識できない場合が生ずる。つまり、人物の姿勢によっては属性を認識できない場合があり、汎用性の高い属性認識を行うことができない。 Further, in the store, the posture of the person whose attributes are to be recognized constantly changes due to his/her movement, taking out the product from the product shelf, or the like. In Patent Document 2, since the clothing is estimated based on whether or not the estimated person shape matches a certain clothing shape stored in the storage unit in advance, when the posture of the person changes, the person shape and the clothing shape are matched. Sometimes it becomes difficult and the clothes cannot be recognized. In other words, there are cases where the attributes cannot be recognized depending on the posture of the person, and it is not possible to perform highly versatile attribute recognition.

また、特許文献3のように、背景のバリエーションを増やして識別パラメータを学習する場合、人物のシルエット部分は同じで、背景部分の特徴量だけが異なる複数の画像が生成される。このような画像を用いて識別パラメータを学習すると、識別パラメータが同じ人物に過学習してしまう可能性がある。このため、様々な人物について属性を高精度で認識することが困難となる。 Further, in the case of learning the identification parameter by increasing the variation of the background as in Patent Document 3, a plurality of images in which the silhouette portion of the person is the same and only the characteristic amount of the background portion is different are generated. If the identification parameter is learned using such an image, there is a possibility that a person having the same identification parameter may overlearn. Therefore, it is difficult to recognize the attributes of various persons with high accuracy.

本発明は、上記の問題点を解決するためになされたもので、その目的は、顔の撮影によってユーザに心理的負担を与えることを回避でき、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識を行うことができ、さらに、様々な人物に対して属性認識を高精度で行うことができる属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体を提供することにある。 The present invention has been made to solve the above problems, and an object thereof is to avoid giving a psychological burden to a user by photographing a face, and easily cope with a change in a posture of a person. To provide an attribute determination device, an attribute determination system, an attribute determination method, a program, and a recording medium which can perform attribute recognition with high versatility and can perform attribute recognition with high accuracy for various persons. It is in.

本発明の一側面に係る属性決定装置は、人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備えている。 An attribute determination device according to one aspect of the present invention includes a position detection unit that detects a position of a control point that is a point that defines the skeleton of the person from an image obtained by photographing the person from above, and detection by the position detection unit. An attribute recognition unit that recognizes the attribute of the person using the result is provided.

本発明の他の側面に係る属性決定システムは、上記の属性決定装置と、人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えている。 An attribute determination system according to another aspect of the present invention includes the attribute determination device described above, and an image acquisition unit that acquires the image by photographing a person from above and outputs the image data to the attribute determination device. I have it.

本発明のさらに他の側面に係る属性決定方法は、人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含む。 An attribute determining method according to still another aspect of the present invention is a position detecting step of detecting a position of a control point which is a point defining the skeleton of the person from an image obtained by photographing the person from above, and the position detecting section. The attribute recognition step of recognizing the attribute of the person using the detection result of 1.

本発明のさらに他の側面に係るプログラムは、上記の属性決定方法をコンピュータに実行させるためのプログラムである。 A program according to still another aspect of the present invention is a program for causing a computer to execute the above-described attribute determination method.

本発明のさらに他の側面に係る記録媒体は、上記のプログラムを記録した、コンピュータ読取可能な記録媒体である。 A recording medium according to still another aspect of the present invention is a computer-readable recording medium in which the above program is recorded.

顔の撮影によってユーザに心理的負担を与えることを回避することができる。また、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識を行うことができる。さらに、様々な人物に対して属性認識を高精度で行うことができる。 It is possible to avoid giving a psychological burden to the user by photographing the face. In addition, it is possible to perform highly versatile attribute recognition that easily responds to changes in the posture of a person. Furthermore, attribute recognition can be performed with high accuracy for various persons.

本発明の実施の一形態の属性決定システムの概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the attribute determination system of one embodiment of this invention. 上記属性決定システムでの属性認識方法による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the attribute recognition method in the said attribute determination system. 各フレームの画像で検出した制御点の例を示す説明図である。It is explanatory drawing which shows the example of the control point detected in the image of each frame. 本発明の他の実施の形態の属性決定システムにおいて、体型の異なる人物の撮影画像で検出した制御点の例を示す説明図である。It is explanatory drawing which shows the example of the control point detected in the picked-up image of the person with a different figure in the attribute determination system of other embodiment of this invention. 本発明のさらに他の実施の形態の属性決定システムの概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the attribute determination system of other embodiment of this invention. 正規分布曲線を示すグラフである。It is a graph which shows a normal distribution curve. 上記属性決定システムでの属性認識方法による処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process by the attribute recognition method in the said attribute determination system. 上記属性認識方法による処理を模式的に示す説明図である。It is explanatory drawing which shows the process by the said attribute recognition method typically.

本発明の各実施の形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 Each embodiment of the present invention will be described below with reference to the drawings. The present invention is not limited to the following contents.

<実施の形態1>
〔属性決定システム〕
図1は、本実施形態の属性決定システム1の概略の構成を示すブロック図である。属性決定装置1は、画像取得部2と、属性決定装置3とを有して構成されている。画像取得部2と属性決定装置3とは、通信回線Nを介して通信可能に接続されている。通信回線Nは、例えばケーブル、光ファイバー、有線LAN(Local Area Network)、無線LAN、インターネット回線などから適宜選択されて構成される。以下、画像取得部2および属性決定装置3の詳細について説明する。
<Embodiment 1>
[Attribute determination system]
FIG. 1 is a block diagram showing a schematic configuration of the attribute determination system 1 of this embodiment. The attribute determination device 1 is configured to include an image acquisition unit 2 and an attribute determination device 3. The image acquisition unit 2 and the attribute determination device 3 are communicably connected via a communication line N. The communication line N is configured by appropriately selecting, for example, a cable, an optical fiber, a wired LAN (Local Area Network), a wireless LAN, an Internet line, or the like. Details of the image acquisition unit 2 and the attribute determination device 3 will be described below.

(画像取得部)
画像取得部2は、例えば店舗の天井または壁に設置され、店舗内の人物を上方から撮影して時間的に異なる各フレームの画像を取得するカメラ(撮像部)で構成されている。画像取得部2によって人物を上方から撮影することにより、人物の全身像を含む画像が取得される。画像取得部2を構成するカメラとしては、例えばRGBカメラを用いることができる。RGBカメラは、R(赤)、G(緑)、B(青)に対応する画素を有し、各画素から受光量に応じた電気信号(画像データ)を出力する。RGBカメラでの撮影により、人物のカラー画像を取得することができる。
(Image acquisition unit)
The image acquisition unit 2 is installed on, for example, a ceiling or a wall of a store, and is configured by a camera (imaging unit) that captures an image of a person in the store from above and acquires images of temporally different frames. By capturing the person from above by the image acquisition unit 2, an image including the whole-body image of the person is acquired. As a camera that constitutes the image acquisition unit 2, for example, an RGB camera can be used. The RGB camera has pixels corresponding to R (red), G (green), and B (blue), and each pixel outputs an electric signal (image data) according to the amount of received light. A color image of a person can be obtained by photographing with an RGB camera.

店舗内に設置される画像取得部2の台数は、特に限定されず、1台であってもよいし、2台以上であってもよい。少なくとも1台の画像取得部2で取得された画像のデータは、通信回線Nを介して属性決定装置3に出力される。 The number of image acquisition units 2 installed in the store is not particularly limited, and may be one or two or more. The image data acquired by at least one image acquisition unit 2 is output to the attribute determination device 3 via the communication line N.

(属性決定装置)
属性決定装置3は、画像取得部2で取得されて該属性決定装置3に入力された画像、つまり、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する端末装置であり、例えばパーソナルコンピュータで構成されている。属性決定装置3は、画像取得部2が設置される店舗と同じ店舗内に設置されていてもよいし、店舗の外部に画像取得部2と通信可能に設置されていてもよい。
(Attribute determination device)
The attribute determining device 3 is a terminal device that determines an attribute of a person based on an image acquired by the image acquiring unit 2 and input to the attribute determining device 3, that is, an image of each frame in which a person is photographed from above. Yes, for example, a personal computer. The attribute determination device 3 may be installed in the same store as the store in which the image acquisition unit 2 is installed, or may be installed outside the store so as to be communicable with the image acquisition unit 2.

属性決定装置3は、入力部11と、記憶部12と、表示部13と、通信部14と、読取部15と、位置検出部16と、属性認識部17と、制御部18とを有して構成されている。 The attribute determination device 3 includes an input unit 11, a storage unit 12, a display unit 13, a communication unit 14, a reading unit 15, a position detection unit 16, an attribute recognition unit 17, and a control unit 18. Is configured.

入力部11は、例えばキーボード、マウス、タッチパッド、タッチパネルなどで構成され、例えば属性決定装置3を操作する操作者による各種の指示入力を受け付ける。 The input unit 11 includes, for example, a keyboard, a mouse, a touch pad, a touch panel, and the like, and receives various instruction inputs by an operator who operates the attribute determination device 3, for example.

記憶部12は、属性決定装置3の各部を動作させるための動作プログラム、画像取得部2から入力された画像のデータ、位置検出部16での検出結果、属性認識部認17での属性の認識結果等を記憶するメモリである。この記憶部12は、例えばハードディスクで構成されるが、RAM(Random Access Memory)、ROM(Read Only Memory)、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。 The storage unit 12 recognizes an attribute of the operation program for operating each unit of the attribute determination device 3, the image data input from the image acquisition unit 2, the detection result of the position detector 16, and the attribute recognition unit 17. This is a memory for storing results and the like. The storage unit 12 is formed of, for example, a hard disk, but may be formed by appropriately selecting from a recording medium such as a RAM (Random Access Memory), a ROM (Read Only Memory), an optical disk, a magneto-optical disk, and a nonvolatile memory. Good.

表示部13は、各種の情報を表示するデバイスであり、例えば液晶表示装置で構成される。通信部14は、外部と通信するための入出力ポートを含むインターフェースである。通信部14は、外部と無線通信を行う場合、アンテナ、送受信回路、変調回路、復調回路などを含んで構成される。 The display unit 13 is a device that displays various types of information, and is configured by, for example, a liquid crystal display device. The communication unit 14 is an interface including an input/output port for communicating with the outside. The communication unit 14 is configured to include an antenna, a transmission/reception circuit, a modulation circuit, a demodulation circuit, and the like when performing wireless communication with the outside.

読取部15は、記録媒体Rに記録された情報(例えば制御部18の動作プログラム)を読み取る装置であり、例えばディスクドライブで構成される。なお、記録媒体Rが可搬型の不揮発性メモリである場合、上記不揮発性メモリの接続部が指し込まれる接続ポートも読取部15に含まれるとする。 The reading unit 15 is a device that reads information (for example, an operation program of the control unit 18) recorded on the recording medium R, and is configured by a disk drive, for example. When the recording medium R is a portable non-volatile memory, the reading unit 15 also includes a connection port into which the non-volatile memory connection unit is pointed.

制御部18は、属性決定装置3の各部の動作を制御する中央演算処理装置(CPU;Central Processing Unit)で構成されており、記憶部12に記憶された動作プログラムに従って動作する。 The control unit 18 is configured by a central processing unit (CPU) that controls the operation of each unit of the attribute determination device 3, and operates according to the operation program stored in the storage unit 12.

位置検出部16は、画像取得部2にて取得され、属性決定装置3に入力された画像、つまり、人物を上方から撮影した画像から、人物の骨格を規定する点となる制御点の位置を検出する。なお、上記の「制御点」には、人物の関節点(骨と骨とを連接する可動性の結合部)、頭蓋骨の中心点、手足の指の骨の先端の点などが含まれる。 The position detection unit 16 obtains the position of the control point, which is a point defining the skeleton of the person, from the image acquired by the image acquisition unit 2 and input to the attribute determination device 3, that is, the image obtained by photographing the person from above. To detect. Note that the above-mentioned “control point” includes a joint point of a person (a movable joint that connects bones to each other), a central point of a skull, a point of a tip of a bone of a toe, and the like.

この位置検出部16は、例えば制御部18と同一のまたは別個のCPUで構成される。なお、入力画像から人物の制御点(例えば関節点)の位置を検出する手法は、既存のソフトウェア(プログラム)で確立されている。したがって、上記ソフトウェアを読取部15にて読み取り、読み取ったプログラムを位置検出部16が実行することにより、人物を上方から撮影した画像から、人物の制御点の位置を検出することができる。 The position detector 16 is composed of, for example, a CPU that is the same as or separate from the controller 18. The method of detecting the position of the control point (for example, joint point) of the person from the input image is established by existing software (program). Therefore, by reading the above software by the reading unit 15 and executing the read program by the position detecting unit 16, the position of the control point of the person can be detected from the image obtained by photographing the person from above.

属性認識部17は、位置検出部16での検出結果(制御点の位置情報)を用いて、人物の属性を認識する。上記属性としては、例えば、人物の年齢、年齢層、性別、肥満度、被服、装着物、携帯物の少なくともいずれかを考えることができる。このような属性認識部17は、例えばGPU(Graphics Processing Unit)で構成されている。GPUは、リアルタイムな画像処理に特化した演算装置である。 The attribute recognition unit 17 recognizes the attribute of a person by using the detection result (position information of control points) by the position detection unit 16. As the above attribute, for example, at least one of the age, age group, sex, obesity, clothing, worn article, and portable article of a person can be considered. The attribute recognition unit 17 as described above is configured by, for example, a GPU (Graphics Processing Unit). The GPU is a computing device specialized for real-time image processing.

〔属性認識方法〕
次に、本実施形態の属性認識方法について説明する。なお、ここでは、例として、属性認識部17が人物の属性として性別(男性/女性)を認識する場合について説明する。図2は、本実施形態の属性認識方法による処理の流れを示すフローチャートである。
[Attribute recognition method]
Next, the attribute recognition method of this embodiment will be described. Here, as an example, a case where the attribute recognition unit 17 recognizes gender (male/female) as the attribute of a person will be described. FIG. 2 is a flowchart showing the flow of processing by the attribute recognition method of this embodiment.

まず、店舗に設置された画像取得部2にて、店舗内の人物を上方から撮影して複数フレーム分の画像(人物の全身像を含む画像)を取得する(S1;画像取得工程)。各フレームの画像のデータが属性決定装置3に入力されると、位置検出部16は、各フレームの画像について、人物の骨格を規定する点となる制御点およびその位置を検出する(S2;位置検出工程)。図3は、1フレーム目の画像で検出した制御点、および2フレーム目の画像で検出した制御点の例を示している。なお、図中の黒丸が制御点を示す。 First, the image acquisition unit 2 installed in a store captures an image of a person in the store from above to obtain images of a plurality of frames (images including the whole-body image of the person) (S1; image acquisition step). When the data of the image of each frame is input to the attribute determination device 3, the position detection unit 16 detects a control point that is a point defining the skeleton of the person and its position in the image of each frame (S2; position). Detection step). FIG. 3 shows an example of control points detected in the image of the first frame and control points detected in the image of the second frame. The black circles in the figure indicate control points.

続いて、属性認識部17は、位置検出部16での検出結果を用いて、人物の属性を認識する(S3;属性認識工程)。具体的には、属性認識部17は、制御点の位置の時系列の変動に基づいて属性を認識する。 Then, the attribute recognition unit 17 recognizes the attribute of the person using the detection result of the position detection unit 16 (S3; attribute recognition step). Specifically, the attribute recognition unit 17 recognizes the attribute based on the time-series fluctuation of the position of the control point.

例えば、図3において、人物の右手の指の先端を示す制御点をP1とし、右腕の肘を示す制御点(関節点)をP2とし、右肩を示す制御点をP3とする。1フレーム目の画像において、所定の位置を原点にとったときの各制御点の座標を、それぞれ、P1=(x11,y11)、P2=(x21,y21)、P3=(x31,y31)とする。同様に、2フレーム目の画像において、上記原点に対する各制御点の座標を、それぞれ、P1=(x12,y12)、P2=(x22,y22)、P3=(x32,y32)とする。1フレーム目と2フレーム目との間での各制御点P1〜P3の変動量を、それぞれ、ΔP1、ΔP2、ΔP3としたとき、ΔP1=√{(x12−x112+(y12−y112}、ΔP2=√{(x22−x212+(y22−y212}、ΔP3=√{(x32−x312+(y32−y312}で表される。 For example, in FIG. 3, the control point indicating the tip of the finger of the person's right hand is P 1 , the control point indicating the elbow of the right arm (joint point) is P 2, and the control point indicating the right shoulder is P 3 . In the image of the first frame, the coordinates of each control point when a predetermined position is taken as the origin are P 1 =(x 11 , y 11 ), P 2 =(x 21 , y 21 ), P 3 respectively. =(x 31 , y 31 ). Similarly, in the image of the second frame, the coordinates of each control point with respect to the origin are respectively P 1 =(x 12 , y 12 ), P 2 =(x 22 , y 22 ), P 3 =(x 32 , Y 32 ). Letting ΔP 1 , ΔP 2 , and ΔP 3 be the fluctuation amounts of the control points P 1 to P 3 between the first frame and the second frame, respectively, ΔP 1 =√{(x 12 −x 11 ) 2 + (y 12 -y 11 ) 2}, ΔP 2 = √ {(x 22 -x 21) 2 + (y 22 -y 21) 2}, ΔP 3 = √ {(x 32 -x 31) 2 +(y 32 −y 31 ) 2 }.

例えば、男性と女性とでは歩き方が異なり、男性の場合、歩行時に腕の振りが大きく、フレーム間での変動量ΔP1〜ΔP3が大きい傾向にある。一方、女性の場合、歩行時に腕の振りが小さく、フレーム間での変動量ΔP1〜ΔP3が小さい傾向にある。したがって、属性認識部17は、制御点P1〜P3の位置の変動量ΔP1〜ΔP3と所定の閾値とを比較することにより、人物が男性であるか女性であるか、つまり、属性(性別)を認識することができる。 For example, a man and a woman have different walking styles. In the case of a man, the arm swings greatly during walking, and the fluctuation amounts ΔP 1 to ΔP 3 between frames tend to be large. On the other hand, in the case of a woman, the swing of the arm during walking is small, and the variation amounts ΔP 1 to ΔP 3 between frames tend to be small. Therefore, the attribute recognizing unit 17, by comparing the variation ΔP 1 ~ΔP 3 positions of the control points P 1 to P 3 with a predetermined threshold value, or the person is a woman or a man, that is, the attribute Can recognize (gender).

なお、歩行時の歩幅は、男性では大きく、女性では小さい傾向にある。したがって、制御点として脚の関節点(例えば膝)に着目すると、属性認識部17は、脚の関節点の時系列の変動に基づいて属性としての性別を認識することもできる。つまり、属性認識部17は、歩行時に男性または女性に特有の動きを示す関節点の時系列の変動に基づいて、属性としての性別を認識することができる。 The stride length during walking tends to be large for men and small for women. Therefore, when focusing on the joint point of the leg (for example, the knee) as the control point, the attribute recognition unit 17 can also recognize the gender as the attribute based on the time-series variation of the joint point of the leg. That is, the attribute recognition unit 17 can recognize the gender as the attribute based on the time-series variation of the joint points that show the movement peculiar to the male or the female during walking.

属性認識部17での認識結果(属性の判定結果)は、例えば表示部13に表示される(S4;認識結果出力工程)。 The recognition result (attribute determination result) by the attribute recognition unit 17 is displayed, for example, on the display unit 13 (S4; recognition result output step).

以上のように、本実施形態では、位置検出部16が、人物を上方から撮影した画像(人物の全身像を含む画像)から、人物の骨格を規定する点となる制御点の位置を検出する。そして、属性認識部17が、位置検出部16での検出結果、つまり、制御点の位置情報を用いて、人物の属性を認識する。制御点の位置情報を用いることにより、人物の顔画像を全く用いることなく属性認識を行うことができる。これにより、顔の撮影によってユーザ(店舗内の人物)に心理的負担を与えることを回避することができる。 As described above, in the present embodiment, the position detection unit 16 detects the position of the control point, which is a point defining the skeleton of the person, from the image of the person photographed from above (the image including the whole-body image of the person). .. Then, the attribute recognition unit 17 recognizes the attribute of the person using the detection result of the position detection unit 16, that is, the position information of the control point. By using the position information of the control points, attribute recognition can be performed without using the face image of the person. As a result, it is possible to avoid giving a psychological burden to the user (person in the store) by photographing the face.

また、人物の姿勢がどのように変化しても、つまり、姿勢の変化によって制御点の位置がどのように変化しても、その制御点の位置を位置検出部16が検出して、属性認識部17が人物の属性を認識する。したがって、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識が可能となる。 In addition, no matter how the posture of the person changes, that is, how the position of the control point changes due to the change of the posture, the position detection unit 16 detects the position of the control point and performs attribute recognition. The unit 17 recognizes the attribute of the person. Therefore, it is possible to easily recognize a general-purpose attribute, which corresponds to a change in the posture of a person.

さらに、属性認識部17は、位置検出部16での検出結果を用いて人物の属性を認識するため、どのような人物についても、その人物の制御点の位置情報に基づいて属性を認識することができる。また、制御点の位置情報に基づいて属性を認識することで、制御点に関係のない領域、つまり、人物の属性認識に不要な領域(例えば背景領域)が、属性認識に影響を与えることもない。したがって、様々な人物について属性認識を高精度で行うことができる。 Further, since the attribute recognition unit 17 recognizes the attribute of the person using the detection result of the position detection unit 16, any attribute can be recognized based on the position information of the control point of the person. You can Further, by recognizing the attributes based on the position information of the control points, an area unrelated to the control points, that is, an area not necessary for the attribute recognition of a person (for example, a background area) may affect the attribute recognition. Absent. Therefore, attribute recognition can be performed with high accuracy for various persons.

特に、本実施形態では、属性認識部17は、制御点の位置の時系列の変動に基づいて、人物の歩き方を認識することができる。したがって、その認識結果(歩き方)に基づいて、人物の属性としての性別(男性/女性)を認識することができる。 In particular, in the present embodiment, the attribute recognition unit 17 can recognize the way a person walks based on the time-series variation of the position of the control point. Therefore, the gender (male/female) as the attribute of the person can be recognized based on the recognition result (walking style).

また、本実施形態では、画像取得部2として、RGBカメラを用いている。比較的容易に入手可能なRGBカメラを用いることにより、本実施形態の属性決定システム1を容易に実現することができる。なお、後述する実施の形態3では、入力画像からニューラルネットワークによって特徴量を抽出し、抽出した特徴量に基づいて属性を認識するが、入力画像としてカラー画像を用いると、特徴量を精度よく抽出することができる。この点では、RGBカメラは実施の形態3の構成にも非常に好適であると言える。 Further, in this embodiment, an RGB camera is used as the image acquisition unit 2. The attribute determination system 1 of the present embodiment can be easily realized by using an RGB camera that is relatively easily available. In the third embodiment described later, the feature amount is extracted from the input image by the neural network and the attribute is recognized based on the extracted feature amount. However, if the color image is used as the input image, the feature amount is accurately extracted. can do. From this point, it can be said that the RGB camera is very suitable for the configuration of the third embodiment.

ところで、画像取得部2として、サーマルカメラを用いてもよいし、デプスカメラを用いてもよい。また、RGBカメラとサーマルカメラまたはデプスカメラとを併用してもよい。サーマルカメラは、物体から放射される熱(赤外線放射エネルギー)を検出して温度に変換し、その温度分布を画像表示するカメラである。デプスカメラは、奥行きの情報を取得する深度センサーを内蔵したカメラである。サーマルカメラまたはデプスカメラを用いることにより、位置検出部16は、カメラ画像から、温度分布または奥行情報を利用して人物の制御点の位置を精度よく検出することができる。このため、属性認識部17による属性の認識精度の向上が期待できる。 By the way, as the image acquisition unit 2, a thermal camera or a depth camera may be used. Further, the RGB camera and the thermal camera or the depth camera may be used together. A thermal camera is a camera that detects heat radiated from an object (infrared radiation energy), converts it into temperature, and displays the temperature distribution as an image. The depth camera is a camera with a built-in depth sensor that acquires depth information. By using the thermal camera or the depth camera, the position detection unit 16 can accurately detect the position of the control point of the person from the camera image using the temperature distribution or the depth information. Therefore, it is expected that the attribute recognition accuracy of the attribute recognition unit 17 will be improved.

また、画像取得部2として、赤外線カメラを用いてもよいし、モノクロカメラを用いてもよい。このとき、RGBカメラと赤外線カメラまたはモノクロカメラとを併用してもよい。赤外線カメラは、赤外線(近赤外線)を放射し、物体での赤外線の反射を捉えることで画像を取得するカメラである。モノクロカメラは、撮影によりモノクロ(白黒)の画像を取得するカメラである。赤外線カメラおよびモノクロカメラは、夜間でも人物を撮影して明瞭な画像を取得できるため、そのような暗環境で取得された画像に基づく属性認識に非常に有効となる。 Further, as the image acquisition unit 2, an infrared camera or a monochrome camera may be used. At this time, an RGB camera and an infrared camera or a monochrome camera may be used together. An infrared camera is a camera that emits infrared rays (near infrared rays) and captures an image by capturing reflection of infrared rays on an object. The monochrome camera is a camera that acquires a monochrome (black and white) image by shooting. The infrared camera and the monochrome camera can photograph a person even at night and acquire a clear image, and therefore are very effective for attribute recognition based on the image acquired in such a dark environment.

なお、本実施形態では、属性認識部17が人物の属性として性別を認識する例について説明したが、本実施形態と同様の考え方に基づいて、性別以外の属性(例えば年齢層(大人/子供、老人/中年/若者))を認識することも可能である。 In the present embodiment, an example has been described in which the attribute recognition unit 17 recognizes gender as an attribute of a person, but based on the same idea as in the present embodiment, attributes other than gender (for example, age group (adult/child, It is also possible to recognize old/middle-aged/young)).

なお、本実施形態では、属性決定装置3が画像取得部2から画像データを取得して、属性認識を行う例について説明したが、例えば通信回線を介して他の端末装置から送信される画像データを用いて属性認識を行ってもよい。また、記録媒体Rに記録された画像のデータを属性決定装置3が読み取って属性認識を行うようにしてもよい。 In the present embodiment, an example has been described in which the attribute determination device 3 acquires image data from the image acquisition unit 2 and performs attribute recognition. However, for example, image data transmitted from another terminal device via a communication line. You may perform attribute recognition using. Further, the attribute determination device 3 may read the data of the image recorded on the recording medium R to perform the attribute recognition.

<実施の形態2>
本実施形態では、実施の形態1で説明したS3の属性認識工程において、属性認識部17は、複数の制御点の位置関係に基づいて、人物の属性を認識する。ここでは、例として、属性認識部17が人物の属性として肥満度を認識する場合について説明する。
<Second Embodiment>
In the present embodiment, in the attribute recognition step of S3 described in the first embodiment, the attribute recognition unit 17 recognizes a person's attribute based on the positional relationship between a plurality of control points. Here, as an example, a case will be described in which the attribute recognition unit 17 recognizes the degree of obesity as a person attribute.

例えば、図4は、やせ型の人物を撮影した画像で検出した制御点、および肥満体型の人物を撮影した画像で検出した制御点の例を示している。なお、図中の黒丸が制御点を示す。各制御点の位置は、複数フレームにわたって人物が静止状態またはそれに近い状態である(各制御点の連続フレーム間での変動量が閾値以下である)場合の、複数フレーム間での平均の位置とする(人物が歩行状態ではないとする)。 For example, FIG. 4 shows an example of control points detected in an image of a thin person and a control point detected in an image of an obese person. The black circles in the figure indicate control points. The position of each control point is the average position among a plurality of frames when the person is in a stationary state or a state close to that over a plurality of frames (the amount of variation between consecutive frames of each control point is less than or equal to a threshold). Yes (assuming that the person is not walking).

図4で示す各制御点の位置から、やせ型の人物と肥満体型の人物とでは、肩、肘、手指の先端、股関節、膝の相互の位置関係が互いに異なることがわかる。特に、股関節と手指の先端との距離は、やせ型の人物と肥満体型の人物とで大きく異なることがわかる。 From the positions of the control points shown in FIG. 4, it is understood that the lean type person and the obese type person have different positional relationships among the shoulders, elbows, finger tips, hip joints, and knees. In particular, it can be seen that the distance between the hip joint and the tips of the fingers differs greatly between a lean person and an obese person.

そこで、属性認識部17は、複数の制御点(例えば股関節と手指の先端)の位置座標からこれらの制御点の位置関係を認識する。例えば、属性認識部17は、股関節と手指の先端との距離を各制御点の位置座標から求める。そして、属性認識部17は、上記距離が所定範囲よりも大きい場合には、人物は肥満体型であり、上記距離が所定範囲内である場合には、人物は標準体型であり、上記距離が所定範囲よりも小さい場合には、人物はやせ型であると認識する。 Therefore, the attribute recognition unit 17 recognizes the positional relationship between these control points from the position coordinates of the plurality of control points (for example, the hip joint and the tips of the fingers). For example, the attribute recognition unit 17 obtains the distance between the hip joint and the tip of the finger from the position coordinates of each control point. When the distance is larger than the predetermined range, the attribute recognition unit 17 determines that the person is obese, and when the distance is within the predetermined range, the person is standard and the distance is predetermined. If it is smaller than the range, the person is recognized to be thin.

このように、属性認識部17は、複数の制御点の位置関係に基づいて、人物の体型を認識することができる。これにより、人物の属性として、肥満度(肥満体型/標準体型/やせ型)を認識することが可能となる。 In this way, the attribute recognition unit 17 can recognize the body type of the person based on the positional relationship between the plurality of control points. This makes it possible to recognize the degree of obesity (obesity type/standard body type/skinny type) as an attribute of a person.

なお、属性認識部17が複数の制御点の位置関係に基づいて認識できる属性は、本実施形態の肥満度には限定されない。本実施形態と同様の考え方に基づき、属性認識部17は、例えば性別(男性/女性)、年齢層(大人/子供、老人/中年/若者)など、肥満度以外の属性を認識することも可能である。 The attribute that the attribute recognition unit 17 can recognize based on the positional relationship between the plurality of control points is not limited to the obesity degree of the present embodiment. Based on the same idea as this embodiment, the attribute recognition unit 17 may recognize attributes other than the degree of obesity, such as gender (male/female), age group (adult/child, old/middle-aged/young). It is possible.

<実施の形態3>
図5は、本実施形態の属性認識システム1の概略の構成を示すブロック図である。本実施形態の属性認識システム1は、属性決定装置3の属性認識部17を、属性認識部17’に置き換えた以外は、実施の形態1と同様の構成である。以下、実施の形態1と異なる点について説明する。
<Third Embodiment>
FIG. 5 is a block diagram showing a schematic configuration of the attribute recognition system 1 of this embodiment. The attribute recognition system 1 of the present embodiment has the same configuration as that of the first embodiment except that the attribute recognition unit 17 of the attribute determination device 3 is replaced with an attribute recognition unit 17′. The points different from the first embodiment will be described below.

属性認識部17’は、属性認識部17と同様に、位置検出部16での検出結果を用いて、人物の属性を認識する。この属性認識部17’は、特徴量抽出器17a、特徴量変換器17bおよび識別器17cとしての機能を有するGPUで構成されている。特に、特徴量抽出器17aおよび識別器17cの機能は、深層学習(ディープラーニング)が可能なディープニューラルネットワーク(DNN)によって実現される。 The attribute recognition unit 17 ′, like the attribute recognition unit 17, recognizes the attribute of a person using the detection result of the position detection unit 16. The attribute recognition unit 17' is composed of a GPU having the functions of a feature quantity extractor 17a, a feature quantity converter 17b, and a discriminator 17c. Particularly, the functions of the feature quantity extractor 17a and the classifier 17c are realized by a deep neural network (DNN) capable of deep learning.

特徴量抽出器17aは、人物を上方から撮影した画像から、属性を認識するための特徴量を抽出してn次元(nは自然数)の特徴マップを生成する。特徴量変換器17bは、上記の特徴マップに対してマスク処理を行う。より詳しくは、特徴量変換器17bは、上記画像中の制御点から離れる位置ほど特徴量の低下度合いが大きくなるマスクを特徴マップにかけることにより、上記マスク処理を行う。ここで、上記のマスクは、特徴量の低下度合いが制御点を頂上とする正規分布となるように変化する重み(ウェイト)を有する。識別器17cは、マスク処理後の特徴マップに基づいて、属性を識別する。 The feature amount extractor 17a extracts a feature amount for recognizing an attribute from an image of a person photographed from above and generates an n-dimensional (n is a natural number) feature map. The feature amount converter 17b performs a mask process on the feature map. More specifically, the feature quantity converter 17b performs the mask process by applying a mask to the feature map in which the degree of decrease in the feature quantity increases with the distance from the control point in the image. Here, the mask has a weight that changes so that the degree of decrease in the feature amount has a normal distribution with the control point as the apex. The discriminator 17c discriminates an attribute based on the masked feature map.

図6は、正規分布曲線を示すグラフである。なお、正規分布曲線の式f(x)において、μは平均を示し、σは標準偏差を示す。上記のマスクの重みMは、図6のf(x)に相当する。ただし、0≦M≦1であり、制御点の位置で最大(M=1)である。画像中の位置(x,y)におけるn次元目の特徴量をfn(x,y)とし、その特徴量に乗算するマスクの重みをM(x,y)としたとき、特徴量変換器17bによってマスク処理を行うと、マスク処理後の特徴量、つまり、属性を認識するための特徴量Gn(x,y)は、以下の式で表される。
Gn(x,y)=fn(x,y)×M(x,y)
FIG. 6 is a graph showing a normal distribution curve. In the equation f(x) of the normal distribution curve, μ represents the average and σ represents the standard deviation. The weight M of the above mask corresponds to f(x) in FIG. However, 0≦M≦1, which is the maximum (M=1) at the position of the control point. When the feature quantity of the nth dimension at the position (x, y) in the image is fn(x, y) and the weight of the mask for multiplying the feature quantity is M(x, y), the feature quantity converter 17b When the masking process is performed by, the feature amount after the masking process, that is, the feature amount Gn(x, y) for recognizing the attribute is expressed by the following formula.
Gn(x,y)=fn(x,y)×M(x,y)

次に、本実施形態の属性認識方法について説明する。図7は、本実施形態の属性認識方法による処理の流れを示すフローチャートである。また、図8は、本実施形態の属性認識方法による処理を模式的に示す説明図である。なお、特徴量抽出器17aおよび識別器17cは、教師あり学習によって予め学習されているとする(ニューラルネットワークを構成する各ノードのパラメータが適切に設定(更新)されているとする)。 Next, the attribute recognition method of this embodiment will be described. FIG. 7 is a flowchart showing the flow of processing by the attribute recognition method of this embodiment. In addition, FIG. 8 is an explanatory diagram schematically showing processing by the attribute recognition method of the present embodiment. It is assumed that the feature quantity extractor 17a and the discriminator 17c have been preliminarily learned by supervised learning (parameters of each node forming the neural network are appropriately set (updated)).

まず、店舗に設置された画像取得部2にて、店舗内の人物を上方から撮影して画像(例えば1フレーム目)が取得される(S1;画像取得工程)。1フレーム目の画像のデータが属性決定装置3に入力されると、位置検出部16は、上記画像について制御点およびその位置を検出する(S2;位置検出工程)。 First, the image acquisition unit 2 installed in a store captures an image (for example, the first frame) of a person in the store from above (S1; image acquisition step). When the data of the image of the first frame is input to the attribute determination device 3, the position detection unit 16 detects the control point and the position of the image (S2; position detection step).

次に、位置検出部16は、S2で検出された制御点の位置から、人物の頭部、胴体部、腕、脚などの領域を認識し、これらの領域を含む人物矩形を設定し、S1で取得した撮影画像から人物矩形内の画像を抽出する(S2−1;人物矩形画像抽出工程)。なお、S2−1の工程は必須ではなく、省略することも可能である。 Next, the position detection unit 16 recognizes areas such as a person's head, body, arms, and legs from the positions of the control points detected in S2, sets a person rectangle including these areas, and sets S1. An image inside a person rectangle is extracted from the captured image acquired in (S2-1; person rectangle image extraction step). The step S2-1 is not essential and can be omitted.

続いて、属性認識部17’は、S2−1で取得した人物矩形画像またはS1で取得した撮影画像と、位置検出部16での検出結果とに基づいて、人物の属性を認識する(S3;属性認識工程)。 Subsequently, the attribute recognition unit 17′ recognizes the attribute of the person based on the person rectangular image acquired in S2-1 or the captured image acquired in S1 and the detection result of the position detection unit 16 (S3; Attribute recognition process).

具体的には、まず、特徴量抽出器17aが入力画像(人物矩形画像または撮影画像)から特徴量を抽出し、抽出した特徴量の分布である特徴マップを生成する(S31;特徴量抽出工程)。上記特徴マップは、色情報、エッジ情報などの特徴量の種類に応じてn次元分生成される。 Specifically, first, the feature quantity extractor 17a extracts the feature quantity from the input image (human rectangular image or photographed image) and generates a feature map which is a distribution of the extracted feature quantity (S31; feature quantity extracting step). ). The feature map is generated for n dimensions according to the types of feature amounts such as color information and edge information.

次に、特徴量変換器17bは、上記のn次元分の特徴マップに対して上述したマスクをかけてマスク処理を行い、制御点から離れた位置ほど特徴量を低下させる(S32;特徴量変換工程)。この処理により、例えば画像中で人物以外の背景部分(商品棚の商品も含む)の特徴量が低下する。その後、識別器17cは、マスク処理後の特徴マップに基づいて、人物の属性を識別する(S33;識別工程)。 Next, the feature quantity converter 17b performs mask processing by applying the above-described mask to the above n-dimensional feature map, and reduces the feature quantity at positions farther from the control point (S32; feature quantity conversion). Process). By this processing, for example, the feature amount of the background portion (including the product on the product shelf) other than the person in the image is reduced. Then, the discriminator 17c discriminates the attributes of the person based on the masked feature map (S33; discriminating step).

属性認識部17’での認識結果(識別器17cでの属性の識別結果)は、例えば表示部13に表示される(S4;認識結果出力工程)。そして、次の撮影画像についても処理を継続する場合は、S1以降の工程を繰り返し、次の撮影画像について処理を行わない場合は、一連の処理を終了する(S5)。 The recognition result by the attribute recognition unit 17' (the attribute recognition result by the classifier 17c) is displayed, for example, on the display unit 13 (S4; recognition result output step). Then, when the process is continued for the next captured image, the steps from S1 are repeated, and when the process is not performed for the next captured image, the series of processes is finished (S5).

人物を上方から撮影した画像において、制御点から離れた領域ほど、人物とは関係のない領域(例えば背景領域などの、人物の属性を現しているとは考えにくい領域)である可能性が高い。特徴量変換器17bは、特徴マップに対してマスク処理を行って、制御点から離れた、人物とは関係のない領域の特徴量を低下させ、識別器17cは、マスク処理後の特徴マップに基づいて属性を識別する。これにより、人物とは関係のない領域の特徴量の、属性認識への影響を低減することができ、人物の属性を精度よく識別(認識)することが可能となる。 In an image of a person photographed from above, a region farther from the control point is more likely to be a region not related to the person (for example, a region such as a background region, which is unlikely to represent a person's attribute). .. The feature amount converter 17b performs a mask process on the feature map to reduce the feature amount of a region distant from the control point and not related to a person, and the discriminator 17c converts the feature map after the mask process to the feature map. Identify attributes based on. As a result, it is possible to reduce the influence of the feature amount of the area unrelated to the person on the attribute recognition, and it is possible to accurately identify (recognize) the person's attribute.

また、マスク処理に用いるマスクは、特徴量の低下度合いが制御点を頂上とする正規分布となるように変化する重みを有する。特徴量変換器17bが上記マスクを用いてマスク処理を行うことにより、特徴マップに対して、制御点から離れた領域ほど特徴量を確実に低下させることができる。これにより、人物とは関係のない領域の特徴量の、属性認識への影響を確実に低減して、属性認識の精度を確実に向上させることができる。 Further, the mask used for the mask processing has a weight that changes so that the degree of decrease in the feature amount becomes a normal distribution with the control point as the apex. Since the feature amount converter 17b performs the mask process using the mask, the feature amount can be surely reduced in the region farther from the control point in the feature map. As a result, it is possible to reliably reduce the influence of the feature amount of the area unrelated to the person on the attribute recognition, and to reliably improve the accuracy of the attribute recognition.

また、本実施形態では、人物とは関係のない領域の特徴量を削減して得た識別結果を新たに正解ラベルとして用いて、特徴量抽出器17aおよび識別器17cを学習させることができる。これにより、未知の店舗内での撮影によって取得された画像をもとに人物の属性を認識する場合でも、認識性能を向上させることができ、汎化性を向上させることができる。 Further, in the present embodiment, the feature amount extractor 17a and the discriminator 17c can be trained by newly using the identification result obtained by reducing the feature amount of the area unrelated to the person as the correct answer label. As a result, even when recognizing a person's attribute based on an image acquired by shooting in an unknown store, recognition performance can be improved and generalization can be improved.

ところで、マスクの重みの分布である正規分布の標準偏差σは、人物の骨格中での制御点の位置に応じて異なるようにしてもよい。例えば、制御点が人物の手指の骨の先端の点であれば、その点を頂上とする正規分布の標準偏差σを小さくし、制御点が人物の頭蓋骨の中心点であれば、その中心点を頂上とする正規分布の標準偏差σを大きくしてもよい。 By the way, the standard deviation σ of the normal distribution, which is the distribution of the weights of the mask, may be different depending on the position of the control point in the skeleton of the person. For example, if the control point is the point of the tip of the bone of a person's finger, the standard deviation σ of the normal distribution with that point as the apex is reduced, and if the control point is the center point of the person's skull, its center point The standard deviation σ of the normal distribution with the peak at may be increased.

このように正規分布の標準偏差σを設定することにより、特徴マップにおいて、マスク処理によって特徴量を保持しようとする領域(人物と関係する領域)の範囲を、人物骨格の位置に応じて適切に調整することができる。つまり、人物の頭部については広い範囲で特徴量を保持し、手指については狭い範囲で特徴量を保持することができる。これにより、識別器17cは、マスク処理後の特徴マップに基づいて、人物の形状を表す領域の特徴量のみに基づいて人物の属性を識別することが可能となり、人物の属性の識別精度を向上させることができる。 By setting the standard deviation σ of the normal distribution in this way, in the feature map, the range of the region (region related to the person) in which the feature amount is retained by the mask processing is appropriately set according to the position of the human skeleton. Can be adjusted. That is, the feature amount can be held in a wide range for the head of the person, and the feature amount can be held in a narrow range for the fingers. As a result, the classifier 17c can identify the attribute of the person based only on the feature amount of the area representing the shape of the person based on the feature map after the mask processing, and improve the identification accuracy of the attribute of the person. Can be made.

また、マスクの重みの分布である正規分布の標準偏差σは、識別器17cが識別する属性に応じて異なるようにしてもよい。例えば、人物の属性として携帯物(例えばペット、手提げかばん、拳銃など)を識別する場合、人物の手指の骨の先端の点を頂上とする正規分布の標準偏差σを大きくしてもよい。また、人物の属性として性別を識別する場合、人物の指の骨の先端の点を頂上とする正規分布の標準偏差σを小さくしてもよい。 Further, the standard deviation σ of the normal distribution, which is the distribution of the weight of the mask, may be different according to the attribute identified by the discriminator 17c. For example, when a portable object (for example, a pet, a bag, a pistol, etc.) is identified as the attribute of a person, the standard deviation σ of the normal distribution having the point at the tip of the bone of the person's finger as the apex may be increased. When gender is identified as a person's attribute, the standard deviation σ of the normal distribution having the point at the tip of the bone of the person's finger as the apex may be reduced.

このように識別する属性に応じて正規分布の標準偏差σを異ならせることにより、特徴量変換器17bは、特徴マップに対するマスク処理によって特徴量を保持する範囲を、識別対象の属性に応じて適切に調整することができる。その結果、識別器17cは、上記属性を適切に識別することが可能となる。例えば属性として人物が携帯物を所持しているか否かを識別する場合には、マスク処理により、人物の手指よりも広い範囲の特徴量が保持されるため、識別器17cは上記特徴量に基づいて携帯物を適切に識別することができる。一方、属性として人物の性別等、携帯物以外の属性を識別する場合には、マスク処理により、人物の手指の領域の特徴量が保持されるため、識別器17cは上記特徴量に基づいて携帯物以外の属性を適切に識別することができる。 By varying the standard deviation σ of the normal distribution according to the attribute to be identified in this manner, the feature quantity converter 17b appropriately sets the range in which the feature quantity is held by the mask processing on the feature map according to the attribute to be identified. Can be adjusted to. As a result, the discriminator 17c can appropriately discriminate the above attributes. For example, when identifying whether or not a person carries a portable object as an attribute, since the masking process holds a feature amount in a range wider than that of a person's finger, the discriminator 17c uses the feature amount based on the above feature amount. Therefore, it is possible to properly identify the portable object. On the other hand, when identifying an attribute other than a portable object such as the gender of a person as the attribute, the masking process holds the feature amount of the area of the finger of the person. Attributes other than things can be properly identified.

<プログラムおよび記録媒体>
以上の各実施の形態で説明した属性決定装置3は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部18)が読み取って実行することにより、属性決定装置3の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されて記憶部12に記憶される。また、上記プログラムは、例えばCD−ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体に記録され、この記録媒体から上記プログラムをコンピュータが読み取って記憶部12に記憶する形態であってもよい。
<Program and recording medium>
The attribute determination device 3 described in each of the above embodiments can be configured by, for example, a computer (PC) in which a predetermined program (application software) is installed. When the computer (for example, the control unit 18 as a CPU) reads and executes the program, each unit of the attribute determination device 3 can be operated to execute each process (each process) described above. Such a program is acquired by being downloaded from the outside via a network, for example, and is stored in the storage unit 12. The program is recorded in a computer-readable recording medium such as a CD-ROM (Compact Disk-Read Only Memory), and the computer reads the program from the recording medium and stores it in the storage unit 12. May be.

<補足>
以上で説明した本実施形態の属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体は、以下のように表現することもできる。
<Supplement>
The attribute determination device, the attribute determination system, the attribute determination method, the program, and the recording medium of the present embodiment described above can also be expressed as follows.

1.人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備えていることを特徴とする属性決定装置。
1. A position detection unit that detects the position of a control point, which is a point that defines the skeleton of the person, from an image obtained by photographing the person from above,
An attribute determination device, comprising: an attribute recognition unit that recognizes an attribute of the person by using a detection result of the position detection unit.

2.前記属性認識部は、前記制御点の位置の時系列の変動に基づいて、前記属性を認識することを特徴とする前記1に記載の属性決定装置。 2. 2. The attribute determination device according to 1, wherein the attribute recognition unit recognizes the attribute based on a time-series variation of the position of the control point.

3.前記属性認識部は、複数の前記制御点の位置関係に基づいて、前記属性を認識することを特徴とする前記1に記載の属性決定装置。 3. The attribute determination device according to the above 1, wherein the attribute recognition unit recognizes the attribute based on a positional relationship between a plurality of the control points.

4.前記属性認識部は、
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出器と、
前記特徴マップに対してマスク処理を行う特徴量変換器と、
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別器とを含み、
前記特徴量変換器は、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする前記1に記載の属性決定装置。
4. The attribute recognition unit,
A feature quantity extractor for generating a feature map by extracting a feature quantity for recognizing the attribute from the image,
A feature amount converter for performing a mask process on the feature map,
A discriminator that identifies the attribute based on the masked feature map,
2. The attribute determination according to 1, wherein the feature amount converter performs the mask processing by applying a mask whose degree of decrease in the feature amount increases to a position farther from the control point on the feature map. apparatus.

5.前記マスクは、前記特徴量の低下度合いが前記制御点を頂上とする正規分布となるように変化する重みを有することを特徴とする前記4に記載の属性決定装置。 5. 5. The attribute determination device according to the above 4, wherein the mask has a weight that changes so that the degree of decrease in the characteristic amount has a normal distribution with the control point as the apex.

6.前記正規分布の標準偏差は、前記人物の骨格中での前記制御点の位置に応じて異なることを特徴とする前記5に記載の属性決定装置。 6. 6. The attribute determination device according to 5, wherein the standard deviation of the normal distribution varies depending on the position of the control point in the skeleton of the person.

7.前記正規分布の標準偏差は、前記識別器が識別する前記属性に応じて異なることを特徴とする前記5または6に記載の属性決定装置。 7. 7. The attribute determination device according to 5 or 6, wherein the standard deviation of the normal distribution differs depending on the attribute identified by the discriminator.

8.前記人物の属性は、前記人物の年齢、年齢層、性別、肥満度、被服、装着物、携帯物の少なくともいずれかであることを特徴とする前記1から7のいずれかに記載の属性決定装置。 8. 8. The attribute determination device according to any one of 1 to 7 above, wherein the attribute of the person is at least one of the age, age group, sex, obesity degree, clothing, worn article, and portable article of the person. ..

9.前記1から8のいずれかに記載の属性決定装置と、
人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えていることを特徴とする属性決定システム。
9. The attribute determination device according to any one of 1 to 8 above,
An attribute determination system, comprising: an image capturing unit that captures an image of a person from above and outputs the image data to the attribute determination device.

10.前記画像取得部は、RGBカメラを含むことを特徴とする前記9に記載の属性決定システム。 10. 10. The attribute determination system as described in 9 above, wherein the image acquisition unit includes an RGB camera.

11.前記画像取得部は、サーマルカメラまたはデプスカメラを含むことを特徴とする前記9または10に記載の属性決定システム。 11. 11. The attribute determination system according to 9 or 10, wherein the image acquisition unit includes a thermal camera or a depth camera.

12.前記画像取得部は、赤外線カメラまたはモノクロカメラを含むことを特徴とする前記9から11のいずれかに記載の属性決定システム。 12. 12. The attribute determination system according to any one of 9 to 11 above, wherein the image acquisition unit includes an infrared camera or a monochrome camera.

13.人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含むことを特徴とする属性決定方法。
13. A position detecting step of detecting the position of a control point, which is a point defining the skeleton of the person, from an image obtained by photographing the person from above,
An attribute recognizing step of recognizing an attribute of the person by using a detection result of the position detecting section.

14.前記属性認識工程では、前記制御点の位置の時系列の変動に基づいて、前記属性を認識することを特徴とする前記13に記載の属性決定方法。 14. 14. The attribute determining method according to the above 13, wherein in the attribute recognition step, the attribute is recognized based on a time-series variation of the position of the control point.

15.前記属性認識工程では、複数の前記制御点の位置関係に基づいて、前記属性を認識することを特徴とする前記13に記載の属性決定方法。 15. 14. The attribute determination method according to the above 13, wherein the attribute recognition step recognizes the attribute based on a positional relationship between a plurality of the control points.

16.前記属性認識工程は、
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出工程と、
前記特徴マップに対してマスク処理を行う特徴量変換工程と、
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別工程とを含み、
前記特徴量変換工程では、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする前記13に記載の属性決定方法。
16. The attribute recognition step,
A feature amount extracting step of generating a feature map by extracting a feature amount for recognizing the attribute from the image,
A feature amount conversion step of performing a mask process on the feature map,
An identification step of identifying the attribute based on the feature map after the mask processing,
14. In the feature amount conversion step, the mask processing is performed by applying a mask whose degree of decrease in the feature amount increases to a position farther from the control point, to perform the mask processing. Method.

17.前記13から16のいずれかに記載の属性決定方法をコンピュータに実行させるためのプログラム。 17. A program for causing a computer to execute the attribute determination method according to any one of 13 to 16 above.

18.前記17に記載のプログラムを記録した、コンピュータ読取可能な記録媒体。 18. A computer-readable recording medium in which the program described in 17 is recorded.

以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 Although the embodiment of the present invention has been described above, the scope of the present invention is not limited to this, and the present invention can be implemented by being expanded or modified without departing from the gist of the invention.

本発明は、人物を上方から撮影した画像に基づいて、人物の属性を決定する装置に利用可能である。 INDUSTRIAL APPLICATION This invention can be utilized for the apparatus which determines a person's attribute based on the image which image|photographed the person from above.

1 属性決定システム
2 画像取得部
3 属性決定装置
16 位置検出部
17 属性認識部
17’ 属性認識部
17a 特徴量抽出器
17b 特徴量変換器
17c 識別器
1 Attribute determination system 2 Image acquisition unit 3 Attribute determination device 16 Position detection unit 17 Attribute recognition unit 17' Attribute recognition unit 17a Feature amount extractor 17b Feature amount converter 17c Discriminator

Claims (18)

人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備えていることを特徴とする属性決定装置。
A position detection unit that detects the position of a control point, which is a point that defines the skeleton of the person, from an image obtained by photographing the person from above,
An attribute determination device, comprising: an attribute recognition unit that recognizes an attribute of the person by using a detection result of the position detection unit.
前記属性認識部は、前記制御点の位置の時系列の変動に基づいて、前記属性を認識することを特徴とする請求項1に記載の属性決定装置。 The attribute determination device according to claim 1, wherein the attribute recognition unit recognizes the attribute based on a time-series variation of the position of the control point. 前記属性認識部は、複数の前記制御点の位置関係に基づいて、前記属性を認識することを特徴とする請求項1に記載の属性決定装置。 The attribute determination device according to claim 1, wherein the attribute recognition unit recognizes the attribute based on a positional relationship between the plurality of control points. 前記属性認識部は、
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出器と、
前記特徴マップに対してマスク処理を行う特徴量変換器と、
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別器とを含み、
前記特徴量変換器は、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする請求項1に記載の属性決定装置。
The attribute recognition unit,
A feature quantity extractor for generating a feature map by extracting a feature quantity for recognizing the attribute from the image,
A feature amount converter for performing a mask process on the feature map,
A discriminator that identifies the attribute based on the masked feature map,
2. The attribute according to claim 1, wherein the feature quantity converter performs the mask processing by applying a mask whose degree of decrease in the feature quantity increases to a position farther from the control point to the feature map. Decision device.
前記マスクは、前記特徴量の低下度合いが前記制御点を頂上とする正規分布となるように変化する重みを有することを特徴とする請求項4に記載の属性決定装置。 The attribute determination device according to claim 4, wherein the mask has a weight that changes so that the degree of decrease in the characteristic amount has a normal distribution with the control point as the apex. 前記正規分布の標準偏差は、前記人物の骨格中での前記制御点の位置に応じて異なることを特徴とする請求項5に記載の属性決定装置。 The attribute determination device according to claim 5, wherein the standard deviation of the normal distribution differs depending on the position of the control point in the skeleton of the person. 前記正規分布の標準偏差は、前記識別器が識別する前記属性に応じて異なることを特徴とする請求項5または6に記載の属性決定装置。 7. The attribute determination device according to claim 5, wherein the standard deviation of the normal distribution differs depending on the attribute identified by the discriminator. 前記人物の属性は、前記人物の年齢、年齢層、性別、肥満度、被服、装着物、携帯物の少なくともいずれかであることを特徴とする請求項1から7のいずれかに記載の属性決定装置。 The attribute determination according to any one of claims 1 to 7, wherein the attribute of the person is at least one of age, age group, sex, obesity degree, clothing, wearable article, and portable article of the person. apparatus. 請求項1から8のいずれかに記載の属性決定装置と、
人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えていることを特徴とする属性決定システム。
An attribute determination device according to any one of claims 1 to 8,
An attribute determination system, comprising: an image capturing unit that captures an image of a person from above and outputs the image data to the attribute determination device.
前記画像取得部は、RGBカメラを含むことを特徴とする請求項9に記載の属性決定システム。 The attribute determination system according to claim 9, wherein the image acquisition unit includes an RGB camera. 前記画像取得部は、サーマルカメラまたはデプスカメラを含むことを特徴とする請求項9または10に記載の属性決定システム。 The attribute determination system according to claim 9, wherein the image acquisition unit includes a thermal camera or a depth camera. 前記画像取得部は、赤外線カメラまたはモノクロカメラを含むことを特徴とする請求項9から11のいずれかに記載の属性決定システム。 The attribute determination system according to claim 9, wherein the image acquisition unit includes an infrared camera or a monochrome camera. 人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含むことを特徴とする属性決定方法。
A position detecting step of detecting the position of a control point, which is a point defining the skeleton of the person, from an image obtained by photographing the person from above,
An attribute recognizing step of recognizing an attribute of the person by using a detection result of the position detecting section.
前記属性認識工程では、前記制御点の位置の時系列の変動に基づいて、前記属性を認識することを特徴とする請求項13に記載の属性決定方法。 14. The attribute determining method according to claim 13, wherein in the attribute recognizing step, the attribute is recognized based on a time-series variation of the position of the control point. 前記属性認識工程では、複数の前記制御点の位置関係に基づいて、前記属性を認識することを特徴とする請求項13に記載の属性決定方法。 14. The attribute determining method according to claim 13, wherein in the attribute recognizing step, the attribute is recognized based on a positional relationship between the plurality of control points. 前記属性認識工程は、
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出工程と、
前記特徴マップに対してマスク処理を行う特徴量変換工程と、
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別工程とを含み、
前記特徴量変換工程では、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする請求項13に記載の属性決定方法。
The attribute recognition step,
A feature amount extracting step of generating a feature map by extracting a feature amount for recognizing the attribute from the image,
A feature amount conversion step of performing a mask process on the feature map,
An identification step of identifying the attribute based on the feature map after the mask processing,
14. The attribute according to claim 13, wherein, in the feature amount conversion step, the mask processing is performed by applying a mask whose degree of decrease in the feature amount increases to a position farther from the control point to the feature map. How to decide.
請求項13から16のいずれかに記載の属性決定方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the attribute determination method according to any one of claims 13 to 16. 請求項17に記載のプログラムを記録した、コンピュータ読取可能な記録媒体。 A computer-readable recording medium in which the program according to claim 17 is recorded.
JP2018236417A 2018-12-18 2018-12-18 Attribute determination device, attribute determination system, attribute determination method, program and recording medium Active JP7259313B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018236417A JP7259313B2 (en) 2018-12-18 2018-12-18 Attribute determination device, attribute determination system, attribute determination method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018236417A JP7259313B2 (en) 2018-12-18 2018-12-18 Attribute determination device, attribute determination system, attribute determination method, program and recording medium

Publications (2)

Publication Number Publication Date
JP2020098474A true JP2020098474A (en) 2020-06-25
JP7259313B2 JP7259313B2 (en) 2023-04-18

Family

ID=71106577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018236417A Active JP7259313B2 (en) 2018-12-18 2018-12-18 Attribute determination device, attribute determination system, attribute determination method, program and recording medium

Country Status (1)

Country Link
JP (1) JP7259313B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011377A (en) * 2021-04-06 2021-06-22 新疆爱华盈通信息技术有限公司 Pedestrian attribute identification method and device, electronic equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006654A (en) * 2001-06-20 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting feature amount of moving object in moving image and method and device for automatically tracking moving object in moving image, program for executing the method and recording medium with the program recorded thereon
JP2010015472A (en) * 2008-07-07 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> Pedestrian sex determination device, pedestrian sex determination method, pedestrian sex determination program, and recording medium therefor
WO2012077286A1 (en) * 2010-12-09 2012-06-14 パナソニック株式会社 Object detection device and object detection method
JP2017091249A (en) * 2015-11-11 2017-05-25 株式会社東芝 Automatic analyzer and analytic method
JP2018084890A (en) * 2016-11-22 2018-05-31 サイジニア株式会社 Information processing unit, information processing method, and program
WO2018109997A1 (en) * 2016-12-16 2018-06-21 アイシン精機株式会社 Passenger detection device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006654A (en) * 2001-06-20 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting feature amount of moving object in moving image and method and device for automatically tracking moving object in moving image, program for executing the method and recording medium with the program recorded thereon
JP2010015472A (en) * 2008-07-07 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> Pedestrian sex determination device, pedestrian sex determination method, pedestrian sex determination program, and recording medium therefor
WO2012077286A1 (en) * 2010-12-09 2012-06-14 パナソニック株式会社 Object detection device and object detection method
JP2017091249A (en) * 2015-11-11 2017-05-25 株式会社東芝 Automatic analyzer and analytic method
JP2018084890A (en) * 2016-11-22 2018-05-31 サイジニア株式会社 Information processing unit, information processing method, and program
WO2018109997A1 (en) * 2016-12-16 2018-06-21 アイシン精機株式会社 Passenger detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011377A (en) * 2021-04-06 2021-06-22 新疆爱华盈通信息技术有限公司 Pedestrian attribute identification method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP7259313B2 (en) 2023-04-18

Similar Documents

Publication Publication Date Title
US10789454B2 (en) Image processing device, image processing method, and computer program product
US10423848B2 (en) Method, system, and computer-readable recording medium for long-distance person identification
JP5010937B2 (en) Image processing apparatus, program, and image processing method
JP6368709B2 (en) Method for generating 3D body data
JP5873442B2 (en) Object detection apparatus and object detection method
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
US20150190716A1 (en) Generation of avatar reflecting player appearance
US11023908B2 (en) Information processing apparatus for performing customer gaze analysis
KR101612605B1 (en) Method for extracting face feature and apparatus for perforimg the method
US20210319585A1 (en) Method and system for gaze estimation
JP2006293644A (en) Information processing device and information processing method
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP7151875B2 (en) Image processing device, image processing method, and program
Bhargavas et al. Human identification using gait recognition
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
JP7259313B2 (en) Attribute determination device, attribute determination system, attribute determination method, program and recording medium
JP5373128B2 (en) Person identification device, person identification method, and person identification program
US11527090B2 (en) Information processing apparatus, control method, and non-transitory storage medium
CN107231519B (en) Video processing apparatus and control method
KR101087250B1 (en) Apparatus for detecting face using skin region detection
CN113544738B (en) Portable acquisition device for anthropometric data and method for collecting anthropometric data
KR101150944B1 (en) Apparatus and Method of searching for target based on matching possibility
JP2010108110A (en) Person specification device, person specification method, and person specification program
JP7103443B2 (en) Information processing equipment, information processing methods, and programs
US20240119087A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7259313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150