JP7259313B2 - Attribute determination device, attribute determination system, attribute determination method, program and recording medium - Google Patents
Attribute determination device, attribute determination system, attribute determination method, program and recording medium Download PDFInfo
- Publication number
- JP7259313B2 JP7259313B2 JP2018236417A JP2018236417A JP7259313B2 JP 7259313 B2 JP7259313 B2 JP 7259313B2 JP 2018236417 A JP2018236417 A JP 2018236417A JP 2018236417 A JP2018236417 A JP 2018236417A JP 7259313 B2 JP7259313 B2 JP 7259313B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- person
- image
- attribute determination
- control point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、人物を上方から撮影した画像をもとにして、人物の属性を決定する属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体に関する。 The present invention relates to an attribute determination device, an attribute determination system, an attribute determination method, a program, and a recording medium for determining attributes of a person based on an image of the person photographed from above.
従来、人物の顔画像に基づいて、人物の性別や年齢などの属性を認識する技術が広く知られている。しかし、例えば店舗において、ある商品群とコンタクトをとる人物の属性を顔画像に基づいて認識するためには、各売り場や各陳列棚に、顔画像を取得するためのカメラを設置する必要がある。この場合、カメラの設置台数が多くなり、コストが掛かるだけでなく、カメラを向けられるユーザの心理的負担も高くなる。 2. Description of the Related Art Conventionally, techniques for recognizing attributes such as a person's gender and age based on a person's face image are widely known. However, in a store, for example, in order to recognize the attributes of a person who contacts a certain product group based on the face image, it is necessary to install a camera for acquiring the face image at each sales floor and each display shelf. . In this case, the number of cameras to be installed increases, which not only increases the cost but also increases the psychological burden on the user to whom the camera is directed.
したがって、コスト低減およびユーザの心理的負担の軽減の観点では、店舗の天井などにカメラを設置し、人物を上方から広域に撮影して人物の全身像を含む画像を取得し、取得した画像から人物の属性を認識することが望ましい。この点、例えば特許文献1のシステムでは、天井や壁面に設置したメインカメラで店舗全域を撮影して人物の画像部分を解析し、顧客の顔、髪型、衣服、身長、アクセサリ、靴などを総合的に考慮して性別、年齢層を推測するようにしている。
Therefore, from the viewpoint of reducing costs and reducing the psychological burden on the user, a camera is installed on the ceiling of a store, etc., a person is photographed from above in a wide range, and an image including a full-body image of the person is acquired. It is desirable to recognize attributes of a person. In this respect, for example, in the system of
また、例えば特許文献2の技術では、人物形状のひな形と、被服の種類ごとに用意された被服形状とを記憶部に格納し、カメラ画像内において検出されるエッジをひな形と照合して人物検出を行い、その人物形状から人物の性別を推定するようにしている。また、被服形状と人物形状とを照合することにより、人物が着用している被服の種類を推定し、推定された性別および被服の種類に基づいて、性別および被服の種類別に、画像に含まれる人数を集計するようにしている。
Further, for example, in the technique of
一方、店舗内で人物を撮影して画像を取得した場合、上記画像には、人物以外の背景が映り込むことが多い。この背景には、属性を認識する対象となる人物以外の人物や、売り場に陳列されている商品も含まれる。この場合、画像の背景部分が人物の属性認識そのものに悪影響を及ぼしてしまうことが考えられる。例えば、女性向けの洋服が陳列されている売り場の前を通る男性が、背景に映り込んだ女性向けの洋服で女性と誤認識される可能性は高い。 On the other hand, when a person is photographed in a store and an image is acquired, the background other than the person is often reflected in the image. This background includes people other than the person whose attributes are to be recognized, and products displayed in the sales floor. In this case, the background portion of the image may adversely affect the attribute recognition of the person. For example, there is a high possibility that a man passing in front of a sales floor where women's clothes are displayed will be misidentified as a woman because of the women's clothes reflected in the background.
この点、例えば特許文献3では、入力画像から人物のシルエットを抽出し、背景に相当する部分の特徴量に乱数を加えるなどの処理を行って、背景のバリエーションを増やし、物体を識別するための識別パラメータを学習することにより、背景の影響を受けにくい、高い識別性能を得るようにしている。
In this respect, for example, in
ところが、天井などに設置されたカメラで撮影された画像から、人物の属性を精度よく判定する手法は難易度が高い。特許文献1においては、属性の特定が困難な場合、売り場の陳列棚の近くに設置した補助カメラで撮影した顔画像を詳細に解析して性別、年齢層を推測するようにしている。したがって、特許文献1の技術では、カメラを向けられるユーザに心理的負担を与える問題が依然として残る(特許文献1の技術は、画像として人物の全身像のみを用いて属性を認識する手法としては十分ではない)。
However, it is difficult to accurately determine a person's attribute from an image captured by a camera installed on the ceiling or the like. In
また、店舗内において、属性を認識する対象となる人物の姿勢は、自らの移動や商品棚からの商品の取り出し等によって絶えず変化する。特許文献2では、推定した人物形状を、予め記憶部に格納した一定の被服形状とマッチングするか否かで被服を推定するため、人物の姿勢が変化すると、人物形状と被服形状とのマッチングが困難となり、被服を認識できない場合が生ずる。つまり、人物の姿勢によっては属性を認識できない場合があり、汎用性の高い属性認識を行うことができない。
In addition, in a store, the posture of a person whose attributes are to be recognized constantly changes due to his or her movement, taking out products from a product shelf, and the like. In
また、特許文献3のように、背景のバリエーションを増やして識別パラメータを学習する場合、人物のシルエット部分は同じで、背景部分の特徴量だけが異なる複数の画像が生成される。このような画像を用いて識別パラメータを学習すると、識別パラメータが同じ人物に過学習してしまう可能性がある。このため、様々な人物について属性を高精度で認識することが困難となる。
In addition, when the identification parameter is learned by increasing the variation of the background as in
本発明は、上記の問題点を解決するためになされたもので、その目的は、顔の撮影によってユーザに心理的負担を与えることを回避でき、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識を行うことができ、さらに、様々な人物に対して属性認識を高精度で行うことができる属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems. To provide an attribute determination device, an attribute determination system, an attribute determination method, a program, and a recording medium capable of highly versatile attribute recognition and highly accurate attribute recognition of various persons. It is in.
本発明の一側面に係る属性決定装置は、人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備えている。 An attribute determination device according to one aspect of the present invention includes a position detection unit that detects the position of a control point that defines a skeleton of the person from an image of the person photographed from above, and detection by the position detection unit. and an attribute recognition unit that recognizes the attributes of the person using the result.
本発明の他の側面に係る属性決定システムは、上記の属性決定装置と、人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えている。 An attribute determination system according to another aspect of the present invention includes the attribute determination device described above, and an image acquisition unit that acquires the image by photographing the person from above and outputs data of the image to the attribute determination device. I have.
本発明のさらに他の側面に係る属性決定方法は、人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含む。 An attribute determination method according to still another aspect of the present invention includes a position detection step of detecting the position of a control point that defines the skeleton of the person from an image of the person photographed from above; and an attribute recognition step of recognizing the attributes of the person using the detection result of.
本発明のさらに他の側面に係るプログラムは、上記の属性決定方法をコンピュータに実行させるためのプログラムである。 A program according to still another aspect of the present invention is a program for causing a computer to execute the above attribute determination method.
本発明のさらに他の側面に係る記録媒体は、上記のプログラムを記録した、コンピュータ読取可能な記録媒体である。 A recording medium according to still another aspect of the present invention is a computer-readable recording medium recording the above program.
顔の撮影によってユーザに心理的負担を与えることを回避することができる。また、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識を行うことができる。さらに、様々な人物に対して属性認識を高精度で行うことができる。 It is possible to avoid imposing a psychological burden on the user by photographing the face. In addition, it is possible to perform attribute recognition with high versatility that easily copes with changes in a person's posture. Furthermore, attribute recognition can be performed with high accuracy for various persons.
本発明の各実施の形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 Each embodiment of the present invention will be described below with reference to the drawings. In addition, the present invention is not limited to the following contents.
<実施の形態1>
〔属性決定システム〕
図1は、本実施形態の属性決定システム1の概略の構成を示すブロック図である。属性決定装置1は、画像取得部2と、属性決定装置3とを有して構成されている。画像取得部2と属性決定装置3とは、通信回線Nを介して通信可能に接続されている。通信回線Nは、例えばケーブル、光ファイバー、有線LAN(Local Area Network)、無線LAN、インターネット回線などから適宜選択されて構成される。以下、画像取得部2および属性決定装置3の詳細について説明する。
<
[Attribute determination system]
FIG. 1 is a block diagram showing a schematic configuration of an
(画像取得部)
画像取得部2は、例えば店舗の天井または壁に設置され、店舗内の人物を上方から撮影して時間的に異なる各フレームの画像を取得するカメラ(撮像部)で構成されている。画像取得部2によって人物を上方から撮影することにより、人物の全身像を含む画像が取得される。画像取得部2を構成するカメラとしては、例えばRGBカメラを用いることができる。RGBカメラは、R(赤)、G(緑)、B(青)に対応する画素を有し、各画素から受光量に応じた電気信号(画像データ)を出力する。RGBカメラでの撮影により、人物のカラー画像を取得することができる。
(Image acquisition unit)
The
店舗内に設置される画像取得部2の台数は、特に限定されず、1台であってもよいし、2台以上であってもよい。少なくとも1台の画像取得部2で取得された画像のデータは、通信回線Nを介して属性決定装置3に出力される。
The number of
(属性決定装置)
属性決定装置3は、画像取得部2で取得されて該属性決定装置3に入力された画像、つまり、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する端末装置であり、例えばパーソナルコンピュータで構成されている。属性決定装置3は、画像取得部2が設置される店舗と同じ店舗内に設置されていてもよいし、店舗の外部に画像取得部2と通信可能に設置されていてもよい。
(attribute determination device)
The
属性決定装置3は、入力部11と、記憶部12と、表示部13と、通信部14と、読取部15と、位置検出部16と、属性認識部17と、制御部18とを有して構成されている。
The
入力部11は、例えばキーボード、マウス、タッチパッド、タッチパネルなどで構成され、例えば属性決定装置3を操作する操作者による各種の指示入力を受け付ける。
The
記憶部12は、属性決定装置3の各部を動作させるための動作プログラム、画像取得部2から入力された画像のデータ、位置検出部16での検出結果、属性認識部認17での属性の認識結果等を記憶するメモリである。この記憶部12は、例えばハードディスクで構成されるが、RAM(Random Access Memory)、ROM(Read Only Memory)、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。
The
表示部13は、各種の情報を表示するデバイスであり、例えば液晶表示装置で構成される。通信部14は、外部と通信するための入出力ポートを含むインターフェースである。通信部14は、外部と無線通信を行う場合、アンテナ、送受信回路、変調回路、復調回路などを含んで構成される。
The
読取部15は、記録媒体Rに記録された情報(例えば制御部18の動作プログラム)を読み取る装置であり、例えばディスクドライブで構成される。なお、記録媒体Rが可搬型の不揮発性メモリである場合、上記不揮発性メモリの接続部が指し込まれる接続ポートも読取部15に含まれるとする。
The
制御部18は、属性決定装置3の各部の動作を制御する中央演算処理装置(CPU;Central Processing Unit)で構成されており、記憶部12に記憶された動作プログラムに従って動作する。
The
位置検出部16は、画像取得部2にて取得され、属性決定装置3に入力された画像、つまり、人物を上方から撮影した画像から、人物の骨格を規定する点となる制御点の位置を検出する。なお、上記の「制御点」には、人物の関節点(骨と骨とを連接する可動性の結合部)、頭蓋骨の中心点、手足の指の骨の先端の点などが含まれる。
The
この位置検出部16は、例えば制御部18と同一のまたは別個のCPUで構成される。なお、入力画像から人物の制御点(例えば関節点)の位置を検出する手法は、既存のソフトウェア(プログラム)で確立されている。したがって、上記ソフトウェアを読取部15にて読み取り、読み取ったプログラムを位置検出部16が実行することにより、人物を上方から撮影した画像から、人物の制御点の位置を検出することができる。
The
属性認識部17は、位置検出部16での検出結果(制御点の位置情報)を用いて、人物の属性を認識する。上記属性としては、例えば、人物の年齢、年齢層、性別、肥満度、被服、装着物、携帯物の少なくともいずれかを考えることができる。このような属性認識部17は、例えばGPU(Graphics Processing Unit)で構成されている。GPUは、リアルタイムな画像処理に特化した演算装置である。
The
〔属性認識方法〕
次に、本実施形態の属性認識方法について説明する。なお、ここでは、例として、属性認識部17が人物の属性として性別(男性/女性)を認識する場合について説明する。図2は、本実施形態の属性認識方法による処理の流れを示すフローチャートである。
[Attribute recognition method]
Next, the attribute recognition method of this embodiment will be described. Here, as an example, a case where the
まず、店舗に設置された画像取得部2にて、店舗内の人物を上方から撮影して複数フレーム分の画像(人物の全身像を含む画像)を取得する(S1;画像取得工程)。各フレームの画像のデータが属性決定装置3に入力されると、位置検出部16は、各フレームの画像について、人物の骨格を規定する点となる制御点およびその位置を検出する(S2;位置検出工程)。図3は、1フレーム目の画像で検出した制御点、および2フレーム目の画像で検出した制御点の例を示している。なお、図中の黒丸が制御点を示す。
First, the
続いて、属性認識部17は、位置検出部16での検出結果を用いて、人物の属性を認識する(S3;属性認識工程)。具体的には、属性認識部17は、制御点の位置の時系列の変動に基づいて属性を認識する。
Subsequently, the
例えば、図3において、人物の右手の指の先端を示す制御点をP1とし、右腕の肘を示す制御点(関節点)をP2とし、右肩を示す制御点をP3とする。1フレーム目の画像において、所定の位置を原点にとったときの各制御点の座標を、それぞれ、P1=(x11,y11)、P2=(x21,y21)、P3=(x31,y31)とする。同様に、2フレーム目の画像において、上記原点に対する各制御点の座標を、それぞれ、P1=(x12,y12)、P2=(x22,y22)、P3=(x32,y32)とする。1フレーム目と2フレーム目との間での各制御点P1~P3の変動量を、それぞれ、ΔP1、ΔP2、ΔP3としたとき、ΔP1=√{(x12-x11)2+(y12-y11)2}、ΔP2=√{(x22-x21)2+(y22-y21)2}、ΔP3=√{(x32-x31)2+(y32-y31)2}で表される。
For example, in FIG. 3, let P1 be the control point indicating the tip of the finger of the person's right hand, P2 be the control point (joint point) indicating the elbow of the right arm, and P3 be the control point indicating the right shoulder. In the image of the first frame, the coordinates of each control point when a predetermined position is taken as the origin are respectively P 1 =(x 11 , y 11 ), P 2 =(x 21 , y 21 ), P 3 = (x 31 , y 31 ). Similarly, in the image of the second frame, the coordinates of each control point with respect to the origin are P 1 =(x 12 , y 12 ), P 2 =(x 22 , y 22 ), P 3 =(x 32 , y 32 ).
例えば、男性と女性とでは歩き方が異なり、男性の場合、歩行時に腕の振りが大きく、フレーム間での変動量ΔP1~ΔP3が大きい傾向にある。一方、女性の場合、歩行時に腕の振りが小さく、フレーム間での変動量ΔP1~ΔP3が小さい傾向にある。したがって、属性認識部17は、制御点P1~P3の位置の変動量ΔP1~ΔP3と所定の閾値とを比較することにより、人物が男性であるか女性であるか、つまり、属性(性別)を認識することができる。
For example, men and women walk differently. Men tend to swing their arms more when walking, and the amount of variation ΔP 1 to ΔP 3 between frames tends to be greater. On the other hand, in the case of females, there is a tendency that the amount of variation ΔP 1 to ΔP 3 between frames is small because the swing of the arms is small during walking. Therefore, the
なお、歩行時の歩幅は、男性では大きく、女性では小さい傾向にある。したがって、制御点として脚の関節点(例えば膝)に着目すると、属性認識部17は、脚の関節点の時系列の変動に基づいて属性としての性別を認識することもできる。つまり、属性認識部17は、歩行時に男性または女性に特有の動きを示す関節点の時系列の変動に基づいて、属性としての性別を認識することができる。
Note that the stride during walking tends to be large for men and small for women. Therefore, focusing on leg joint points (for example, knees) as control points, the
属性認識部17での認識結果(属性の判定結果)は、例えば表示部13に表示される(S4;認識結果出力工程)。
The recognition result (attribute determination result) by the
以上のように、本実施形態では、位置検出部16が、人物を上方から撮影した画像(人物の全身像を含む画像)から、人物の骨格を規定する点となる制御点の位置を検出する。そして、属性認識部17が、位置検出部16での検出結果、つまり、制御点の位置情報を用いて、人物の属性を認識する。制御点の位置情報を用いることにより、人物の顔画像を全く用いることなく属性認識を行うことができる。これにより、顔の撮影によってユーザ(店舗内の人物)に心理的負担を与えることを回避することができる。
As described above, in the present embodiment, the
また、人物の姿勢がどのように変化しても、つまり、姿勢の変化によって制御点の位置がどのように変化しても、その制御点の位置を位置検出部16が検出して、属性認識部17が人物の属性を認識する。したがって、人物の姿勢の変化にも容易に対応した、汎用性の高い属性認識が可能となる。
In addition, no matter how the posture of the person changes, that is, no matter how the position of the control point changes due to the change of posture, the
さらに、属性認識部17は、位置検出部16での検出結果を用いて人物の属性を認識するため、どのような人物についても、その人物の制御点の位置情報に基づいて属性を認識することができる。また、制御点の位置情報に基づいて属性を認識することで、制御点に関係のない領域、つまり、人物の属性認識に不要な領域(例えば背景領域)が、属性認識に影響を与えることもない。したがって、様々な人物について属性認識を高精度で行うことができる。
Furthermore, since the
特に、本実施形態では、属性認識部17は、制御点の位置の時系列の変動に基づいて、人物の歩き方を認識することができる。したがって、その認識結果(歩き方)に基づいて、人物の属性としての性別(男性/女性)を認識することができる。
In particular, in the present embodiment, the
また、本実施形態では、画像取得部2として、RGBカメラを用いている。比較的容易に入手可能なRGBカメラを用いることにより、本実施形態の属性決定システム1を容易に実現することができる。なお、後述する実施の形態3では、入力画像からニューラルネットワークによって特徴量を抽出し、抽出した特徴量に基づいて属性を認識するが、入力画像としてカラー画像を用いると、特徴量を精度よく抽出することができる。この点では、RGBカメラは実施の形態3の構成にも非常に好適であると言える。
Further, in this embodiment, an RGB camera is used as the
ところで、画像取得部2として、サーマルカメラを用いてもよいし、デプスカメラを用いてもよい。また、RGBカメラとサーマルカメラまたはデプスカメラとを併用してもよい。サーマルカメラは、物体から放射される熱(赤外線放射エネルギー)を検出して温度に変換し、その温度分布を画像表示するカメラである。デプスカメラは、奥行きの情報を取得する深度センサーを内蔵したカメラである。サーマルカメラまたはデプスカメラを用いることにより、位置検出部16は、カメラ画像から、温度分布または奥行情報を利用して人物の制御点の位置を精度よく検出することができる。このため、属性認識部17による属性の認識精度の向上が期待できる。
By the way, as the
また、画像取得部2として、赤外線カメラを用いてもよいし、モノクロカメラを用いてもよい。このとき、RGBカメラと赤外線カメラまたはモノクロカメラとを併用してもよい。赤外線カメラは、赤外線(近赤外線)を放射し、物体での赤外線の反射を捉えることで画像を取得するカメラである。モノクロカメラは、撮影によりモノクロ(白黒)の画像を取得するカメラである。赤外線カメラおよびモノクロカメラは、夜間でも人物を撮影して明瞭な画像を取得できるため、そのような暗環境で取得された画像に基づく属性認識に非常に有効となる。
Also, as the
なお、本実施形態では、属性認識部17が人物の属性として性別を認識する例について説明したが、本実施形態と同様の考え方に基づいて、性別以外の属性(例えば年齢層(大人/子供、老人/中年/若者))を認識することも可能である。
In this embodiment, an example in which the
なお、本実施形態では、属性決定装置3が画像取得部2から画像データを取得して、属性認識を行う例について説明したが、例えば通信回線を介して他の端末装置から送信される画像データを用いて属性認識を行ってもよい。また、記録媒体Rに記録された画像のデータを属性決定装置3が読み取って属性認識を行うようにしてもよい。
In this embodiment, the
<実施の形態2>
本実施形態では、実施の形態1で説明したS3の属性認識工程において、属性認識部17は、複数の制御点の位置関係に基づいて、人物の属性を認識する。ここでは、例として、属性認識部17が人物の属性として肥満度を認識する場合について説明する。
<
In the present embodiment, in the attribute recognition step of S3 described in
例えば、図4は、やせ型の人物を撮影した画像で検出した制御点、および肥満体型の人物を撮影した画像で検出した制御点の例を示している。なお、図中の黒丸が制御点を示す。各制御点の位置は、複数フレームにわたって人物が静止状態またはそれに近い状態である(各制御点の連続フレーム間での変動量が閾値以下である)場合の、複数フレーム間での平均の位置とする(人物が歩行状態ではないとする)。 For example, FIG. 4 shows an example of control points detected in an image of a thin person and control points detected in an image of an obese person. Black circles in the figure indicate control points. The position of each control point is the average position over multiple frames when the person is in a stationary state or in a state close to that over multiple frames (the amount of variation in each control point between consecutive frames is less than the threshold). (assuming that the person is not in a walking state).
図4で示す各制御点の位置から、やせ型の人物と肥満体型の人物とでは、肩、肘、手指の先端、股関節、膝の相互の位置関係が互いに異なることがわかる。特に、股関節と手指の先端との距離は、やせ型の人物と肥満体型の人物とで大きく異なることがわかる。 From the positions of the respective control points shown in FIG. 4, it can be seen that the mutual positional relationships of the shoulders, elbows, fingertips, hip joints, and knees are different between the thin person and the obese person. In particular, it can be seen that the distance between the hip joint and the tip of the finger is significantly different between a lean person and an obese person.
そこで、属性認識部17は、複数の制御点(例えば股関節と手指の先端)の位置座標からこれらの制御点の位置関係を認識する。例えば、属性認識部17は、股関節と手指の先端との距離を各制御点の位置座標から求める。そして、属性認識部17は、上記距離が所定範囲よりも大きい場合には、人物は肥満体型であり、上記距離が所定範囲内である場合には、人物は標準体型であり、上記距離が所定範囲よりも小さい場合には、人物はやせ型であると認識する。
Therefore, the
このように、属性認識部17は、複数の制御点の位置関係に基づいて、人物の体型を認識することができる。これにより、人物の属性として、肥満度(肥満体型/標準体型/やせ型)を認識することが可能となる。
In this way, the
なお、属性認識部17が複数の制御点の位置関係に基づいて認識できる属性は、本実施形態の肥満度には限定されない。本実施形態と同様の考え方に基づき、属性認識部17は、例えば性別(男性/女性)、年齢層(大人/子供、老人/中年/若者)など、肥満度以外の属性を認識することも可能である。
Note that the attribute that the
<実施の形態3>
図5は、本実施形態の属性認識システム1の概略の構成を示すブロック図である。本実施形態の属性認識システム1は、属性決定装置3の属性認識部17を、属性認識部17’に置き換えた以外は、実施の形態1と同様の構成である。以下、実施の形態1と異なる点について説明する。
<
FIG. 5 is a block diagram showing a schematic configuration of the
属性認識部17’は、属性認識部17と同様に、位置検出部16での検出結果を用いて、人物の属性を認識する。この属性認識部17’は、特徴量抽出器17a、特徴量変換器17bおよび識別器17cとしての機能を有するGPUで構成されている。特に、特徴量抽出器17aおよび識別器17cの機能は、深層学習(ディープラーニング)が可能なディープニューラルネットワーク(DNN)によって実現される。
The
特徴量抽出器17aは、人物を上方から撮影した画像から、属性を認識するための特徴量を抽出してn次元(nは自然数)の特徴マップを生成する。特徴量変換器17bは、上記の特徴マップに対してマスク処理を行う。より詳しくは、特徴量変換器17bは、上記画像中の制御点から離れる位置ほど特徴量の低下度合いが大きくなるマスクを特徴マップにかけることにより、上記マスク処理を行う。ここで、上記のマスクは、特徴量の低下度合いが制御点を頂上とする正規分布となるように変化する重み(ウェイト)を有する。識別器17cは、マスク処理後の特徴マップに基づいて、属性を識別する。
The
図6は、正規分布曲線を示すグラフである。なお、正規分布曲線の式f(x)において、μは平均を示し、σは標準偏差を示す。上記のマスクの重みMは、図6のf(x)に相当する。ただし、0≦M≦1であり、制御点の位置で最大(M=1)である。画像中の位置(x,y)におけるn次元目の特徴量をfn(x,y)とし、その特徴量に乗算するマスクの重みをM(x,y)としたとき、特徴量変換器17bによってマスク処理を行うと、マスク処理後の特徴量、つまり、属性を認識するための特徴量Gn(x,y)は、以下の式で表される。
Gn(x,y)=fn(x,y)×M(x,y)
FIG. 6 is a graph showing a normal distribution curve. In the normal distribution curve formula f(x), μ indicates the average and σ indicates the standard deviation. The above mask weight M corresponds to f(x) in FIG. However, 0≤M≤1, and is maximum (M=1) at the position of the control point. Let fn(x, y) be the nth-dimensional feature quantity at the position (x, y) in the image, and let M(x, y) be the weight of the mask to be multiplied by the feature quantity. Then, the feature amount after masking, that is, the feature amount Gn(x, y) for recognizing the attribute is expressed by the following equation.
Gn(x,y)=fn(x,y)×M(x,y)
次に、本実施形態の属性認識方法について説明する。図7は、本実施形態の属性認識方法による処理の流れを示すフローチャートである。また、図8は、本実施形態の属性認識方法による処理を模式的に示す説明図である。なお、特徴量抽出器17aおよび識別器17cは、教師あり学習によって予め学習されているとする(ニューラルネットワークを構成する各ノードのパラメータが適切に設定(更新)されているとする)。
Next, the attribute recognition method of this embodiment will be described. FIG. 7 is a flow chart showing the flow of processing by the attribute recognition method of this embodiment. FIG. 8 is an explanatory diagram schematically showing processing by the attribute recognition method of this embodiment. It is assumed that the
まず、店舗に設置された画像取得部2にて、店舗内の人物を上方から撮影して画像(例えば1フレーム目)が取得される(S1;画像取得工程)。1フレーム目の画像のデータが属性決定装置3に入力されると、位置検出部16は、上記画像について制御点およびその位置を検出する(S2;位置検出工程)。
First, an image (for example, the first frame) is acquired by photographing a person in the store from above in the
次に、位置検出部16は、S2で検出された制御点の位置から、人物の頭部、胴体部、腕、脚などの領域を認識し、これらの領域を含む人物矩形を設定し、S1で取得した撮影画像から人物矩形内の画像を抽出する(S2-1;人物矩形画像抽出工程)。なお、S2-1の工程は必須ではなく、省略することも可能である。
Next, the
続いて、属性認識部17’は、S2-1で取得した人物矩形画像またはS1で取得した撮影画像と、位置検出部16での検出結果とに基づいて、人物の属性を認識する(S3;属性認識工程)。
Subsequently, the
具体的には、まず、特徴量抽出器17aが入力画像(人物矩形画像または撮影画像)から特徴量を抽出し、抽出した特徴量の分布である特徴マップを生成する(S31;特徴量抽出工程)。上記特徴マップは、色情報、エッジ情報などの特徴量の種類に応じてn次元分生成される。
Specifically, first, the
次に、特徴量変換器17bは、上記のn次元分の特徴マップに対して上述したマスクをかけてマスク処理を行い、制御点から離れた位置ほど特徴量を低下させる(S32;特徴量変換工程)。この処理により、例えば画像中で人物以外の背景部分(商品棚の商品も含む)の特徴量が低下する。その後、識別器17cは、マスク処理後の特徴マップに基づいて、人物の属性を識別する(S33;識別工程)。
Next, the
属性認識部17’での認識結果(識別器17cでの属性の識別結果)は、例えば表示部13に表示される(S4;認識結果出力工程)。そして、次の撮影画像についても処理を継続する場合は、S1以降の工程を繰り返し、次の撮影画像について処理を行わない場合は、一連の処理を終了する(S5)。
The recognition result of the attribute recognition unit 17' (the attribute identification result of the
人物を上方から撮影した画像において、制御点から離れた領域ほど、人物とは関係のない領域(例えば背景領域などの、人物の属性を現しているとは考えにくい領域)である可能性が高い。特徴量変換器17bは、特徴マップに対してマスク処理を行って、制御点から離れた、人物とは関係のない領域の特徴量を低下させ、識別器17cは、マスク処理後の特徴マップに基づいて属性を識別する。これにより、人物とは関係のない領域の特徴量の、属性認識への影響を低減することができ、人物の属性を精度よく識別(認識)することが可能となる。
In an image of a person photographed from above, the more distant the area from the control point, the more likely it is an area unrelated to the person (for example, a background area, which is unlikely to represent an attribute of the person). . The
また、マスク処理に用いるマスクは、特徴量の低下度合いが制御点を頂上とする正規分布となるように変化する重みを有する。特徴量変換器17bが上記マスクを用いてマスク処理を行うことにより、特徴マップに対して、制御点から離れた領域ほど特徴量を確実に低下させることができる。これにより、人物とは関係のない領域の特徴量の、属性認識への影響を確実に低減して、属性認識の精度を確実に向上させることができる。
Also, the mask used for the mask processing has weights that change so that the degree of feature amount reduction becomes a normal distribution with the control point at the top. By performing the masking process using the mask by the
また、本実施形態では、人物とは関係のない領域の特徴量を削減して得た識別結果を新たに正解ラベルとして用いて、特徴量抽出器17aおよび識別器17cを学習させることができる。これにより、未知の店舗内での撮影によって取得された画像をもとに人物の属性を認識する場合でも、認識性能を向上させることができ、汎化性を向上させることができる。
In addition, in this embodiment, the
ところで、マスクの重みの分布である正規分布の標準偏差σは、人物の骨格中での制御点の位置に応じて異なるようにしてもよい。例えば、制御点が人物の手指の骨の先端の点であれば、その点を頂上とする正規分布の標準偏差σを小さくし、制御点が人物の頭蓋骨の中心点であれば、その中心点を頂上とする正規分布の標準偏差σを大きくしてもよい。 By the way, the standard deviation σ of the normal distribution, which is the mask weight distribution, may vary according to the positions of the control points in the skeleton of the person. For example, if the control point is the tip of a person's finger bone, the standard deviation σ of the normal distribution with that point as the top is reduced, and if the control point is the center point of the person's skull, You may increase the standard deviation σ of the normal distribution with .
このように正規分布の標準偏差σを設定することにより、特徴マップにおいて、マスク処理によって特徴量を保持しようとする領域(人物と関係する領域)の範囲を、人物骨格の位置に応じて適切に調整することができる。つまり、人物の頭部については広い範囲で特徴量を保持し、手指については狭い範囲で特徴量を保持することができる。これにより、識別器17cは、マスク処理後の特徴マップに基づいて、人物の形状を表す領域の特徴量のみに基づいて人物の属性を識別することが可能となり、人物の属性の識別精度を向上させることができる。
By setting the standard deviation σ of the normal distribution in this way, in the feature map, the range of the region (region related to the person) in which the feature amount is to be retained by the mask processing can be appropriately adjusted according to the position of the human skeleton. can be adjusted. In other words, it is possible to hold the feature amount of the person's head in a wide range and hold the feature amount of the fingers in a narrow range. As a result, the
また、マスクの重みの分布である正規分布の標準偏差σは、識別器17cが識別する属性に応じて異なるようにしてもよい。例えば、人物の属性として携帯物(例えばペット、手提げかばん、拳銃など)を識別する場合、人物の手指の骨の先端の点を頂上とする正規分布の標準偏差σを大きくしてもよい。また、人物の属性として性別を識別する場合、人物の指の骨の先端の点を頂上とする正規分布の標準偏差σを小さくしてもよい。
Further, the standard deviation σ of the normal distribution, which is the mask weight distribution, may differ according to the attributes identified by the
このように識別する属性に応じて正規分布の標準偏差σを異ならせることにより、特徴量変換器17bは、特徴マップに対するマスク処理によって特徴量を保持する範囲を、識別対象の属性に応じて適切に調整することができる。その結果、識別器17cは、上記属性を適切に識別することが可能となる。例えば属性として人物が携帯物を所持しているか否かを識別する場合には、マスク処理により、人物の手指よりも広い範囲の特徴量が保持されるため、識別器17cは上記特徴量に基づいて携帯物を適切に識別することができる。一方、属性として人物の性別等、携帯物以外の属性を識別する場合には、マスク処理により、人物の手指の領域の特徴量が保持されるため、識別器17cは上記特徴量に基づいて携帯物以外の属性を適切に識別することができる。
By varying the standard deviation .sigma. can be adjusted to As a result, the
<プログラムおよび記録媒体>
以上の各実施の形態で説明した属性決定装置3は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部18)が読み取って実行することにより、属性決定装置3の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されて記憶部12に記憶される。また、上記プログラムは、例えばCD-ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体に記録され、この記録媒体から上記プログラムをコンピュータが読み取って記憶部12に記憶する形態であってもよい。
<Program and recording medium>
The
<補足>
以上で説明した本実施形態の属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体は、以下のように表現することもできる。
<Supplement>
The attribute determination device, attribute determination system, attribute determination method, program, and recording medium of this embodiment described above can also be expressed as follows.
1.人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出部と、
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備えていることを特徴とする属性決定装置。
1. a position detection unit that detects the position of a control point that defines the skeleton of the person from an image of the person photographed from above;
An attribute determination device, comprising: an attribute recognition unit that recognizes the attribute of the person by using the detection result of the position detection unit.
2.前記属性認識部は、前記制御点の位置の時系列の変動に基づいて、前記属性を認識することを特徴とする前記1に記載の属性決定装置。 2. 2. The attribute determination device according to 1, wherein the attribute recognition unit recognizes the attribute based on a time-series change in the position of the control point.
3.前記属性認識部は、複数の前記制御点の位置関係に基づいて、前記属性を認識することを特徴とする前記1に記載の属性決定装置。 3. 2. The attribute determination device according to 1, wherein the attribute recognition unit recognizes the attribute based on the positional relationship of the plurality of control points.
4.前記属性認識部は、
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出器と、
前記特徴マップに対してマスク処理を行う特徴量変換器と、
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別器とを含み、
前記特徴量変換器は、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする前記1に記載の属性決定装置。
4. The attribute recognition unit
a feature quantity extractor that extracts a feature quantity for recognizing the attribute from the image and generates a feature map;
a feature quantity converter that performs mask processing on the feature map;
a classifier that identifies the attribute based on the masked feature map;
2. The attribute determination according to 1, wherein the feature value converter performs the mask processing by applying a mask to the feature map in which the degree of decrease in the feature value increases with the position away from the control point. Device.
5.前記マスクは、前記特徴量の低下度合いが前記制御点を頂上とする正規分布となるように変化する重みを有することを特徴とする前記4に記載の属性決定装置。 5. 5. The attribute determination device according to 4 above, wherein the mask has weights that vary so that the degree of deterioration of the feature quantity has a normal distribution with the control point at the top.
6.前記正規分布の標準偏差は、前記人物の骨格中での前記制御点の位置に応じて異なることを特徴とする前記5に記載の属性決定装置。 6. 6. The attribute determination device according to 5, wherein the standard deviation of the normal distribution differs according to the position of the control point in the skeleton of the person.
7.前記正規分布の標準偏差は、前記識別器が識別する前記属性に応じて異なることを特徴とする前記5または6に記載の属性決定装置。 7. 7. The attribute determination device according to 5 or 6, wherein the standard deviation of the normal distribution differs according to the attribute identified by the discriminator.
8.前記人物の属性は、前記人物の年齢、年齢層、性別、肥満度、被服、装着物、携帯物の少なくともいずれかであることを特徴とする前記1から7のいずれかに記載の属性決定装置。 8. 8. The attribute determination device according to any one of 1 to 7, wherein the attribute of the person is at least one of the person's age, age group, sex, degree of obesity, clothing, attachment, and belongings. .
9.前記1から8のいずれかに記載の属性決定装置と、
人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えていることを特徴とする属性決定システム。
9. 9. The attribute determination device according to any one of 1 to 8;
An attribute determination system, comprising: an image acquisition unit that captures an image of a person from above to acquire the image, and outputs data of the image to the attribute determination device.
10.前記画像取得部は、RGBカメラを含むことを特徴とする前記9に記載の属性決定システム。 10. 10. The attribute determination system as described in 9 above, wherein the image acquisition unit includes an RGB camera.
11.前記画像取得部は、サーマルカメラまたはデプスカメラを含むことを特徴とする前記9または10に記載の属性決定システム。 11. 11. The attribute determination system according to 9 or 10, wherein the image acquisition unit includes a thermal camera or a depth camera.
12.前記画像取得部は、赤外線カメラまたはモノクロカメラを含むことを特徴とする前記9から11のいずれかに記載の属性決定システム。 12. 12. The attribute determination system according to any one of 9 to 11, wherein the image acquisition unit includes an infrared camera or a monochrome camera.
13.人物を上方から撮影した画像から、前記人物の骨格を規定する点となる制御点の位置を検出する位置検出工程と、
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含むことを特徴とする属性決定方法。
13. a position detection step of detecting the positions of control points that define the skeleton of the person from an image of the person photographed from above;
and an attribute recognition step of recognizing the attributes of the person using the detection result of the position detection unit.
14.前記属性認識工程では、前記制御点の位置の時系列の変動に基づいて、前記属性を認識することを特徴とする前記13に記載の属性決定方法。 14. 14. The attribute determination method according to 13 above, wherein, in the attribute recognition step, the attribute is recognized based on a time-series change in the position of the control point.
15.前記属性認識工程では、複数の前記制御点の位置関係に基づいて、前記属性を認識することを特徴とする前記13に記載の属性決定方法。 15. 14. The attribute determination method according to 13 above, wherein in the attribute recognition step, the attribute is recognized based on a positional relationship between a plurality of the control points.
16.前記属性認識工程は、
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出工程と、
前記特徴マップに対してマスク処理を行う特徴量変換工程と、
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別工程とを含み、
前記特徴量変換工程では、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする前記13に記載の属性決定方法。
16. The attribute recognition step includes
a feature quantity extraction step of extracting a feature quantity for recognizing the attribute from the image and generating a feature map;
a feature amount conversion step of performing mask processing on the feature map;
an identification step of identifying the attribute based on the masked feature map;
14. The attribute determination according to 13 above, wherein in the feature value conversion step, the mask processing is performed by applying a mask to the feature map in which the degree of decrease in the feature value increases with the position away from the control point. Method.
17.前記13から16のいずれかに記載の属性決定方法をコンピュータに実行させるためのプログラム。 17. 17. A program for causing a computer to execute the attribute determination method according to any one of 13 to 16 above.
18.前記17に記載のプログラムを記録した、コンピュータ読取可能な記録媒体。 18. 18. A computer-readable recording medium recording the program according to 17 above.
以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited thereto, and can be implemented by being expanded or modified without departing from the gist of the invention.
本発明は、人物を上方から撮影した画像に基づいて、人物の属性を決定する装置に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for a device that determines attributes of a person based on an image of the person photographed from above.
1 属性決定システム
2 画像取得部
3 属性決定装置
16 位置検出部
17 属性認識部
17’ 属性認識部
17a 特徴量抽出器
17b 特徴量変換器
17c 識別器
1
Claims (14)
前記位置検出部での検出結果を用いて、上方から撮影された前記人物の属性を認識する属性認識部とを備え、
前記人物の属性は、前記人物の年齢層、性別の少なくともいずれかを含み、
前記属性認識部は、前記制御点の位置の時系列の変動に基づいて、前記属性を認識するとともに、前記制御点の位置の、時間的に異なるフレーム間での変動量と所定の閾値とを比較することにより、前記属性を認識することを特徴とする属性決定装置。 a position detection unit that detects the position of a control point that defines the skeleton of the person from an image of the person photographed from above;
an attribute recognition unit that recognizes the attributes of the person photographed from above using the detection result of the position detection unit;
The attributes of the person include at least one of the age group and gender of the person ,
The attribute recognizing unit recognizes the attribute based on the time-series variation of the position of the control point, and determines an amount of variation between temporally different frames and a predetermined threshold value of the position of the control point. An attribute determination device that recognizes the attribute by comparison .
前記位置検出部での検出結果を用いて、前記人物の属性を認識する属性認識部とを備え、an attribute recognition unit that recognizes attributes of the person using the detection result of the position detection unit;
前記属性認識部は、The attribute recognition unit
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出器と、a feature quantity extractor that extracts a feature quantity for recognizing the attribute from the image and generates a feature map;
前記特徴マップに対してマスク処理を行う特徴量変換器と、a feature quantity converter that performs mask processing on the feature map;
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別器とを含み、a classifier that identifies the attribute based on the masked feature map;
前記特徴量変換器は、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする属性決定装置。The attribute determination device, wherein the feature value converter performs the mask processing by applying a mask to the feature map in which the degree of decrease in the feature value increases with the position away from the control point.
人物を上方から撮影して前記画像を取得し、前記画像のデータを前記属性決定装置に出力する画像取得部とを備えていることを特徴とする属性決定システム。An attribute determination system, comprising: an image acquisition unit that captures an image of a person from above to acquire the image, and outputs data of the image to the attribute determination device.
前記位置検出工程での検出結果を用いて、上方から撮影された前記人物の属性を認識する属性認識工程とを含み、an attribute recognition step of recognizing the attributes of the person photographed from above using the detection result of the position detection step;
前記人物の属性は、前記人物の年齢層、性別の少なくともいずれかを含み、The attributes of the person include at least one of the age group and gender of the person,
前記属性認識工程では、前記制御点の位置の時系列の変動に基づいて、前記属性を認識するとともに、前記制御点の位置の、時間的に異なるフレーム間での変動量と所定の閾値とを比較することにより、前記属性を認識することを特徴とする属性決定方法。In the attribute recognition step, the attribute is recognized based on the time-series variation of the position of the control point, and the amount of variation of the position of the control point between temporally different frames and a predetermined threshold are determined. An attribute determination method, wherein the attribute is recognized by comparison.
前記位置検出工程での検出結果を用いて、前記人物の属性を認識する属性認識工程とを含み、an attribute recognition step of recognizing attributes of the person using the detection result of the position detection step;
前記属性認識工程は、The attribute recognition step includes
前記画像から前記属性を認識するための特徴量を抽出して特徴マップを生成する特徴量抽出工程と、a feature quantity extraction step of extracting a feature quantity for recognizing the attribute from the image and generating a feature map;
前記特徴マップに対してマスク処理を行う特徴量変換工程と、a feature amount conversion step of performing mask processing on the feature map;
前記マスク処理後の特徴マップに基づいて、前記属性を識別する識別工程とを含み、an identification step of identifying the attribute based on the masked feature map;
前記特徴量変換工程では、前記制御点から離れる位置ほど前記特徴量の低下度合いが大きくなるマスクを前記特徴マップにかけることにより、前記マスク処理を行うことを特徴とする属性決定方法。In the feature value conversion step, the attribute determination method is characterized in that the mask processing is performed by applying a mask to the feature map in which the degree of decrease in the feature value increases with the position away from the control point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018236417A JP7259313B2 (en) | 2018-12-18 | 2018-12-18 | Attribute determination device, attribute determination system, attribute determination method, program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018236417A JP7259313B2 (en) | 2018-12-18 | 2018-12-18 | Attribute determination device, attribute determination system, attribute determination method, program and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020098474A JP2020098474A (en) | 2020-06-25 |
JP7259313B2 true JP7259313B2 (en) | 2023-04-18 |
Family
ID=71106577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018236417A Active JP7259313B2 (en) | 2018-12-18 | 2018-12-18 | Attribute determination device, attribute determination system, attribute determination method, program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7259313B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011377B (en) * | 2021-04-06 | 2023-04-07 | 新疆爱华盈通信息技术有限公司 | Pedestrian attribute identification method and device, electronic equipment and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012077286A1 (en) | 2010-12-09 | 2012-06-14 | パナソニック株式会社 | Object detection device and object detection method |
WO2018109997A1 (en) | 2016-12-16 | 2018-06-21 | アイシン精機株式会社 | Passenger detection device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003006654A (en) * | 2001-06-20 | 2003-01-10 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for extracting feature amount of moving object in moving image and method and device for automatically tracking moving object in moving image, program for executing the method and recording medium with the program recorded thereon |
JP2010015472A (en) * | 2008-07-07 | 2010-01-21 | Nippon Telegr & Teleph Corp <Ntt> | Pedestrian sex determination device, pedestrian sex determination method, pedestrian sex determination program, and recording medium therefor |
JP6596309B2 (en) * | 2015-11-11 | 2019-10-23 | 株式会社東芝 | Analysis apparatus and analysis method |
JP2018084890A (en) * | 2016-11-22 | 2018-05-31 | サイジニア株式会社 | Information processing unit, information processing method, and program |
-
2018
- 2018-12-18 JP JP2018236417A patent/JP7259313B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012077286A1 (en) | 2010-12-09 | 2012-06-14 | パナソニック株式会社 | Object detection device and object detection method |
WO2018109997A1 (en) | 2016-12-16 | 2018-06-21 | アイシン精機株式会社 | Passenger detection device |
Also Published As
Publication number | Publication date |
---|---|
JP2020098474A (en) | 2020-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10789454B2 (en) | Image processing device, image processing method, and computer program product | |
JP4318465B2 (en) | Person detection device and person detection method | |
JP5873442B2 (en) | Object detection apparatus and object detection method | |
CA2734143C (en) | Method and apparatus for estimating body shape | |
JP5010937B2 (en) | Image processing apparatus, program, and image processing method | |
US11023908B2 (en) | Information processing apparatus for performing customer gaze analysis | |
US20160162673A1 (en) | Technologies for learning body part geometry for use in biometric authentication | |
KR101612605B1 (en) | Method for extracting face feature and apparatus for perforimg the method | |
US20210319585A1 (en) | Method and system for gaze estimation | |
JP2006293644A (en) | Information processing device and information processing method | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
TW201835805A (en) | Method, system, and computer-readable recording medium for long-distance person identification | |
JP7151875B2 (en) | Image processing device, image processing method, and program | |
JP6969878B2 (en) | Discriminator learning device and discriminator learning method | |
Bhargavas et al. | Human identification using gait recognition | |
JP7259313B2 (en) | Attribute determination device, attribute determination system, attribute determination method, program and recording medium | |
US20240104769A1 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
JP2005351814A (en) | Detector and detecting method | |
CN107231519B (en) | Video processing apparatus and control method | |
JP5373128B2 (en) | Person identification device, person identification method, and person identification program | |
Wang et al. | Robust pose recognition of the obscured human body | |
WO2012161291A1 (en) | Site separation location extraction device, program, and method | |
KR101087250B1 (en) | Apparatus for detecting face using skin region detection | |
CN113544738B (en) | Portable acquisition device for anthropometric data and method for collecting anthropometric data | |
Soneja et al. | Body weight estimation using 2D body image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7259313 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |