JP7336835B2 - Attribute determination device, attribute determination system, and attribute determination method - Google Patents

Attribute determination device, attribute determination system, and attribute determination method Download PDF

Info

Publication number
JP7336835B2
JP7336835B2 JP2018090459A JP2018090459A JP7336835B2 JP 7336835 B2 JP7336835 B2 JP 7336835B2 JP 2018090459 A JP2018090459 A JP 2018090459A JP 2018090459 A JP2018090459 A JP 2018090459A JP 7336835 B2 JP7336835 B2 JP 7336835B2
Authority
JP
Japan
Prior art keywords
person
attribute
image
recognition
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018090459A
Other languages
Japanese (ja)
Other versions
JP2019197353A (en
Inventor
望 仲尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018090459A priority Critical patent/JP7336835B2/en
Publication of JP2019197353A publication Critical patent/JP2019197353A/en
Application granted granted Critical
Publication of JP7336835B2 publication Critical patent/JP7336835B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する属性決定装置、属性決定システムおよび属性決定方法に関する。 The present invention relates to an attribute determination device, an attribute determination system, and an attribute determination method for determining attributes of a person based on each frame image of the person photographed from above.

従来、カメラで人物を撮影した画像から、人物の性別や年齢などの属性を精度良く認識する技術として、顔画像を用いた属性認識手法が広く知られている(例えば特許文献1、2参照)。しかし、例えば店舗において、ある商品群とコンタクトをとる人物の属性を顔画像に基づいて認識するためには、各売り場や各陳列棚に、顔画像を取得するためのカメラを設置する必要がある。この場合、カメラの設置台数が多くなり、コストが掛かるだけでなく、カメラを向けられるユーザの心理的負担も高くなる。 Conventionally, an attribute recognition method using a face image is widely known as a technique for accurately recognizing a person's attributes such as gender and age from an image of the person photographed by a camera (see Patent Documents 1 and 2, for example). . However, in a store, for example, in order to recognize the attributes of a person who contacts a certain product group based on the face image, it is necessary to install a camera for acquiring the face image at each sales floor and each display shelf. . In this case, the number of cameras to be installed increases, which not only increases the cost but also increases the psychological burden on the user to whom the camera is directed.

そこで、コスト低減およびユーザの心理的負担の軽減の観点から、店舗の天井などにカメラを設置し、人物を上方から広域に撮影して画像を取得し、取得した画像から人物の属性を認識する方法が考えられる。例えば特許文献3のシステムでは、天井や壁面に設置したメインカメラで店舗全域を撮影して人物の画像部分を解析し、顧客の顔、髪型、衣服、身長、アクセサリ、靴などを総合的に考慮して性別、年齢層を推測し、特定が困難な場合は、売り場の陳列棚の近くに設置した補助カメラで撮影した顔画像を詳細に解析して性別、年齢層を推測するようにしている。 Therefore, from the viewpoint of reducing costs and reducing the psychological burden on users, a camera is installed on the ceiling of a store, etc., a person is photographed from above in a wide range, an image is acquired, and the attribute of the person is recognized from the acquired image. I can think of a way. For example, in the system of Patent Document 3, the main camera installed on the ceiling or wall captures the entire store and analyzes the image part of the person, comprehensively considering the customer's face, hairstyle, clothes, height, accessories, shoes, etc. If it is difficult to identify the person's gender and age group, the facial image captured by the auxiliary camera installed near the display shelf in the sales floor is analyzed in detail to guess the gender and age group. .

特開2010-61465号公報(請求項1~2、図1、図5等参照)Japanese Patent Application Laid-Open No. 2010-61465 (see claims 1 and 2, FIG. 1, FIG. 5, etc.) 特開2008-176689号公報(請求項1~2、図1等参照)Japanese Patent Application Laid-Open No. 2008-176689 (claims 1 and 2, see FIG. 1, etc.) 特開2007-74330号公報(請求項1~3、段落〔0021〕、〔0023〕、図1等参照)Japanese Patent Application Laid-Open No. 2007-74330 (claims 1 to 3, paragraphs [0021], [0023], see FIG. 1, etc.)

しかし、天井などに設置されたカメラで撮影された画像から、人物の属性を精度よく判定するのは難易度が高い。このことは、特許文献3において、属性の特定が困難な場合には、補助カメラによって取得される顔画像を利用して属性を推測していることからも容易に理解できる。 However, it is difficult to accurately determine a person's attribute from an image captured by a camera installed on the ceiling or the like. This can be easily understood from the fact that in Japanese Patent Application Laid-Open No. 2002-200012, when it is difficult to specify attributes, the attributes are estimated using the face image acquired by the auxiliary camera.

例えば、店舗内では、人物が歩行したり、立ち止まったり、陳列棚の下部の商品をとるためにしゃがみ込んだり、立ち上がったりする。このように、人物の位置、行動、姿勢などが時系列で変わる場合、撮影画像に基づく人物の属性の認識結果が各フレーム間で異なる場合があり得る。例えば、人物が歩行中であるフレームでは、撮影画像に基づいて「20代男性」との認識結果が得られ、同じ人物が立ち止まっているフレームでは、撮影画像に基づいて「40代男性」との認識結果が得られる場合があり得る。これは、人物が歩行中の場合、画像内で人物の像にブレが生じ、上記画像に基づく人物の属性の認識精度が低下することに起因する。 For example, in a store, people walk, stop, crouch, and stand up to pick up items from the lower shelves. In this way, when the position, action, posture, etc. of a person change in time series, the recognition result of the attribute of the person based on the captured image may differ between frames. For example, in a frame in which a person is walking, a recognition result of "man in his 20s" is obtained based on the captured image, and in a frame in which the same person is standing still, a recognition result of "man in his 40s" is obtained based on the captured image. A recognition result may be obtained. This is because when a person is walking, the image of the person blurs in the image, and the recognition accuracy of the attribute of the person based on the image is lowered.

同様に、例えば、人物がしゃがみ込んだフレームでは、撮影画像に基づいて「20代男性」との認識結果が得られ、同じ人物が立ち上がったフレームでは、撮影画像に基づいて「40代男性」との認識結果が得られる場合があり得る。これは、しゃがみ込んでいる人物を上方から撮影すると、人物の身体の一部が隠れた画像が取得され、人物の全身の画像データが得られないため、上記画像に基づく属性の認識精度が低下することに起因する。 Similarly, for example, in a frame in which a person crouches down, a recognition result of "man in his 20s" is obtained based on the captured image, and in a frame in which the same person stands up, a recognition result of "man in his 40s" is obtained based on the captured image. can be obtained. This is because when a person crouching down is photographed from above, an image with a part of the person's body hidden is obtained, and image data of the person's whole body cannot be obtained. due to

人物を上方から撮影した各フレームの画像に基づき、各フレーム間で同一人物の属性を判断(決定)する場合において、「歩行中」や「しゃがみ込み」など、属性の認識精度を低下させる事象(属性の認識に影響を及ぼす事象)が数フレーム(例えばmを2以上の自然数としてmフレーム)にわたって続くと、その後のフレームにおいて、上記事象の消滅によって高い精度で属性を認識できたとしても、上記数フレームにおける精度の低い属性の認識結果の影響により、全フレーム(例えばMをmよりも大きい3以上の自然数としてMフレーム)として誤った属性の決定(例えば、実際は「40代男性」である人物にして「20代男性」の属性決定)がなされる場合があり得る(この例については後述する実施の形態の中で比較例として説明する)。これでは、人物の属性を精度よく決定できているとは言えない。 When judging (determining) the attributes of the same person between each frame based on the image of each frame photographed from above, events such as "walking" and "squatting" that reduce the accuracy of attribute recognition ( event affecting the recognition of the attribute) continues for several frames (for example, m frames where m is a natural number of 2 or more), even if the attribute can be recognized with high accuracy due to the disappearance of the event in the subsequent frames, the above Due to the influence of low-accuracy attribute recognition results in a few frames, an erroneous attribute determination (for example, a person who is actually "a man in his 40s") is determined for all frames (for example, M frames where M is a natural number of 3 or more larger than m) (This example will be described as a comparative example in the embodiments described later). In this case, it cannot be said that the attributes of a person can be determined with high accuracy.

本発明は、上記の問題点を解決するためになされたもので、その目的は、人物を上方から撮影した各フレームの画像に基づいて各フレーム間で同一の人物の属性を決定する際に、属性の認識に影響を与える事象が数フレームにわたって続く場合でも、全体として(各フレームのトータルで)人物の属性を精度よく決定することができる属性決定装置、属性決定システムおよび属性決定方法を提供することにある。 The present invention has been made to solve the above problems, and its object is to determine the attributes of the same person between each frame based on the image of each frame photographing the person from above, To provide an attribute determination device, an attribute determination system, and an attribute determination method capable of accurately determining a person's attribute as a whole (total of each frame) even when an event affecting recognition of the attribute continues over several frames. That's what it is.

本発明の一側面に係る属性決定装置は、人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定装置であって、各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識部と、各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定部と、各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定部とを備えている。 An attribute determination device according to one aspect of the present invention is an attribute determination device that determines attributes of a person based on images of frames photographing the person from above, and based on the images of each frame, the a person recognizing unit for recognizing, for each frame, person information indicating information about the image of the person in the image, attributes of the person, and events affecting recognition of the attributes; and the person information of each frame. a person identification unit for determining whether or not the images of the person are the same person between frames based on Regarding a person, for each frame, attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is obtained for each class of the recognized attribute, and the attribute information is integrated in a plurality of frames for each class. an attribute determining unit that determines the attribute of the person based on the result of the determination.

本発明の他の側面に係る属性決定システムは、上記の属性決定装置と、前記属性決定装置と通信回線を介して接続される管理サーバーとを含み、前記管理サーバーは、前記属性決定装置から送出される情報を格納する格納部を備え、前記情報には、前記属性決定装置の前記属性決定部によって決定された前記属性が含まれる。 An attribute determination system according to another aspect of the present invention includes the attribute determination device described above, and a management server connected to the attribute determination device via a communication line, wherein the management server transmits from the attribute determination device The information includes the attribute determined by the attribute determination unit of the attribute determination device.

本発明のさらに他の側面に係る属性決定方法は、人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定方法であって、各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識工程と、各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定工程と、各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定工程とを含む。 An attribute determination method according to still another aspect of the present invention is an attribute determination method for determining an attribute of a person based on an image of each frame photographing the person from above, the method comprising: a person recognition step of recognizing, for each frame, person information indicating information of the image of the person in the image, an attribute of the person, and an event affecting recognition of the attribute; a person identification step of determining whether or not the image of the person is the same person between frames based on the person information; and determining whether the image of the person is the image of the same person between frames. attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is obtained for each class of the recognized attribute for each frame of the person, and the attribute information is obtained for a plurality of frames for each class. and an attribute determination step of determining the attributes of the person based on the integrated result of.

属性の認識に影響を与える事象が数フレームにわたって続く場合でも、最終的な属性決定に対する上記数フレームの悪影響を低減し、全体として(各フレームのトータルで)人物の属性を精度よく決定することができる。 Even if an event affecting attribute recognition continues over several frames, it is possible to reduce the adverse effects of the above few frames on the final attribute determination, and to accurately determine a person's attribute as a whole (total of each frame). can.

本発明の実施の一形態の属性決定システムの概略の構成を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the structure of the outline of the attribute determination system of one embodiment of this invention. 上記属性決定システムが有する属性決定装置の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the attribute determination apparatus which the said attribute determination system has. 任意のフレームの画像内の人物の像および人物矩形の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a person's image and a person's rectangle in an image of an arbitrary frame; 画像内における人物の像の様々な位置を模式的に示す説明図である。FIG. 4 is an explanatory diagram schematically showing various positions of a person's image within an image; nフレーム目の画像と、(n+1)フレーム目の画像とを模式的に示す説明図である。FIG. 4 is an explanatory diagram schematically showing an n-th frame image and an (n+1)-th frame image; 上記属性決定システムが有する管理サーバーの詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the management server which the said attribute determination system has. 上記属性決定システムにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the said attribute determination system. 上記属性決定システムにおいて、1フレーム目について得られた情報の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of information obtained for the first frame in the attribute determination system; 上記属性決定システムにおいて、2フレーム目について得られた情報の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of information obtained for a second frame in the attribute determination system; 上記属性決定システムにおいて、3フレーム目について得られた情報の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of information obtained for the third frame in the attribute determination system; 本発明の他の実施の形態の属性決定システムにおいて得られる、時間的に異なる複数フレームのうち、一部のフレームの画像を模式的に示す説明図である。FIG. 10 is an explanatory diagram schematically showing images of some frames out of a plurality of temporally different frames obtained in an attribute determination system according to another embodiment of the present invention; 上記属性決定システムにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the said attribute determination system. 上記属性決定システムにおいて、1フレーム目について得られた情報の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of information obtained for the first frame in the attribute determination system; 上記属性決定システムにおいて、2フレーム目について得られた情報の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of information obtained for a second frame in the attribute determination system; 上記属性決定システムにおいて、3フレーム目について得られた情報の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of information obtained for the third frame in the attribute determination system; 本発明のさらに他の実施の形態の属性決定システムにおいて得られる、時間的に異なる複数フレームのうち、一部のフレームの画像を模式的に示す説明図である。FIG. 10 is an explanatory diagram schematically showing images of a part of a plurality of temporally different frames obtained in an attribute determination system according to still another embodiment of the present invention; 上記属性決定システムにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the said attribute determination system. 上記属性決定システムにおいて、1フレーム目および2フレーム目について得られた情報の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of information obtained for the first and second frames in the attribute determination system; 上記属性決定システムにおいて、3フレーム目について得られた情報の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of information obtained for the third frame in the attribute determination system; 本発明のさらに他の実施の形態の属性決定システムにおいて、2人の人物を上方から撮影した任意のフレームの画像を模式的に示す説明図である。FIG. 11 is an explanatory diagram schematically showing an arbitrary frame image of two persons photographed from above in an attribute determination system according to still another embodiment of the present invention; 上記画像内で、2人の人物の像の位置を規定する人物矩形をそれぞれ示す説明図である。It is explanatory drawing which each shows the person rectangle which prescribe|regulates the position of the image of two people in the said image. 上記属性決定システムにおける処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the said attribute determination system. 上記属性決定システムにおいて、1フレーム目および2フレーム目について得られた情報の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of information obtained for the first and second frames in the attribute determination system; 上記属性決定システムにおいて、3フレーム目について得られた情報の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of information obtained for the third frame in the attribute determination system;

本発明の各実施の形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 Each embodiment of the present invention will be described below with reference to the drawings. In addition, the present invention is not limited to the following contents.

<実施の形態1>
〔属性決定システム〕
図1は、本実施形態の属性決定システム1の概略の構成を示すブロック図である。属性決定装置1は、撮像部2と、属性決定装置3と、管理サーバー4とを有して構成されている。撮像部2と属性決定装置3とは、通信回線N1を介して通信可能に接続されており、属性決定装置3と管理サーバー4とは、通信回線N2を介して通信可能に接続されている。通信回線N1およびN2は、例えばケーブル、光ファイバー、有線LAN(Local Area Network)、無線LAN、インターネット回線などから適宜選択されて構成される。以下、撮像部2、属性決定装置3および管理サーバー4の詳細について説明する。
<Embodiment 1>
[Attribute determination system]
FIG. 1 is a block diagram showing a schematic configuration of an attribute determination system 1 of this embodiment. The attribute determination device 1 includes an imaging unit 2, an attribute determination device 3, and a management server 4. FIG. The imaging unit 2 and the attribute determination device 3 are communicably connected via a communication line N1, and the attribute determination device 3 and the management server 4 are communicably connected via a communication line N2. The communication lines N1 and N2 are appropriately selected from, for example, cables, optical fibers, wired LANs (Local Area Networks), wireless LANs, Internet lines, and the like. Details of the imaging unit 2, the attribute determination device 3, and the management server 4 will be described below.

(撮像部)
撮像部2は、例えば店舗の天井または壁に設置され、店舗内の人物を上方から撮影して時間的に異なる各フレームの画像を取得するカメラで構成されている。店舗内に設置される撮像部2の台数は、特に限定されず、1台であってもよいし、2台以上であってもよい。少なくとも1台の撮像部2で取得された画像のデータは、通信回線N1を介して属性決定装置3に出力される。
(imaging unit)
The imaging unit 2 is installed, for example, on the ceiling or wall of the store, and is composed of a camera that captures images of people in the store from above and obtains images of frames that differ in time. The number of imaging units 2 installed in the store is not particularly limited, and may be one or two or more. Image data acquired by at least one imaging unit 2 is output to the attribute determination device 3 via the communication line N1.

(属性決定装置)
属性決定装置3は、撮像部2で取得されて該属性決定装置3に入力された画像、つまり、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する端末装置であり、例えばパーソナルコンピュータで構成されている。属性決定装置3は、撮像部2が設置される店舗と同じ店舗内に設置されていてもよいし、店舗の外部に撮像部2と通信可能に設置されていてもよい。
(attribute determination device)
The attribute determination device 3 is a terminal device that determines the attributes of a person based on the image acquired by the imaging unit 2 and input to the attribute determination device 3, that is, the image of each frame obtained by photographing the person from above. , for example, a personal computer. The attribute determination device 3 may be installed in the same store as the store where the imaging unit 2 is installed, or may be installed outside the store so as to communicate with the imaging unit 2 .

図2は、属性決定装置3の詳細な構成を示すブロック図である。属性決定装置3は、認識処理部11と、記憶部12と、入力部13と、表示部14と、通信部15と、制御部16とを有して構成されている。 FIG. 2 is a block diagram showing the detailed configuration of the attribute determination device 3. As shown in FIG. The attribute determination device 3 includes a recognition processing section 11 , a storage section 12 , an input section 13 , a display section 14 , a communication section 15 and a control section 16 .

記憶部12は、属性決定装置3の各部を動作させるための動作プログラム、および認識処理部11での処理によって得られるデータ(例えば決定された人物の属性に関する情報)等を記憶するメモリであり、例えばハードディスクで構成されている。なお、記憶部12は、RAM(Random Access Memory)、ROM(Read Only Memory)、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。 The storage unit 12 is a memory that stores an operation program for operating each unit of the attribute determination device 3, data obtained by processing in the recognition processing unit 11 (for example, information about the attribute of the determined person), etc. For example, it consists of a hard disk. Note that the storage unit 12 may be configured by appropriately selecting from recording media such as RAM (Random Access Memory), ROM (Read Only Memory), optical disk, magneto-optical disk, and nonvolatile memory.

入力部13は、例えばキーボード、マウス、タッチパッド、タッチパネルなどで構成され、例えば属性決定装置3を操作する操作者(ユーザ)による各種の指示入力を受け付ける。表示部14は、認識処理部11での処理結果(例えば決定された属性)をはじめとして、各種の情報を表示するデバイスであり、例えば液晶表示装置で構成される。通信部15は、外部と通信するための入出力ポートを含むインターフェースである。通信部15は、外部と無線通信を行う場合、アンテナ、送受信回路、変調回路、復調回路などを含んで構成される。制御部16は、属性決定装置3の各部の動作を制御する中央演算処理装置(CPU;Central Processing Unit)で構成されており、記憶部12に記憶された動作プログラムに従って動作する。 The input unit 13 is composed of, for example, a keyboard, a mouse, a touch pad, a touch panel, etc., and receives various instruction inputs from an operator (user) who operates the attribute determination device 3, for example. The display unit 14 is a device for displaying various kinds of information including the processing result (for example, determined attributes) of the recognition processing unit 11, and is configured by, for example, a liquid crystal display device. The communication unit 15 is an interface including an input/output port for communicating with the outside. The communication unit 15 includes an antenna, a transmission/reception circuit, a modulation circuit, a demodulation circuit, and the like when performing wireless communication with the outside. The control section 16 is composed of a central processing unit (CPU) that controls the operation of each section of the attribute determination device 3 , and operates according to an operation program stored in the storage section 12 .

認識処理部11は、人物の属性決定にかかわる処理を行う演算装置であり、例えばリアルタイムな画像処理に特化した演算装置であるGPU(Graphics Processing Unit)で構成されている。なお、認識処理部11は、制御部16と同一のまたは別個のCPUで構成されていてもよい。このような認識処理部11は、人物認識部11aと、人物同定部11bと、属性決定部11cとを有している。すなわち、認識処理部11を構成するGPUは、人物認識部11aと、人物同定部11bと、属性決定部11cとしての機能を有している。 The recognition processing unit 11 is an arithmetic device that performs processing related to determination of attributes of a person, and includes, for example, a GPU (Graphics Processing Unit) that is an arithmetic device specialized for real-time image processing. Note that the recognition processing unit 11 may be configured with the same CPU as the control unit 16 or a separate CPU. Such a recognition processing section 11 has a person recognition section 11a, a person identification section 11b, and an attribute determination section 11c. That is, the GPU that constitutes the recognition processing unit 11 has functions as a person recognition unit 11a, a person identification unit 11b, and an attribute determination unit 11c.

人物認識部11aは、人物を上方から撮影した各フレームの画像に基づいて、画像内における人物の像の情報を示す人物情報と、人物の属性と、属性の認識に影響を与える事象とを、各フレームごとに認識する。 Based on an image of each frame in which a person is photographed from above, the person recognition unit 11a recognizes person information indicating information about the image of the person in the image, attributes of the person, and events affecting the recognition of the attributes. Recognize each frame.

上記人物情報には、例えば、画像内における人物の像の位置、人物の像に含まれる色の種類および比率、人物の像の大きさなどが含まれる。ここで、画像内における人物の像の位置は、例えば上記画像内で上記像を含む人物矩形によって規定される。図3は、任意のフレームの画像2a内の人物の像Pおよび人物矩形Rの一例を示している。なお、図3において、符号5は、店舗内の商品棚を指し、符号6は、店舗内の通路を指す。画像2a内の人物の像Pの認識(人物像の有無および位置の認識)は、例えば公知の画像処理ソフトウェアに基づく処理により、人物の頭の形状および位置、各関節位置などを特定することによって行うことができる。人物認識部11aは、画像2a内で人物の像Pを認識すると、画像2a内で人物の像Pを取り囲む人物矩形Rを設定することができ、この人物矩形Rにより、画像2a内での人物の像Pの位置を規定することができる。 The person information includes, for example, the position of the person's image in the image, the type and ratio of colors included in the person's image, the size of the person's image, and the like. Here, the position of the image of the person in the image is defined, for example, by a person rectangle containing the image in the image. FIG. 3 shows an example of a person image P and a person rectangle R in an image 2a of an arbitrary frame. In FIG. 3, reference numeral 5 indicates a product shelf in the store, and reference numeral 6 indicates an aisle in the store. Recognition of the image P of the person in the image 2a (recognition of the presence or absence and position of the person image) is performed by, for example, processing based on known image processing software to specify the shape and position of the person's head, the positions of each joint, etc. It can be carried out. When the person recognition unit 11a recognizes the person image P in the image 2a, the person recognition unit 11a can set a person rectangle R surrounding the person image P in the image 2a. can define the position of the image P of .

なお、人物矩形Rは、画像2a内における人物の像Pの位置を正確に規定する点では、人物の像Pの少なくとも一部と接するように、人物の像Pを取り囲む矩形(枠)であることが望ましいが、必ずしも人物の像Pと接していることは必要とされない。例えば、人物矩形Rと人物の像Pとの間に、所定の(少しの)マージンがあってもよい。また、矩形とは、一般的に長方形を指すが、ここでは、長方形の特殊な形状である正方形も含む概念とする。 Note that the person rectangle R is a rectangle (frame) surrounding the person image P so as to be in contact with at least a part of the person image P in terms of accurately defining the position of the person image P in the image 2a. However, it is not necessarily required to be in contact with the image P of the person. For example, there may be a predetermined (small) margin between the person rectangle R and the image P of the person. Also, a rectangle generally refers to a rectangle, but here, the concept includes a square, which is a special shape of a rectangle.

上記した人物の属性は、人物の年齢および性別の少なくとも一方である。なお、人物認識部11aは、人物の年齢を、1歳ごとの満年齢で認識してもよいが、20代、30代、40代などの大まかな年代で認識してもよいし、子供、大人、老人などの区分で認識してもよい。性別は、男性または女性を示す。 The attribute of the person described above is at least one of age and sex of the person. The person recognizing unit 11a may recognize the age of the person in terms of the full age of each year, but may also recognize the age of the person in general ages such as the 20s, 30s, and 40s. , old people, and so on. Gender indicates male or female.

本実施形態では、人物認識部11aは、深層学習(ディープラーニング)などの機械学習が可能なニューラルネットワークを含んで構成されており、このニューラルネットワークを利用して、人物の属性を認識することができる。より具体的には、各フレームの画像のデータを、属性認識について予め学習されたニューラルネットワークに入力すると、ニューラルネットワークから属性の認識結果が出力されるとともに、その認識結果の確からしさを示すスコアが算出される。これにより、例えば、人物の年齢は40代であり、性別は男性であるという認識結果と、その確からしさを示すスコア(例えば0.8)とを得ることができる。なお、上記スコアは、0~1の間の値(点数)であり、1に近づくほど認識結果の確からしさが増大することを示す。 In this embodiment, the person recognition unit 11a includes a neural network capable of machine learning such as deep learning. Using this neural network, the person's attributes can be recognized. can. More specifically, when the image data of each frame is input to a neural network that has been trained for attribute recognition in advance, the neural network outputs attribute recognition results and scores that indicate the likelihood of the recognition results. Calculated. As a result, it is possible to obtain, for example, the recognition result that the person is in his 40s and the gender is male, and a score (for example, 0.8) indicating the probability of the recognition. The score is a value (score) between 0 and 1, and the closer to 1, the more likely the recognition result is.

上記した属性の認識に影響を与える事象には、例えば、画像内における人物の像の位置が含まれる。図4は、画像2a内における人物の像Pの様々な位置を模式的に示している。画像2a内の(1)の位置では、店舗内の吊り看板7で人物の像Pの一部が遮られており、(2)の位置では、撮像部2の直下に人物が位置しているために、人物の全身が画像2aに映りにくくなっている。これらのケースでは、属性を認識するための人物の画像データが欠損するため、画像に基づく人物の属性の認識に影響を与える。つまり、上記(1)および(2)で示した人物の像Pの位置は、人物の属性の認識に影響を与える事象となる。一方、画像2a内で、人物の像Pが画像端に近い(3)の位置では、人物の全身が撮影されているため、属性を認識するための人物の画像データが十分存在し、画像に基づく属性の認識に最適となる。つまり、上記(3)の位置は、人物の属性の認識に影響を与える事象とはならない。ただし、人物の像Pが(3)の位置よりも画像端に寄りすぎると、人物の像Pが画像2a内に収まらず、人物の画像データが欠損する可能性があり、この場合は、人物の属性の認識に影響を与える事象となり得る。 Events that affect the recognition of the above attributes include, for example, the position of a person's image within an image. FIG. 4 schematically shows various positions of a person's image P within the image 2a. At the position (1) in the image 2a, a part of the image P of the person is blocked by the hanging signboard 7 inside the store, and at the position (2), the person is positioned directly below the imaging unit 2. Therefore, it is difficult for the whole body of the person to appear in the image 2a. In these cases, the image data of the person for recognizing the attributes is missing, which affects the recognition of the attributes of the person based on the image. That is, the position of the person's image P shown in (1) and (2) above is an event that affects the recognition of the person's attribute. On the other hand, in the image 2a, at the position (3) where the image P of the person is close to the edge of the image, the whole body of the person is photographed. It is ideal for recognizing attributes based on In other words, the position (3) above does not become an event that affects the recognition of a person's attribute. However, if the person's image P is too close to the edge of the image from the position of (3), the person's image P will not fit in the image 2a, and there is a possibility that the person's image data will be lost. It can be an event that affects the recognition of the attributes of

人物同定部11bは、人物認識部11aによって認識された各フレームの人物情報(時系列情報)に基づいて、各フレーム間で(人物矩形内の)人物の像が同一人の像であるか否かを判断する。図5は、nフレーム目の画像2aと、(n+1)フレーム目の画像2aとを模式的に示している(nは自然数とする)。例えば、人物同定部11bは、nフレーム目の画像2a内の人物矩形Rnの位置と、(n+1)フレーム目の画像2a内の人物矩形Rn+1の位置とを比較し、これらの位置の差(人物矩形の移動量)が所定範囲内(フレームレートに応じて決まる)であるか否かを判断することにより、人物矩形Rnと人物矩形Rn+1とが同一人について示すものであるか否か、つまり、人物矩形Rn内の人物の像Pnと、人物矩形Rn+1内の人物の像Pn+1とが同一人の像であるか否かを判断することができる。 Based on the person information (time-series information) of each frame recognized by the person recognition unit 11a, the person identification unit 11b determines whether the image of the person (within the person rectangle) is the image of the same person between the frames. to judge whether FIG. 5 schematically shows the n-th frame image 2a and the (n+1)-th frame image 2a (where n is a natural number). For example, the person identification unit 11b compares the position of the person rectangle R n in the n-th frame image 2a with the position of the person rectangle R n+1 in the (n+1)-th frame image 2a, and determines these positions. (the amount of movement of the person rectangle) is within a predetermined range (determined according to the frame rate ) . That is, it is determined whether the person image Pn in the person rectangle Rn and the person image Pn +1 in the person rectangle Rn+ 1 are the same person. be able to.

また、人物同定部11bは、人物矩形Rnの縦(横)の長さと、人物矩形Rn+1の縦(横)の長さとの差が所定範囲内であるか否か、人物矩形Rn内で各色が占める面積と、人物矩形Rn+1内で各色が占める面積との差(または比)が所定範囲内であるか否か、などを判断することによって、人物矩形Rn内の人物の像Pnと、人物矩形Rn+1内の人物の像Pn+1とが同一人の像であるか否かを判断してもよい。 The person identification unit 11b also determines whether the difference between the vertical (horizontal) length of the person rectangle R n and the vertical (horizontal) length of the person rectangle R n+1 is within a predetermined range. By determining whether the difference (or ratio) between the area occupied by each color within n and the area occupied by each color within person rectangle R n+1 is within a predetermined range, and the person image P n+1 in the person rectangle R n+1 are the same person image.

属性決定部11cは、人物同定部11bによって各フレーム間で人物の像が同一人の像であると判断された人物に関して、各フレームごとに、属性の認識結果に事象の認識結果を加味した属性情報を、認識した属性の各クラスについて求める。例えば、属性として年齢および性別を考えたとき、年齢のクラスとしては、例えば20代、30代、40代、・・・が存在し、性別のクラスとしては、男性および女性の2クラスが存在する。したがって、属性全体のクラスとしては、年齢のクラス数×性別のクラス数だけ存在することになる。よって、属性決定部11cは、各クラスごとに(例えば20代男性、30代男性、・・・40代女性の各クラスごとに)、属性情報を求めることになる。なお、属性情報の具体例については後述する。特に、属性決定部11cは、属性の認識に影響を与える事象(ここでは人物の像の位置)の認識結果に対応してスコアの信頼度(採用率)を設定し、人物認識部11aによって算出されたスコアと、設定した上記信頼度とに基づいて、上記クラスごとに上記属性情報を求める。 The attribute determining unit 11c determines, for each frame, the attribute recognition result obtained by adding the event recognition result to the attribute recognition result for a person for whom the person identifying unit 11b determines that the image of the person in each frame is the image of the same person. Information is sought for each class of recognized attributes. For example, when considering age and gender as attributes, age classes include, for example, 20s, 30s, 40s, etc., and gender classes include two classes, male and female. . Therefore, as classes for all attributes, there are as many as the number of age classes×the number of gender classes. Therefore, the attribute determination unit 11c obtains attribute information for each class (for example, for each class of men in their 20s, men in their 30s, . . . women in their 40s). A specific example of attribute information will be described later. In particular, the attribute determination unit 11c sets the reliability (adoption rate) of the score corresponding to the recognition result of the event (here, the position of the image of the person) that affects the recognition of the attribute, and the person recognition unit 11a calculates The attribute information is obtained for each class based on the calculated score and the set reliability.

ここで、上記の信頼度としては、例えば0~1の数値範囲を考えることができる。例えば、図4で示した画像2a内で、人物の像Pが(3)の位置にある場合、上述したように上記位置が人物の属性の認識に与える影響はほとんどないため、この場合は、スコアの信頼度を1.0に設定する。また、人物の像Pが(2)または(3)の位置にある場合、上述したように、上記位置は人物の属性の認識に悪影響を及ぼす可能性があるため、例えば(2)の位置については、スコアの信頼度を0.7に設定し、(1)の位置については、スコアの信頼度を0.2に設定する。なお、画像2a内でユーザが任意にエリアを設定し、設定したエリアごとに上記の信頼度を設定してもよい。 Here, a numerical range of 0 to 1, for example, can be considered as the above reliability. For example, in the image 2a shown in FIG. 4, when the image P of a person is at position (3), as described above, the position has little effect on the recognition of the attributes of the person. Set the score confidence to 1.0. Further, when the image P of the person is at the position (2) or (3), as described above, the above position may adversely affect the recognition of the person's attributes. sets the confidence of the score to 0.7, and for the position of (1) sets the confidence of the score to 0.2. Note that the user may arbitrarily set an area within the image 2a and set the above reliability for each set area.

属性決定部11cは、人物認識部11aによって算出されたスコアに、上記信頼度を乗算することによって属性情報をクラスごとに求め、各クラスについて、属性情報を複数フレームで統合した結果に基づいて、人物の属性を決定する。なお、属性決定の処理の詳細については、後述する動作説明の中で行う。 The attribute determination unit 11c obtains attribute information for each class by multiplying the score calculated by the person recognition unit 11a by the reliability, and based on the result of integrating the attribute information in a plurality of frames for each class, Determine the attributes of a person. The details of the attribute determination process will be described later in the explanation of the operation.

(管理サーバー)
図1で示した管理サーバー4は、属性決定装置3で決定された人物の属性に関する情報を格納する端末装置であり、例えばパーソナルコンピュータで構成されている。図6は、管理サーバー4の詳細な構成を示すブロック図である。管理サーバー4は、格納部21と、通信部22と、制御部23とを有している。
(management server)
The management server 4 shown in FIG. 1 is a terminal device that stores information about a person's attributes determined by the attribute determination device 3, and is configured by, for example, a personal computer. FIG. 6 is a block diagram showing the detailed configuration of the management server 4. As shown in FIG. The management server 4 has a storage section 21 , a communication section 22 and a control section 23 .

格納部21は、管理サーバー4の各部を動作させるための動作プログラム、および属性決定装置3から送出される情報(例えば属性決定部11cによって決定された属性)を格納するメモリであり、例えばハードディスクで構成されている。なお、格納部21は、RAM、ROM、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。 The storage unit 21 is a memory that stores an operation program for operating each unit of the management server 4 and information sent from the attribute determination device 3 (for example, attributes determined by the attribute determination unit 11c). It is configured. The storage unit 21 may be configured by appropriately selecting recording media such as RAM, ROM, optical disk, magneto-optical disk, and non-volatile memory.

通信部22は、外部と通信するための入出力ポートを含むインターフェースである。通信部22は、外部と無線通信を行う場合、アンテナ、送受信回路、変調回路、復調回路などを含んで構成される。制御部23は、管理サーバー4の各部の動作を制御するCPUで構成されており、格納部21に記憶された動作プログラムに従って動作する。 The communication unit 22 is an interface including an input/output port for communicating with the outside. The communication unit 22 includes an antenna, a transmission/reception circuit, a modulation circuit, a demodulation circuit, and the like when performing wireless communication with the outside. The control unit 23 is composed of a CPU that controls the operation of each unit of the management server 4 and operates according to the operation program stored in the storage unit 21 .

なお、管理サーバー4は、その他、キーボードなどの入力部、ディスプレイなどの表示部、属性決定装置3の認識処理部11と同様の処理を行う演算処理部を含んで構成されていてもよい。 The management server 4 may also include an input unit such as a keyboard, a display unit such as a display, and an arithmetic processing unit that performs the same processing as the recognition processing unit 11 of the attribute determination device 3 .

〔属性決定方法〕
次に、本実施形態の属性決定システム1における動作(属性決定方法)について説明する。図7は、上記属性決定システム1における処理の流れを示すフローチャートである。なお、以下での説明を簡略化するため、ここでは、人物の属性を、「40代男性」と「20代男性」との2クラスに分類することとし、属性を判断する対象となる人物は、「40代男性」であるとする(「40代男性」が属性として正解であるとする)。なお、以下で示す属性Anは、nフレーム目の画像に基づいて人物認識部11aが認識した属性であって、nフレーム目の画像に映っている人物の属性を示し、属性決定部11cが最終的に決定する属性Bとは区別されるものとする。
[Attribute determination method]
Next, the operation (attribute determination method) in the attribute determination system 1 of this embodiment will be described. FIG. 7 is a flow chart showing the flow of processing in the attribute determination system 1 described above. In order to simplify the explanation below, here, the attributes of a person are classified into two classes, "male in his 40s" and "male in his 20s". , “male in his 40s” (assuming that “male in his 40s” is the correct attribute). An attribute A n shown below is an attribute recognized by the person recognition unit 11a based on the n-th frame image, and indicates the attribute of the person appearing in the n-th frame image. It shall be distinguished from attribute B which is finally determined.

まず、属性決定装置3は、撮像部2から、n=1として(S1)、1フレーム目の画像を取得すると(S2)、人物認識部11aは、上記画像に基づき、上述した手法で、人物矩形Rn(=R1)と、人物の属性An(=A1)と、属性Anの認識に影響を与える事象(ここでは人物矩形Rnによって規定される人物の像Pn(=P1)の位置)とを認識するとともに、属性Anの認識結果の確からしさを示すスコアCn(=C1)を算出する(S3;人物認識工程)。これらの認識結果およびスコアCnは、記憶部12に記憶される。 First, when the attribute determination device 3 acquires the image of the first frame from the imaging unit 2 with n=1 (S1) (S2), the person recognition unit 11a recognizes the person by the method described above based on the image. A rectangle R n (=R 1 ), a person attribute A n (=A 1 ), and an event affecting the recognition of the attribute A n (here, a person image P n ( = The position of P 1 )) is recognized, and a score C n ( =C 1 ) indicating the certainty of the recognition result of the attribute An is calculated (S3; person recognition step). These recognition results and scores C n are stored in the storage unit 12 .

次に、人物同定部11bは、人物矩形Rn内の人物を同定するが(S4;人物同定工程)、最初のフレームであるため(n=1であるため)、人物矩形Rn内の人物の像Pnに識別番号を付与することをもって人物の同定とする(例えばID=0001とする)。S3で認識した人物矩形Rn等の情報は、S4で付与された識別番号と対応付けて記憶部12に記憶される。なお、S4の処理は、人物矩形Rnが認識された後であれば、S3の属性Anの認識、上記事象の認識、スコアCnの算出と並行して行われてもよい。 Next , the person identification unit 11b identifies a person within the person rectangle R n (S4; person identification step). A person is identified by assigning an identification number to the image P n of (for example, ID=0001). Information such as the person rectangle Rn recognized in S3 is stored in the storage unit 12 in association with the identification number assigned in S4. The process of S4 may be performed in parallel with the recognition of the attribute A n in S3, the recognition of the event, and the calculation of the score C n after the person rectangle R n is recognized.

続いて、属性決定部11cは、S3での属性Anの認識に影響を与える事象の認識結果に対応してスコアCnの信頼度f(An)(=f(A1))を設定する(S5~S7)。つまり、S3にて認識された事象(人物の像Pnの位置)が、属性認識に影響を与える位置である場合(S5でYes)、属性決定部11cは、上記事象の認識結果に対応して、スコアCnの信頼度f(An)を1未満に設定する(S6)。一方、S3にて認識された事象(人物の像Pnの位置)が、属性認識に影響を与えない位置である場合(S5でNo)、属性決定部11cは、スコアCnの信頼度f(An)を1に設定する(S7)。なお、上記の信頼度f(An)は、S5での認識結果、つまり、属性Anの認識に影響を与える事象の認識結果に対応して設定される値であり、S3での属性Anの認識結果(クラス)には依存しない(以下の実施形態でも同じ)。 Subsequently, the attribute determination unit 11c sets the reliability f(A n ) (=f(A 1 )) of the score C n corresponding to the recognition result of the event affecting the recognition of the attribute A n in S3. (S5 to S7). In other words, if the event (the position of the person's image P n ) recognized in S3 is a position that affects attribute recognition (Yes in S5), the attribute determination unit 11c determines whether the event recognition result corresponds to the event recognition result. Then, the reliability f(A n ) of the score C n is set to less than 1 (S6). On the other hand, if the event (the position of the person's image P n ) recognized in S3 is a position that does not affect attribute recognition (No in S5), the attribute determining unit 11c determines the reliability f (A n ) is set to 1 (S7). The above reliability f(A n ) is a value set corresponding to the recognition result in S5, that is, the recognition result of an event that affects the recognition of attribute A n . It does not depend on the recognition result (class) of n (the same applies to the following embodiments).

次に、属性決定部11cは、S3で算出されたスコアCnと、上記で設定した信頼度f(An)とに基づいて、属性情報Qn(=Q1)を属性Anのクラスごとに求める(S8)。例えば、「20代男性」、「40代男性」のクラスごとに、スコアCn×信頼度f(An)の値が、属性情報Qnとして求められる。求めた属性情報Qnは、記憶部12に人物の識別情報と対応付けて記憶される。 Next, based on the score C n calculated in S3 and the reliability f(A n ) set above, the attribute determination unit 11c assigns the attribute information Q n (=Q 1 ) to the attribute A n class (S8). For example, a value of score C n ×reliability f(A n ) is obtained as the attribute information Q n for each class of “male in his 20s” and “male in his 40s”. The obtained attribute information Q n is stored in the storage unit 12 in association with the person's identification information.

ここで、図8は、1フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、属性A1が「20代男性」(この属性のクラスを「P20M」とする)である確からしさを示すスコアC1(P20M)が0.7であり、属性A1が「40代男性」(この属性のクラスを「P40M」とする)である確からしさを示すスコアC1(P40M)が0.01となっている。画像内において、人物の像P1の位置が、属性A1の認識に影響を与える位置(図4の(1)の位置と同じ)であり、人物認識部11aが上記画像に基づいて人物の属性A1の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC1(P40M)よりも、「20代男性」のスコアC1(P20M)のほうが高くなっている。 Here, FIG. 8 shows an example of information obtained for the first frame. In this example, for the person with ID=0001, the score C 1 (P 20M ) indicating the likelihood that the attribute A 1 is "male in his 20s" (this attribute class is "P 20M ") is 0.7. , and the score C 1 (P 40M ) indicating the likelihood that the attribute A 1 is "male in his 40s" (the class of this attribute is "P 40M ") is 0.01. In the image, the position of the person's image P1 is the position that affects the recognition of the attribute A1 (same as the position of (1) in FIG. 4), and the person recognition unit 11a recognizes the person based on the image. As a result of not being able to accurately recognize attribute A 1 , even though “male in his 40s” was the correct answer, the score C 1 (P 40M ) for “male in his 40s” was lower than “male in his 20s”. ' score C 1 (P 20M ) is higher.

そこで、人物の像P1の位置が属性A1の認識に影響を与える位置であることを考慮し、図8の例では、スコアC1の信頼度f(A1)を、f(A1)=f1(A1)=0.2に設定している。これにより、各クラスについて、属性A1の認識結果に上記位置の認識結果を加味した属性情報Q1として、「20代男性」のクラスについては、Q1(P20M)=C1(P20M)×f1(A1)=0.7×0.2=0.14が得られており、「40代男性」のクラスについては、Q1(P40M)=C1(P40M)×f1(A1)=0.01×0.2=0.002が得られている。 Therefore, considering that the position of the person's image P 1 is a position that affects the recognition of the attribute A 1 , in the example of FIG. )=f 1 (A 1 )=0.2. As a result, for each class, the attribute information Q 1 obtained by adding the recognition result of the position to the recognition result of the attribute A 1 , Q 1 (P 20M )=C 1 (P 20M ) for the class of "male in his twenties" ) ×f 1 (A 1 ) = 0.7 × 0.2 =0.14. f 1 (A 1 )=0.01×0.2=0.002 is obtained.

次に、属性決定部11cは、処理を継続するか否か、つまり、次の(n+1)フレーム目の画像についても、上記と同様の処理を行うか否かを判断する(S9)。基本的には、属性決定部11cは、S9にて処理を継続すると判断して、S10に移行する。S10では、属性決定装置3は、n=n+1とし、その後、S2以降の処理を繰り返す。つまり、属性決定装置3は、撮像部2から、2フレーム目の画像を取得して、S2以降の処理を繰り返す。この場合、S4では、人物同定部11bは、1フレーム目の人物情報と、2フレーム目の人物情報(例えば各フレームにおける人物矩形の位置(移動量)、大きさなど)に基づいて、各フレーム間で人物矩形内の人物の像が同一人の像であるか否かを判断する。 Next, the attribute determination unit 11c determines whether or not to continue the processing, that is, whether or not to perform the same processing as above on the next (n+1)-th frame image (S9). Basically, the attribute determination unit 11c determines to continue the processing in S9, and shifts to S10. In S10, the attribute determination device 3 sets n=n+1, and then repeats the processes after S2. That is, the attribute determination device 3 acquires the image of the second frame from the imaging unit 2, and repeats the processing from S2 onward. In this case, in S4, the person identification unit 11b identifies each frame based on the person information of the first frame and the person information of the second frame (for example, the position (movement amount), size, etc. of the person rectangle in each frame). In between, it is determined whether or not the images of the person in the person rectangle are the images of the same person.

以降、同様にして、(n+2)フレーム目以降の画像についても、S2以降の処理を繰り返す。そして、例えば、(n+k)フレーム目(kは3以上の自然数とする)の画像に基づいて認識された人物のIDが、(n+(k-1))フレーム目の画像に基づいて認識された人物のIDと異なる場合、属性決定部11cは、各フレーム間で同一人についての属性Bを決定できないため、S9にて、処理を継続しないと判断してS11に移行する。 After that, similarly, the processing after S2 is repeated also for the images after the (n+2)th frame. Then, for example, the ID of the person recognized based on the (n+k)-th frame image (where k is a natural number of 3 or more) is recognized based on the (n+(k−1))-th frame image. If it is different from the person's ID, the attribute determination unit 11c cannot determine the attribute B for the same person between frames, so in S9 it is determined not to continue the process, and the process proceeds to S11.

図9は、2フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、1フレーム目と同様に、属性A2が「20代男性」である確からしさを示すスコアC2(P20M)が0.7であり、属性A2が「40代男性」である確からしさを示すスコアC2(P40M)が0.01となっている。画像内において、人物の像P2の位置が、属性A2の認識に影響を与える位置(図4の(2)の位置と同じ)であり、人物認識部11aが上記画像に基づいて人物の属性A2の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「20代男性」のスコアC2(P40M)よりも、「20代男性」のスコアC2(P20M)のほうが高くなっている。 FIG. 9 shows an example of information obtained for the second frame. In this example, for the person with ID=0001, the score C 2 ( P 20M ) indicating the likelihood that the attribute A 2 is “male in his 20s” is 0.7, as in the first frame. The score C 2 (P 40M ) indicating the likelihood that the person is a “male in his 40s” is 0.01. In the image, the position of the person image P2 is the position that affects the recognition of the attribute A2 (same as the position (2) in FIG. 4), and the person recognition unit 11a recognizes the person based on the image. As a result of not being able to accurately recognize attribute A 2 , even though "male in his 40s" is the correct answer, the score of "male in his 20s" is lower than the score C 2 (P 40M ) ' score C 2 (P 20M ) is higher.

そこで、人物の像P2の位置が属性A2の認識に影響を与える位置であることを考慮し、図9の例では、スコアC2の信頼度f(A2)を、f(A2)=f2(A2)=0.7に設定している。これにより、各クラスについて、属性A2の認識結果に上記位置の認識結果を加味した属性情報Q2として、「20代男性」のクラスについては、Q2(P20M)=C2(P20M)×f2(A2)=0.7×0.7=0.49が得られており、「40代男性」のクラスについては、Q2(P40M)=C2(P40M)×f2(A2)=0.01×0.7=0.007が得られている。なお、人物像の上記(2)の位置は、上記(1)の位置に比べて属性認識に与える影響が小さいため、スコアC2の信頼度f(A2)を、スコアC1の信頼度f(A1)よりも高く設定している。 Considering that the position of the person image P2 affects the recognition of the attribute A2 , in the example of FIG. )=f 2 (A 2 )=0.7. As a result, for each class, the attribute information Q2 obtained by adding the recognition result of the position to the recognition result of the attribute A2 is calculated as follows: Q2 ( P20M )= C2 ( P20M ) )×f 2 (A 2 ) = 0.7× 0.7 = 0.49 . f 2 (A 2 )=0.01×0.7=0.007 is obtained. Since the position (2) of the human image has a smaller effect on attribute recognition than the position (1), the reliability f(A 2 ) of the score C 2 is replaced by the reliability of the score C 1 It is set higher than f(A 1 ).

一方、図10は、3フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、属性A3が「20代男性」である確からしさを示すスコアC3(P20M)が0.05であり、属性A3が「40代男性」である確からしさを示すスコアC3(P40M)が0.9となっている。画像内において、人物の像P3の位置が、属性A3の認識にほとんど影響を与えない位置(図4の(3)の位置と同じ)であり、人物認識部11aが上記画像に基づいて人物の属性A3の認識を精度よく行うことができた結果、「20代男性」のスコアC3(P20M)よりも、「40代男性」のスコアC3(P40M)のほうが高くなっている。これらのスコアC3(P20M)およびC3(P40M)の大小関係は、「40代男性」を正解とする答えと対応する関係と言える。 On the other hand, FIG. 10 shows an example of information obtained for the third frame. In this example, for the person with ID=0001, the score C 3 (P 20M ) indicating the probability that the attribute A 3 is “male in his 20s” is 0.05, and the attribute A 3 is “male in his 40s”. The score C 3 (P 40M ) indicating certain certainty is 0.9. In the image, the position of the image P3 of the person is a position that hardly affects the recognition of the attribute A3 (same as the position (3) in FIG. 4), and the person recognition unit 11a detects the image based on the image. As a result of being able to accurately recognize the person's attribute A3 , the score C3 ( P40M ) of "male in his 40s" is higher than the score C3 ( P20M ) of "male in his 20s". ing. The magnitude relationship between these scores C 3 (P 20M ) and C 3 (P 40M ) can be said to be a relationship corresponding to the correct answer of “male in his 40s”.

人物の像P3の位置が属性A3の認識にほとんど影響を与えない位置であることを考慮し、図10の例では、スコアC3の信頼度f(A3)を、f(A3)=f3(A3)=1.0に設定している。これにより、各クラスについて、属性A3の認識結果に上記位置の認識結果を加味した属性情報Q3として、「20代男性」のクラスについては、Q3(P20M)=C3(P20M)×f3(A3)=0.05×1.0=0.05が得られており、「40代男性」のクラスについては、Q3(P40M)=C3(P40M)×f3(A3))=0.9×1.0=0.9が得られている。 Considering that the position of the image P3 of the person is a position that hardly affects the recognition of the attribute A3 , the reliability f( A3 ) of the score C3 is changed to f( A3 )=f 3 (A 3 )=1.0. As a result, for each class, the attribute information Q3 obtained by adding the recognition result of the position to the recognition result of the attribute A3 is calculated as follows: Q3 ( P20M )= C3 ( P20M ) ) ×f 3 (A 3 ) = 0.05 × 1.0 =0.05. f 3 (A 3 ))=0.9×1.0=0.9 is obtained.

S11では、属性決定部11cは、属性Anの各クラスについて、各フレームごとに求めた属性情報Qnを複数フレームで統合し、その結果に基づいて人物の属性Bを決定する。なお、上述したS5~S9、S11の工程は、属性決定工程に対応する。 In S11, the attribute determination unit 11c integrates the attribute information Q n obtained for each frame for each class of the attribute A n in a plurality of frames, and determines the attribute B of the person based on the result. The steps S5 to S9 and S11 described above correspond to the attribute determination step.

ここで、フレーム数nが3つの上記の例において、仮に、属性認識に影響を与える位置(信頼度f(An))を考慮せずに属性Bを決定する場合(比較例1とする)、3フレームトータルでの「20代男性」の認識結果を示す評価値Z(P20M)’は、スコアCnを用いて以下の式で算出される。
Z(P20M)’=C1(P20M)+C2(P20M)+C3(P20M
=0.7+0.7+0.05
=1.45
一方、3フレームトータルでの「40代男性」の認識結果を示す評価値Z(P40M)’は、スコアCnを用いて以下の式で算出される。
Z(P40M)’=C1(P40M)+C2(P40M)+C3(P40M
=0.01+0.01+0.9
=0.92
上記より、Z(P40M)’>Z(P40M)’であるため、この場合は、属性Bが「20代男性」と決定されることになる。つまり、「40代男性」が正解であるにもかかわらず、3フレームトータルでは、属性Bは「20代男性」と誤った決定がされることになる。
Here, in the above example where the number of frames n is 3, if the attribute B is determined without considering the position (reliability f(A n )) that affects attribute recognition (comparative example 1) , an evaluation value Z(P 20M )′ indicating the recognition result of “male in his twenties” in the total of three frames is calculated by the following formula using the score C n .
Z( P20M )'= C1 ( P20M )+ C2 ( P20M )+ C3 ( P20M )
= 0.7 + 0.7 + 0.05
= 1.45
On the other hand, the evaluation value Z(P 40M )′ indicating the recognition result of “man in his 40s” in the total of 3 frames is calculated by the following formula using the score C n .
Z( P40M )'= C1 ( P40M )+ C2 ( P40M )+ C3 ( P40M )
= 0.01 + 0.01 + 0.9
= 0.92
From the above, Z(P 40M )′>Z(P 40M )′, so in this case attribute B is determined to be “male in twenties”. In other words, even though the correct answer is "male in his 40s", attribute B is erroneously determined to be "male in his 20s" in the three-frame total.

これに対して、本実施形態のように、属性認識に影響を与える位置(信頼度f(An))を考慮して属性Bを決定する場合、3フレームトータルでの「20代男性」の認識結果を示す評価値Z(P20M)は、属性情報Qnを用いて以下の式で算出される。
Z(P20M)=Q1(P20M)+Q2(P20M)+Q3(P20M
=C1(P20M)・f1(A1)+C2(P20M)・f2(A2
+C3(P20M)・f3(A3
=0.14+0.49+0.05
=0.68
一方、3フレームトータルでの「40代男性」の認識結果を示す評価値Z(P40M)は、属性情報Qnを用いて以下の式で算出される。
Z(P40M)=Q1(P40M)+Q2(P40M)+Q3(P40M
=C1(P40M)・f1(A1)+C2(P40M)・f2(A2
+C3(P40M)・f3(A3
=0.002+0.007+0.9
=0.909
上記より、Z(P20M)<Z(P40M)であるため、属性決定部11cは、3フレームトータルで、人物の属性Bは「40代男性」であると決定する。この場合、決定された属性Bは、正しい属性と一致している。
On the other hand, as in the present embodiment, when attribute B is determined in consideration of the position (reliability f(A n )) that affects attribute recognition, the total of three frames of "male in his twenties" The evaluation value Z (P 20M ) indicating the recognition result is calculated by the following formula using the attribute information Q n .
Z ( P20M ) = Q1 ( P20M ) + Q2 ( P20M ) + Q3 ( P20M )
= C1 ( P20M )* f1 ( A1 )+ C2 ( P20M )* f2 ( A2 )
+ C 3 (P 20M )・f 3 (A 3 )
= 0.14 + 0.49 + 0.05
= 0.68
On the other hand, the evaluation value Z (P 40M ) indicating the recognition result of “man in his 40s” in the total of three frames is calculated by the following formula using the attribute information Q n .
Z ( P40M ) = Q1 ( P40M ) + Q2 ( P40M ) + Q3 ( P40M )
= C 1 (P 40M )·f 1 (A 1 )+C 2 (P 40M )·f 2 (A 2 )
+ C 3 (P 40M )・f 3 (A 3 )
= 0.002 + 0.007 + 0.9
= 0.909
From the above, since Z(P 20M )<Z(P 40M ), the attribute determining unit 11c determines that the attribute B of the person is "male in 40's" for the three frames in total. In this case, the determined attribute B matches the correct attribute.

S11にて、属性決定部11cによって決定された属性Bは、記憶部12に記憶される(S12;記憶工程)。なお、S12において、属性Bを記憶部12に記憶する代わりに、属性Bの情報を通信部15を介して管理サーバー4に送出し、管理サーバー4の格納部21(図6参照)に格納させてもよく、また、記憶部12と格納部21との両方に属性Bの情報を記憶させるようにしてもよい。 The attribute B determined by the attribute determination unit 11c in S11 is stored in the storage unit 12 (S12; storage step). In S12, instead of storing the attribute B in the storage unit 12, the information of the attribute B is sent to the management server 4 via the communication unit 15 and stored in the storage unit 21 (see FIG. 6) of the management server 4. Alternatively, the information of the attribute B may be stored in both the storage unit 12 and the storage unit 21. FIG.

〔効果〕
以上のように、属性決定部11cは、各フレーム間で同一人であると判断された人物に関して、各フレームごとに、人物認識部11aによる属性Anの認識結果に、属性Anの認識に影響を与える事象(ここでは画像内での人物の像Pnの位置)の認識結果を加味した属性情報Qnを、認識した属性Anの各クラスについて求める(S5~S8)。これにより、属性決定部11cが、各クラスについて、属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定する際に(S11)、属性Anの認識に影響を与える事象が生じたフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に小さくし、属性Anの認識に影響を与える事象が生じていないフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に大きくすることができる。その結果、属性Anの認識に影響を与える事象が数フレーム(上記の例では1フレーム目、2フレーム目)にわたって続く場合でも、最終的な属性Bの決定に対する上記数フレームの悪影響(属性Anの認識精度の低下の影響)を低減して、全体として(複数フレームのトータルで)人物の属性Bを精度よく決定することができる。
〔effect〕
As described above, the attribute determination unit 11c adds the recognition result of the attribute A n by the person recognition unit 11a to the recognition result of the attribute A n for each frame regarding the person determined to be the same person in each frame. Attribute information Q n that takes into account the recognition result of the influencing event (here, the position of the person's image P n in the image) is obtained for each class of the recognized attribute A n (S5 to S8). As a result, when the attribute determining unit 11c determines the attribute B of the person based on the result of integrating the attribute information Q n for each class in a plurality of frames (S11), the recognition of the attribute A n is affected. For frames in which an event occurs, the degree of contribution of the recognition result of attribute A n to final attribute determination is made relatively small, and for frames in which an event affecting the recognition of attribute A n does not occur, attribute The degree of contribution of the recognition result of A n to final attribute determination can be made relatively large. As a result, even if the event that affects the recognition of attribute A n lasts for several frames (the first and second frames in the above example), the adverse effect of the above few frames on the final determination of attribute B (attribute A n ) can be reduced, and the attribute B of the person can be accurately determined as a whole (total of a plurality of frames).

また、属性決定部11cは、属性Anの認識に影響を与える事象の認識結果に対応してスコアCnの信頼度f(An)を設定し、人物認識部11aによって算出されたスコアCnと、上記の信頼度f(An)とに基づいて、クラスごとに属性情報Qnを求める。このように、上記事象の認識結果に対応して信頼度f(An)を設定してクラスごとに属性情報Qnを求めることにより、各フレームについて得られる上記認識結果の属性Bの決定への寄与度を、上記事象に応じてクラスごとに適切に調整し、人物の属性Bを確実に精度よく決定することができる。 Further, the attribute determining unit 11c sets the reliability f(A n ) of the score C n corresponding to the recognition result of the event that affects the recognition of the attribute A n , and the score C calculated by the person recognizing unit 11a. Attribute information Q n is obtained for each class based on n and the above reliability f(A n ). Thus, by setting the reliability f(A n ) corresponding to the recognition result of the event and obtaining the attribute information Q n for each class, the attribute B of the recognition result obtained for each frame can be determined. can be appropriately adjusted for each class in accordance with the event, and the attribute B of the person can be determined reliably and accurately.

また、上記の信頼度f(An)は、属性Anの認識に影響を与える事象としての、人物の像Pnの位置に基づいて設定されている。これにより、属性決定部11cは、各フレームごとに、上記信頼度f(An)を用いて、人物の像Pnの位置を考慮した適切な属性情報Qnを取得することができる。 Further, the reliability f(A n ) described above is set based on the position of the person's image P n as an event that affects the recognition of the attribute A n . Thereby, the attribute determination unit 11c can acquire appropriate attribute information Q n considering the position of the person image P n for each frame using the reliability f(A n ).

また、上記の信頼度f(An)は、画像内における人物の像Pnの位置が、全身が撮影された位置であるか否かに基づいて設定されている。これにより、本実施形態のように、人物の像Pnの位置が、全身が撮影された位置である場合とそうでない場合とで信頼度f(An)に差を持たせて、人物の像Pnの位置に応じた適切な属性情報Qnを取得することができる。 Further, the reliability f(A n ) is set based on whether or not the position of the person's image P n in the image is the position where the whole body is photographed. As a result, as in the present embodiment, the reliability f(A n ) differs depending on whether the position of the person's image P n is the position where the whole body is photographed or not. Appropriate attribute information Q n corresponding to the position of image P n can be obtained.

特に、本実施形態では、画像内における人物の像Pnの位置が、全身が撮影された位置(例えば図4の(3)の位置)である場合の信頼度f(An)は、画像内における人物の像Pnの位置が、全身の一部のみが撮影された位置(例えば図4の(1)または(2)の位置)である場合の信頼度f(An)よりも高く設定されている。これにより、人物の全身が撮影された画像に基づき、高い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を上げて、最終的な属性Bの決定に対する上記認識結果の寄与度を高めた属性情報Qnを得ることができる。一方、人物の全身の一部のみが撮影された画像に基づき、低い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を下げて、最終的な属性Bの決定に対する上記認識結果の寄与度を低くした属性情報Qnを得ることができる。 In particular, in the present embodiment, the reliability f(A n ) when the position of the image P n of the person in the image is the position where the whole body is photographed (for example, the position of (3) in FIG. 4) is is higher than the reliability f(A n ) when the position of the person's image P n is the position where only a part of the whole body is photographed (for example, the position of (1) or (2) in FIG. 4) is set. As a result, the reliability f(A n ) of the recognition result of a person's attribute A n that is recognized with high accuracy based on the image of the whole body of the person is increased, and the final attribute B is determined. It is possible to obtain the attribute information Q n in which the degree of contribution of the recognition result to is increased. On the other hand, for a person's attribute A n that is recognized with low accuracy based on an image in which only a part of the whole body of the person is captured, the reliability f(A n ) of the recognition result is lowered, and the final attribute Attribute information Q n can be obtained in which the degree of contribution of the recognition result to the determination of B is reduced.

また、人物の属性(AnおよびB)は、人物の年齢および性別である。これにより、人物の年齢および性別を、複数フレームのトータルで精度よく決定することができる。なお、上記属性は、人物の年齢および性別のどちらか一方だけであってもよい。この場合であっても、上述した本実施形態の属性決定方法を採用することによって、人物の年齢または性別を、複数フレームのトータルで精度よく決定することができる。 Also, the person's attributes (A n and B) are the person's age and sex. As a result, the age and sex of a person can be determined with high accuracy in total for a plurality of frames. Note that the attribute may be only one of the person's age and gender. Even in this case, by adopting the attribute determination method of the present embodiment described above, it is possible to accurately determine the age or sex of a person in total for a plurality of frames.

また、本実施形態の属性決定装置3は、属性決定部11cによって決定された属性Bを記憶する記憶部12を備えている。これにより、例えば店舗やシステムの管理者(責任者)は、記憶部12に記憶された属性Bの情報をもとに、店舗を訪れる人物の分析(どのような年代層が店舗に多く訪れるか)、人物の属性Bに応じた商品の開発や販売、マーケティングに関する分析などを行うことが可能となる。 The attribute determination device 3 of this embodiment also includes a storage unit 12 that stores the attribute B determined by the attribute determination unit 11c. As a result, for example, an administrator (responsible person) of a store or system can analyze people who visit the store based on the information of the attribute B stored in the storage unit 12 (what age groups often visit the store). , development and sales of products according to the attribute B of the person, and analysis of marketing can be performed.

また、本実施形態の属性決定システム1は、上述した属性決定装置3と、管理サーバー4とを含み、管理サーバー4は、属性決定装置3から送出される情報を格納する格納部21を備え、上記情報には、属性決定装置3の属性決定部11cによって決定された属性Bが含まれている。これにより、システムの管理者(責任者)は、管理サーバー4の格納部21に記憶された属性Bの情報をもとに、店舗を訪れる人物の分析等を行うことが可能となる。また、店舗が複数存在し、各店舗に属性決定装置3が設けられる場合には、各属性決定装置3から送出される情報(属性B)を管理サーバー4の格納部21にて一括管理(集中管理)し、格納された情報をもとに、複数の店舗間で分析結果を比較することも容易となる。 In addition, the attribute determination system 1 of this embodiment includes the attribute determination device 3 described above and the management server 4. The management server 4 includes a storage unit 21 for storing information sent from the attribute determination device 3, The information includes the attribute B determined by the attribute determination unit 11c of the attribute determination device 3. FIG. As a result, the system administrator (responsible person) can analyze the people visiting the store based on the attribute B information stored in the storage unit 21 of the management server 4 . Further, when there are multiple stores and each store is provided with the attribute determination device 3, the information (attribute B) sent from each attribute determination device 3 is collectively managed (centralized) in the storage unit 21 of the management server 4. management), and based on the stored information, it becomes easy to compare analysis results between multiple stores.

<実施の形態2>
本実施形態では、属性Anの認識に影響を与える事象に人物の行動が含まれ、上記行動を加味して属性Bを決定する以外は、実施の形態1と同様である。なお、人物の行動については、後述するように、画像内の人物の像(画像データ)から把握することができる。以下、実施の形態1と異なる部分について説明する。
<Embodiment 2>
This embodiment is the same as the first embodiment except that the event that affects the recognition of the attribute A n includes a person's behavior, and the attribute B is determined in consideration of the above behavior. As will be described later, the behavior of a person can be grasped from the image (image data) of the person in the image. The parts different from the first embodiment will be described below.

図11は、時間的に異なる複数フレームのうち、一部のフレームの画像2a1~2a4を模式的に示している。なお、図11の画像2a1~2a4は、いずれも人物を斜め上方から撮影して得られた画像である。同図に示すように、店舗内で人物が行動するパターンとしては、歩行や立ち止まりなどが考えられ、この他にも、走行、旋回などが考えられる。人物の行動が、歩行中、走行中、旋回中など、動きを伴う行動である場合、画像内では人物の像がブレやすい。この場合、上記画像に基づく人物の属性Anの認識精度が低下しやすくなる。一方、人物の行動が立ち止まりなどの滞留行動(歩みを止める行動)である場合、画像内では人物の像にブレがほとんど生じないため、上記画像に基づく人物の属性Anの認識精度の低下はほとんど生じない。 FIG. 11 schematically shows images 2a 1 to 2a 4 of some frames out of a plurality of temporally different frames. Images 2a 1 to 2a 4 in FIG. 11 are images obtained by photographing a person obliquely from above. As shown in the figure, patterns of behavior of a person in a store include walking and stopping, and other patterns such as running and turning. When a person's action involves movement, such as walking, running, or turning, the image of the person tends to blur in the image. In this case, the recognition accuracy of the person's attribute A n based on the image is likely to deteriorate. On the other hand, when a person's action is a dwelling action (stop walking) such as standing still, the image of the person hardly blurs in the image. rarely occur.

そこで、本実施形態では、属性決定部11cは、属性Anの認識に影響を与える行動(歩行中などの動きを伴う行動)については、図11に示すように、信頼度f(An)を1未満(例えば0.2)に設定し、属性Anの認識に影響を与えない行動(立ち止まりなどの滞留行動)については、信頼度f(An)を1に設定して、各フレームごとに属性情報Qnを各クラスについて求め、求めた属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定するようにしている。 Therefore , in the present embodiment, the attribute determination unit 11c determines the reliability f(A n is set to less than 1 (for example, 0.2), and for actions that do not affect the recognition of the attribute A n (staying behavior such as stopping), the confidence f(A n ) is set to 1, and each frame The attribute information Q n is obtained for each class for each class, and the attribute B of the person is determined based on the result of integrating the obtained attribute information Q n in a plurality of frames.

図12は、本実施形態の属性決定システム1における処理の流れを示すフローチャートである。なお、図12のフローチャートは、図7のフローチャートのS3およびS5を、それぞれS3-1およびS5-1に置き換えたものである。なお、ここでは、実施の形態1と同様に、属性を判断する対象となる人物は、「40代男性」であるとする(「40代男性」が属性として正解であるとする)。 FIG. 12 is a flow chart showing the flow of processing in the attribute determination system 1 of this embodiment. In the flowchart of FIG. 12, S3 and S5 in the flowchart of FIG. 7 are replaced with S3-1 and S5-1, respectively. Here, as in Embodiment 1, it is assumed that the person whose attribute is to be determined is "male in his 40s" (assuming that "male in his 40s" is the correct attribute).

S3-1(人物認識工程)では、人物認識部11aは、人物を上方から撮影したnフレーム目の画像に基づき、人物矩形Rnと、人物の属性Anと、属性Anの認識に影響を与える事象(ここでは人物の行動)とを認識するとともに、属性Anの認識結果の確からしさを示すスコアCnを算出する(人物認識工程)。 In S3-1 (human recognition step), the human recognition unit 11a affects the recognition of the human rectangle R n , the human attribute A n , and the human attribute A n based on the n-th frame image of the human being photographed from above. (human behavior in this case) and calculates a score C n indicating the likelihood of the recognition result of the attribute A n (person recognition step).

ここで、人物の行動の認識およびスコアCnの算出は、予め学習されたニューラルネットワークを用いることによって行うことができる。つまり、人物認識部11aは、各画像2a1~2a4のデータを、予め行動認識用に学習されたニューラルネットワークに入力することにより、ニューラルネットワークから人物の行動の認識結果およびその確からしさを示すスコアCnを出力させることができる。したがって、人物認識部11aは、ニューラルネットワークからの出力に基づき、人物の行動が、属性認識に影響を与える行動(動きを伴う行動)であるか、属性認識に影響を与えない滞留行動であるかを認識することができる。S3-1で得られた認識結果およびスコアCnは、記憶部12に記憶される。 Here, the recognition of the person's actions and the calculation of the score C n can be performed by using a pre-learned neural network. In other words, the person recognition unit 11a inputs the data of each of the images 2a 1 to 2a 4 to a neural network that has been trained in advance for action recognition, thereby indicating the recognition result of the person's action and its likelihood from the neural network. A score C n can be output. Therefore, based on the output from the neural network, the person recognition unit 11a determines whether the person's action is an action (behavior accompanied by movement) that affects attribute recognition or a staying action that does not affect attribute recognition. can be recognized. The recognition result and score C n obtained in S3-1 are stored in the storage unit 12. FIG.

S5-1では、属性決定部11cは、S3-1での属性Anの認識に影響を与える事象の認識結果に対応してスコアCnの信頼度f(An)を設定する(S5-1~S7)。つまり、S3-1にて認識された事象(人物の行動)が、属性認識に影響を与える行動(動きを伴う行動)である場合(S5-1でYes)、属性決定部11cは、上記認識結果に対応して、スコアCnの信頼度f(An)を1未満(例えば0.2)に設定する(S6)。一方、S3-1にて認識された事象(人物の行動)が、属性認識に影響を与えない滞留行動である場合(S5-1でNo)、属性決定部11cは、スコアCnの信頼度f(An)を1に設定する(S7)。 In S5-1, the attribute determination unit 11c sets the reliability f(A n ) of the score C n corresponding to the recognition result of the event that affects the recognition of the attribute A n in S3-1 (S5-1). 1 to S7). In other words, if the event (person's behavior) recognized in S3-1 is an action (behavior accompanied by movement) that affects attribute recognition (Yes in S5-1), the attribute determination unit 11c Corresponding to the result, the reliability f(A n ) of the score C n is set to less than 1 (for example, 0.2) (S6). On the other hand, if the event (human behavior) recognized in S3-1 is a staying behavior that does not affect attribute recognition (No in S5-1), the attribute determining unit 11c determines the reliability of the score C n f(A n ) is set to 1 (S7).

次に、属性決定部11cは、S3-1で算出されたスコアCnと、上記で設定した信頼度f(An)とに基づいて、属性情報Qn(=Q1)を属性Anのクラスごとに求める(S8)。求めた属性情報Qnは、記憶部12に人物の識別情報と対応付けて記憶される。 Next, the attribute determination unit 11c converts the attribute information Q n (=Q 1 ) to the attribute A n based on the score C n calculated in S3-1 and the reliability f(A n ) set above . (S8). The obtained attribute information Q n is stored in the storage unit 12 in association with the person's identification information.

(n+1)フレーム目以降の画像についてもS2以降の処理を繰り返し(S9、S10)、例えば異なるフレーム間で人物のIDが異なる場合など、処理の継続が不要となった時点で(S9でNo)、処理を継続しないと判断してS11に移行する。S11では、属性決定部11cは、属性Anの各クラスについて、各フレームごとに求めた属性情報Qnを複数フレームで統合し、その結果に基づいて人物の属性Bを決定する。なお、上述したS5-1~S9、S11の工程は、属性決定工程に対応する。 The processing after S2 is repeated for the (n+1)-th frame and subsequent images (S9, S10). , it determines not to continue the process, and shifts to S11. In S11, the attribute determination unit 11c integrates the attribute information Q n obtained for each frame for each class of the attribute A n in a plurality of frames, and determines the attribute B of the person based on the result. The steps S5-1 to S9 and S11 described above correspond to the attribute determination step.

図13は、1フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、属性A1が「20代男性」である確からしさを示すスコアC1(P20M)が0.7であり、属性A1が「40代男性」である確からしさを示すスコアC1(P40M)が0.01となっている。人物の行動が動きを伴う行動(歩行中)であり、画像内で人物の像にブレが生じ、人物認識部11aが上記画像に基づいて人物の属性A1の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC1(P40M)よりも、「20代男性」のスコアC1(P20M)のほうが高くなっている。 FIG. 13 shows an example of information obtained for the first frame. In this example, for the person with ID=0001, the score C 1 (P 20M ) indicating the probability that the attribute A 1 is "male in his 20s" is 0.7, and the attribute A 1 is "male in his 40s". The score C 1 (P 40M ) indicating certain certainty is 0.01. If the action of the person is an action accompanied by movement (walking), the image of the person is blurred in the image, and the person recognition unit 11a cannot accurately recognize the attribute A1 of the person based on the image. As a result, although "male in his 40s" is the correct answer, the score C 1 (P 20M ) of "male in his 20s" is higher than the score C 1 (P 40M ) of "male in his 40s". It's becoming

そこで、人物の行動が属性A1の認識に影響を与える行動であることを考慮し、図13の例では、スコアC1の信頼度f(A1)を、f(A1)=f1(A1)=0.2に設定している。これにより、各クラスについて、属性A1の認識結果に上記行動の認識結果を加味した属性情報Q1として、「20代男性」のクラスについては、Q1(P20M)=C1(P20M)×f1(A1)=0.7×0.2=0.14が得られており、「40代男性」のクラスについては、Q1(P40M)=C1(P40M)×f1(A1)=0.01×0.2=0.002が得られている。 Considering that the behavior of a person affects the recognition of attribute A 1 , in the example of FIG . 13, the reliability f(A 1 ) of score C 1 is set to (A 1 )=0.2 is set. As a result, for each class, the attribute information Q 1 obtained by adding the recognition result of the behavior to the recognition result of the attribute A 1 , Q 1 (P 20M )=C 1 (P 20M ) ×f 1 (A 1 ) = 0.7 × 0.2 =0.14. f 1 (A 1 )=0.01×0.2=0.002 is obtained.

図14は、2フレーム目について得られた情報の一例を示している。この例においても、ID=0001の人物について、人物の行動が動きを伴う行動(歩行中)であるため、1フレーム目と同様に、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC2(P40M)よりも、「20代男性」のスコアC2(P20M)のほうが高くなっている。そこで、1フレーム目と同様に、人物の行動が属性A2の認識に影響を与える行動であることを考慮し、スコアC2の信頼度f(A2)を、f(A2)=f2(A2)=0.2に設定している。これにより、各クラスについて、属性A2の認識結果に上記行動の認識結果を加味した属性情報Q2として、「20代男性」のクラスについては、Q2(P20M)=C2(P20M)×f2(A2)=0.7×0.2=0.14が得られており、「40代男性」のクラスについては、Q2(P40M)=C2(P40M)×f2(A2)=0.01×0.2=0.002が得られている。 FIG. 14 shows an example of information obtained for the second frame. In this example as well, for the person with ID=0001, the behavior of the person involves movement (walking). The score C 2 (P 20M ) of “male in his 20s” is higher than the score C 2 (P 40M ) of “male in his 40s”. Therefore, as in the first frame, considering that the behavior of the person affects the recognition of the attribute A 2 , the reliability f(A 2 ) of the score C 2 is given by f(A 2 )=f 2 (A 2 )=0.2 is set. As a result, for each class, the attribute information Q2 obtained by adding the recognition result of the behavior to the recognition result of the attribute A2 is calculated as follows: Q2 ( P20M )= C2 ( P20M ) )×f 2 (A 2 )=0.7×0.2=0.14, and for the class of “men in their 40s”, Q 2 (P 40M )=C 2 (P 40M )× f 2 (A 2 )=0.01×0.2=0.002 is obtained.

図15は、3フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、属性A3が「20代男性」である確からしさを示すスコアC3(P20M)が0.05であり、属性A3が「40代男性」である確からしさを示すスコアC3(P40M)が0.9となっている。人物の行動が滞留行動(立ち止まり)であり、画像内で人物の像にブレが生じず、人物認識部11aが上記画像に基づいて人物の属性A3の認識を精度よく行うことができた結果、「20代男性」のスコアC3(P20M)よりも、「40代男性」のスコアC3(P40M)のほうが高くなっている。これらのスコアC3(P20M)およびC3(P40M)の大小関係は、「40代男性」を正解とする答えと対応する関係と言える。 FIG. 15 shows an example of information obtained for the third frame. In this example, for the person with ID=0001, the score C 3 (P 20M ) indicating the probability that the attribute A 3 is “male in his 20s” is 0.05, and the attribute A 3 is “male in his 40s”. The score C 3 (P 40M ) indicating certain certainty is 0.9. The behavior of the person is a staying behavior (pause), the image of the person does not blur in the image, and the person recognition unit 11a is able to accurately recognize the attribute A3 of the person based on the image. , the score C 3 (P 40M ) of the “male in his 40s” is higher than the score C 3 (P 20M ) of the “male in his 20s”. The magnitude relationship between these scores C 3 (P 20M ) and C 3 (P 40M ) can be said to be a relationship corresponding to the correct answer of “male in his 40s”.

人物の行動が属性A3の認識にほとんど影響を与えない行動であることを考慮し、図15の例では、スコアC3の信頼度f(A3)を、f(A3)=f3(A3)=1.0に設定している。これにより、各クラスについて、属性A3の認識結果に上記位置の認識結果を加味した属性情報Q3として、「20代男性」のクラスについては、Q3(P20M)=C3(P20M)×f3(A3)=0.05×1.0=0.05が得られており、「40代男性」のクラスについては、Q3(P40M)=C3(P40M)×f3(A3)=0.9×1.0=0.9が得られている。 Considering that the behavior of a person hardly affects the recognition of attribute A3 , in the example of FIG . 15, the reliability f(A3 ) of score C3 is set to (A 3 )=1.0 is set. As a result, for each class, the attribute information Q3 obtained by adding the recognition result of the position to the recognition result of the attribute A3 is calculated as follows: Q3 ( P20M )= C3 ( P20M ) ) ×f 3 (A 3 ) = 0.05× 1.0 =0.05. f 3 (A 3 )=0.9×1.0=0.9 is obtained.

フレーム数nが3つの上記の例において、仮に、属性認識に影響を与える人物の行動(信頼度f(An))を考慮せずに属性Bを決定する場合(比較例2とする)、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)’は、スコアCnを用いて以下の式で算出される。
Z(P20M)’=C1(P20M)+C2(P20M)+C3(P20M
=0.7+0.7+0.05
=1.45
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)’ は、スコアCnを用いて以下の式で算出される。
Z(P40M)’=C1(P40M)+C2(P40M)+C3(P40M
=0.01+0.01+0.9
=0.92
上記より、Z(P40M)’>Z(P40M)’であるため、この場合は、属性Bが「20代男性」と決定されることになる。つまり、「40代男性」が正解であるにもかかわらず、3フレームトータルでは、属性Bは「20代男性」と誤った決定がされることになる。
In the above example where the number of frames n is 3, if the attribute B is determined without considering the behavior of the person (reliability f(A n )) that affects attribute recognition (comparative example 2), The evaluation value Z(P 20M )′ of the recognition result of “male in his twenties” in the total of three frames is calculated by the following formula using the score C n .
Z( P20M )'= C1 ( P20M )+ C2 ( P20M )+ C3 ( P20M )
= 0.7 + 0.7 + 0.05
= 1.45
On the other hand, the evaluation value Z(P 40M )′ of the recognition result of “male in his 40s” in the total of three frames is calculated by the following formula using the score C n .
Z( P40M )'= C1 ( P40M )+ C2 ( P40M )+ C3 ( P40M )
= 0.01 + 0.01 + 0.9
= 0.92
From the above, Z(P 40M )′>Z(P 40M )′, so in this case attribute B is determined to be “male in twenties”. In other words, even though the correct answer is "male in his 40s", attribute B is erroneously determined to be "male in his 20s" in the three-frame total.

これに対して、本実施形態のように、属性認識に影響を与える人物の行動(信頼度f(An))を考慮して属性Bを決定する場合、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)は、属性情報Qnを用いて以下の式で算出される。
Z(P20M)=Q1(P20M)+Q2(P20M)+Q3(P20M
=C1(P20M)・f1(A1)+C2(P20M)・f2(A2
+C3(P20M)・f3(A3
=0.14+0.14+0.05
=0.33
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)は、属性情報Qnを用いて以下の式で算出される。
Z(P40M)=Q1(P40M)+Q2(P40M)+Q3(P40M
=C1(P40M)・f1(A1)+C2(P40M)・f2(A2
+C3(P40M)・f3(A3
=0.002+0.002+0.9
=0.904
上記より、Z(P20M)<Z(P40M)であるため、属性決定部11cは、3フレームトータルで、人物の属性Bは「40代男性」であると決定する。この場合、決定された属性Bは、正しい属性と一致している。
On the other hand, as in the present embodiment, when attribute B is determined in consideration of a person's behavior (reliability f(A n )) that affects attribute recognition, "a male in his twenties ” is calculated by the following formula using the attribute information Q n .
Z ( P20M ) = Q1 ( P20M ) + Q2 ( P20M ) + Q3 ( P20M )
= C1 ( P20M )* f1 ( A1 )+ C2 ( P20M )* f2 ( A2 )
+ C 3 (P 20M )・f 3 (A 3 )
= 0.14 + 0.14 + 0.05
= 0.33
On the other hand, the evaluation value Z (P 40M ) of the recognition result of "male in his 40s" in the total of three frames is calculated by the following formula using the attribute information Qn .
Z ( P40M ) = Q1 ( P40M ) + Q2 ( P40M ) + Q3 ( P40M )
= C 1 (P 40M )·f 1 (A 1 )+C 2 (P 40M )·f 2 (A 2 )
+ C 3 (P 40M )・f 3 (A 3 )
= 0.002 + 0.002 + 0.9
= 0.904
From the above, since Z(P 20M )<Z(P 40M ), the attribute determining unit 11c determines that the attribute B of the person is "male in 40's" for the three frames in total. In this case, the determined attribute B matches the correct attribute.

以上のように、本実施形態においても、属性決定部11cは、各フレームごとに、人物認識部11aによる属性Anの認識結果に、属性Anの認識に影響を与える事象(ここでは人物の行動)の認識結果を加味した属性情報Qn、認識した属性Anの各クラスについて求める(S5-1~S8)。これにより、属性決定部11cが、各クラスについて、属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定する際に(S11)、属性Anの認識に影響を与える行動(動きを伴う行動)が生じたフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に小さくし、属性Anの認識に影響を与える行動が生じていないフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に大きくすることができる。その結果、属性Anの認識に影響を与える行動が数フレーム(上記の例では1フレーム目、2フレーム目)にわたって続く場合でも、最終的な属性Bの決定に対する上記数フレームの悪影響(属性Anの認識精度の低下の影響)を低減して、全体として(複数フレームのトータルで)人物の属性Bを精度よく決定することができる。 As described above, also in the present embodiment, the attribute determination unit 11c adds an event (in this case, a person 's Attribute information Q n that takes into account the recognition result of behavior) and recognized attributes A n are obtained for each class (S5-1 to S8). As a result, when the attribute determining unit 11c determines the attribute B of the person based on the result of integrating the attribute information Q n for each class in a plurality of frames (S11), the recognition of the attribute A n is affected. For frames in which an action (behavior accompanied by movement) occurs, the degree of contribution of the recognition result of attribute A n to final attribute determination is made relatively small, and actions that affect the recognition of attribute A n occur. For frames without attribute A n , the degree of contribution of the recognition result of attribute A n to final attribute determination can be made relatively large. As a result, even if the behavior that affects the recognition of attribute A n lasts for several frames (the first and second frames in the above example), the adverse effect of the above few frames on the final determination of attribute B (attribute A n ) can be reduced, and the attribute B of the person can be accurately determined as a whole (total of a plurality of frames).

また、上記の信頼度f(An)は、属性Anの認識に影響を与える事象、つまり、画像内における人物の像から把握される人物の行動に基づいて設定されている。これにより、属性決定部11cは、上記信頼度f(An)を用いて、人物の行動を考慮した適切な属性情報Qnを取得することができる。 The reliability f(A n ) described above is set based on an event that affects the recognition of the attribute A n , that is, the action of the person ascertained from the image of the person in the image. Accordingly, the attribute determination unit 11c can obtain appropriate attribute information Q n in consideration of the behavior of the person using the reliability f(A n ).

また、上記の信頼度f(An)は、人物の行動が、動きを伴う行動であるか否かに基づいて設定されている。これにより、人物の行動が、動きを伴う行動である場合とそうでない場合とで信頼度f(An)に差を持たせて、人物の行動に応じた属性情報Qnを取得することができる。 Also, the reliability f(A n ) described above is set based on whether or not the action of the person is an action involving movement. As a result, it is possible to acquire the attribute information Q n according to the behavior of the person by giving a difference in the reliability f(A n ) depending on whether the behavior of the person involves movement or not. can.

特に、本実施形態では、人物の行動が動きを伴う行動である場合の信頼度f(An)は、人物の行動が滞留行動である場合の信頼度f(An)よりも低く設定されている。これにより、動きを伴う人物の行動が撮影された画像に基づき、低い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を下げて、最終的な属性Bの決定に対する上記認識結果の寄与度を低くした属性情報Qnを得ることができる。一方、人物の滞留行動が撮影された画像に基づき、高い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を上げて、最終的な属性Bの決定に対する上記認識結果の寄与度を高めた属性情報Qnを得ることができる。 In particular, in the present embodiment, the reliability f(A n ) when a person's action is an action accompanied by movement is set lower than the reliability f(A n ) when a person's action is a staying action. ing. As a result, for a person's attribute A n that is recognized with low accuracy based on an image in which a person's behavior accompanied by movement is captured, the reliability f(A n ) of the recognition result is lowered, and the final attribute Attribute information Q n can be obtained in which the degree of contribution of the recognition result to the determination of B is reduced. On the other hand, for a person's attribute A n that is recognized with high accuracy based on an image of a person's staying behavior, the reliability f(A n ) of the recognition result is increased, and the final attribute B is determined. It is possible to obtain the attribute information Q n in which the degree of contribution of the recognition result to is increased.

<実施の形態3>
本実施形態では、属性Anの認識に影響を与える事象に人物の姿勢がさらに含まれ、上記姿勢をさらに加味して属性Bを決定する以外は、実施の形態2と同様である。なお、人物の姿勢については、後述するように、画像内の人物の像(画像データ)から把握することができる。以下、実施の形態2と異なる部分について説明する。なお、「姿勢」とは、体の構えを指す点で、動作の有無に着目した「行動」とは区別されるが、立ち止まった姿勢など、一部の姿勢については、行動(立ち止まり)と重複する場合もある。
<Embodiment 3>
This embodiment is the same as the second embodiment except that the posture of the person is included in the events that affect the recognition of the attribute A n , and the attribute B is determined with the posture further taken into consideration. As will be described later, the posture of the person can be grasped from the image (image data) of the person in the image. Portions different from the second embodiment will be described below. In addition, "posture" refers to the posture of the body, so it is distinguished from "action" that focuses on the presence or absence of movement, but some postures such as standing posture overlap with action (stopping). sometimes.

図16は、時間的に異なる複数フレームのうち、一部のフレームの画像2a11~2a15を模式的に示している。なお、図16の画像2a11~2a15は、いずれも人物を斜め上方から撮影して得られた画像である。同図に示すように、店舗内で人物がとる姿勢としては、例えば店舗内の商品棚の最下部の商品を観察するときの「しゃがみ込み」がある。なお、立ち止まった状態からしゃがみ込むまでの動作(例えばしゃがみ始め)や、しゃがみ込んだ状態から立ち止まるまでの動作(例えば立ち上がり)は、行動と認識することができる。 FIG. 16 schematically shows images 2a 11 to 2a 15 of some frames out of a plurality of temporally different frames. Images 2a 11 to 2a 15 in FIG. 16 are images obtained by photographing a person obliquely from above. As shown in the figure, the posture taken by a person in a store includes, for example, "squatting down" when observing the products at the bottom of the product shelf in the store. An action from standing still to squatting (for example, starting to squat) and an action from squatting to stopping (for example, standing up) can be recognized as actions.

人物の姿勢が「しゃがみ込み」である場合、人物を上方から撮影した画像では、上半身によって下半身が隠れる画像が得られる。また、上方から見て、全身の一部が商品棚に隠れるような姿勢では、全身の一部のみを撮影した画像が得られる。これらの場合、人物の画像データが欠落しているため(全身の画像データが得られないため)、上記画像に基づく人物の属性Anの認識精度が低下しやすくなる。一方、人物の姿勢が、立ち止まりなど、全身が撮影される姿勢である場合、人物の撮影画像においては、人物の画像データの欠落がないため、上記画像に基づく人物の属性Anの認識精度の低下はほとんどない。 When the posture of the person is "crouching", an image in which the lower half of the body is hidden by the upper half of the body is obtained in an image of the person photographed from above. In addition, when viewed from above, an image in which only a part of the whole body is photographed is obtained in a posture in which a part of the whole body is hidden by the product shelf. In these cases, since the image data of the person is missing (because the image data of the whole body cannot be obtained), the accuracy of recognizing the attribute A n of the person based on the image tends to decrease. On the other hand, when the posture of the person is such that the whole body is photographed, such as standing still, there is no lack of image data of the person in the photographed image of the person . almost no decline.

そこで、本実施形態では、属性決定部11cは、人物の姿勢が属性Anの認識に影響を与える姿勢(例えば全身の一部しか撮影されない姿勢)である場合は、図16に示すように、信頼度f(An)を1未満に設定し、人物の姿勢が属性Anの認識に影響を与えない姿勢(例えば全身が撮影される姿勢)である場合は、信頼度f(An)を1に設定して、各フレームごとに属性情報Qnを各クラスについて求め、求めた属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定するようにしている。なお、人物の行動については、実施の形態2と同様に、動きを伴う行動の場合には信頼度f(An)を1未満に設定し、滞留行動の場合には信頼度f(An)を1に設定して、各フレームごとおよび各クラスごとに属性情報Qnを求める。 Therefore, in the present embodiment, when the posture of the person affects the recognition of the attribute A n (for example, a posture in which only a part of the whole body is photographed), as shown in FIG. When the reliability f(A n ) is set to less than 1, and the posture of the person is a posture that does not affect the recognition of the attribute A n (for example, a posture in which the whole body is photographed), the reliability f(A n ) is set to 1, the attribute information Q n is obtained for each class for each frame, and the attribute B of the person is determined based on the result of integrating the obtained attribute information Q n in a plurality of frames. As for human behavior, as in the second embodiment, the reliability f(A n ) is set to less than 1 for behavior involving movement, and the reliability f(A n ) is set to 1, and attribute information Q n is obtained for each frame and each class.

図17は、本実施形態の属性決定システム1における処理の流れを示すフローチャートである。なお、図17のフローチャートは、図12のフローチャートのS3-1およびS5-1を、それぞれS3-2およびS5-2に置き換えたものである。なお、ここでは、実施の形態2と同様に、属性を判断する対象となる人物は、「40代男性」であるとする(「40代男性」が属性として正解であるとする)。 FIG. 17 is a flow chart showing the flow of processing in the attribute determination system 1 of this embodiment. In the flowchart of FIG. 17, S3-1 and S5-1 in the flowchart of FIG. 12 are replaced with S3-2 and S5-2, respectively. Here, as in Embodiment 2, it is assumed that the person whose attribute is to be determined is "male in his 40s" (assuming that "male in his 40s" is the correct attribute).

S3-2(人物認識工程)では、人物認識部11aは、人物を上方から撮影したnフレーム目の画像に基づき、人物矩形Rnと、人物の属性Anと、属性Anの認識に影響を与える事象(ここでは人物の行動および姿勢)とを認識するとともに、属性Anの認識結果の確からしさを示すスコアCnを算出する(人物認識工程)。 In S3-2 (human recognition step), the human recognition unit 11a affects the recognition of the human rectangle R n , the human attribute A n , and the human attribute A n based on the n-th frame image of the human being photographed from above. (person's behavior and posture in this case), and a score C n indicating the likelihood of the recognition result of the attribute An is calculated (person recognition step).

ここで、人物の姿勢の認識およびスコアCnの算出は、予め学習されたニューラルネットワークを用いることによって行うことができる。つまり、人物認識部11aは、各画像2a1~2a4のデータを、予め姿勢認識用に学習されたニューラルネットワークに入力することにより、ニューラルネットワークから人物の姿勢の認識結果およびその確からしさを示すスコアCnを出力させることができる。したがって、人物認識部11aは、ニューラルネットワークからの出力に基づき、人物の姿勢が、属性認識に影響を与える姿勢(全身の一部のみが撮影された姿勢)であるか、属性認識に影響を与えない姿勢(全身が撮影された姿勢)であるかを認識することができる。S3-1で得られた認識結果およびスコアCnは、記憶部12に記憶される。 Here, the recognition of the posture of the person and the calculation of the score C n can be performed by using a pre-learned neural network. In other words, the person recognition unit 11a inputs the data of each of the images 2a 1 to 2a 4 to a neural network that has been trained for posture recognition in advance, thereby indicating the recognition result of the person's posture and its likelihood from the neural network. A score C n can be output. Therefore, based on the output from the neural network, the person recognition unit 11a determines whether the posture of the person is a posture that affects attribute recognition (posture in which only a part of the whole body is photographed) or not. It is possible to recognize whether it is a non-existent posture (a posture in which the whole body is photographed). The recognition result and score C n obtained in S3-1 are stored in the storage unit 12. FIG.

S5-2では、属性決定部11cは、S3-2での属性Anの認識に影響を与える事象の認識結果に対応してスコアCnの信頼度f(An)を設定する(S5-2~S7)。つまり、S3-2にて認識された事象(人物の行動、姿勢)が、属性認識に影響を与える事象である場合(S5-2でYes)、属性決定部11cは、上記認識結果に対応して、スコアCnの信頼度f(An)を1未満に設定する(S6)。一方、S3-2にて認識された事象(人物の行動、姿勢)が、属性認識に影響を与えない事象である場合(S5-2でNo)、属性決定部11cは、スコアCnの信頼度f(An)を1に設定する(S7)。 In S5-2, the attribute determining unit 11c sets the reliability f(A n ) of the score C n corresponding to the recognition result of the event affecting the recognition of the attribute A n in S3-2 (S5- 2 to S7). In other words, if the event (person's behavior, posture) recognized in S3-2 is an event that affects attribute recognition (Yes in S5-2), the attribute determination unit 11c Then, the reliability f(A n ) of the score C n is set to less than 1 (S6). On the other hand, if the event (person's behavior, posture) recognized in S3-2 is an event that does not affect attribute recognition (No in S5-2), the attribute determination unit 11c The degree f(A n ) is set to 1 (S7).

次に、属性決定部11cは、S3-2で算出されたスコアCnと、上記で設定した信頼度f(An)とに基づいて、属性情報Qn(=Q1)を属性Anのクラスごとに求める(S8)。求めた属性情報Qnは、記憶部12に人物の識別情報と対応付けて記憶される。 Next, the attribute determining unit 11c converts the attribute information Q n (=Q 1 ) to the attribute A n based on the score C n calculated in S3-2 and the reliability f(A n ) set above . (S8). The obtained attribute information Q n is stored in the storage unit 12 in association with the person's identification information.

(n+1)フレーム目以降の画像についてもS2以降の処理を繰り返し(S9、S10)、例えば異なるフレーム間で人物のIDが異なる場合など、処理の継続が不要となった時点で(S9でNo)、処理を継続しないと判断してS11に移行する。S11では、属性決定部11cは、各フレームごとに求めた属性情報Qnを複数フレームで統合し、その結果に基づいて人物の属性Bを決定する。なお、上述したS5-2~S9、S11の工程は、属性決定工程に対応する。 The processing after S2 is repeated for the (n+1)-th frame and subsequent images (S9, S10). , it determines not to continue the process, and shifts to S11. In S11, the attribute determination unit 11c integrates the attribute information Q n obtained for each frame in a plurality of frames, and determines the attribute B of the person based on the result. The steps S5-2 to S9 and S11 described above correspond to the attribute determination step.

図18は、1フレーム目および2フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、C1(P20M)=C2(P20M)=0.8であり、C1(P40M)=C2(P40M)=0.01となっている。画像中の人物の姿勢が「しゃがみ込み」であり、全身の一部のみ撮影された姿勢であるため、人物認識部11aが上記画像に基づいて人物の属性A1・A2の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC1(P40M)およびC2(P40M)よりも、「20代男性」のスコアC1(P20M)およびC2(P20M)のほうが高くなっている。 FIG. 18 shows an example of information obtained for the first and second frames. In this example, for the person with ID=0001, C 1 (P 20M )=C 2 (P 20M )=0.8 and C 1 (P 40M )=C 2 (P 40M )=0.01. ing. Since the posture of the person in the image is "squatting down" and only a part of the whole body is photographed, the person recognition unit 11a can accurately recognize the attributes A1 and A2 of the person based on the image. As a result of not being able to do so, despite the fact that "male in his 40s" is the correct answer, the score of "male in his 20s" was higher than the score C 1 (P 40M ) and C 2 (P 40M ) of "male in his 40s". 's scores C 1 (P 20M ) and C 2 (P 20M ) are higher.

そこで、人物の姿勢が属性A1・A2の認識に影響を与える姿勢であることを考慮し、図18の例では、1フレーム目のスコアC1の信頼度f(A1)を、f(A1)=f1(A1)=0.2に設定し、2フレーム目のスコアC2の信頼度f(A2)を、f(A2)=f2(A1)=0.2に設定している。これにより、1フレーム目の属性A1の認識結果に上記姿勢の認識結果を加味した属性情報Q1として、Q1(P20M)=C1(P20M)×f1(A1)=0.8×0.2=0.16が得られており、Q1(P40M)=C1(P40M)×f1(A1)=0.01×0.2=0.002が得られている。また、2フレーム目の属性A2の認識結果に上記姿勢の認識結果を加味した属性情報Q2として、Q2(P20M)=C2(P20M)×f2(A2)=0.8×0.2=0.16が得られており、Q2(P40M)=C2(P40M)×f2(A3)=0.01×0.2=0.002が得られている。 Therefore, considering that the posture of a person affects the recognition of attributes A 1 and A 2 , in the example of FIG. (A 1 )=f 1 (A 1 )=0.2, and the reliability f(A 2 ) of the score C 2 in the second frame is set to f(A 2 )=f 2 (A 1 )=0 .2. As a result, attribute information Q 1 obtained by adding the posture recognition result to the attribute A 1 recognition result of the first frame is Q 1 (P 20M )=C 1 (P 20M )×f 1 (A 1 )=0. .8 x 0.2 = 0.16 is obtained, and Q 1 (P 40M ) = C 1 (P 40M ) x f 1 (A 1 ) = 0.01 x 0.2 = 0.002. It is Also, as the attribute information Q2 obtained by adding the recognition result of the posture to the recognition result of the attribute A2 in the second frame, Q2 ( P20M )= C2 ( P20Mf2 ( A2 )=0. 8*0.2=0.16 is obtained, and Q2 ( P40M )= C2 ( P40M )* f2 ( A3 )=0.01*0.2=0.002 is obtained. ing.

図19は、3フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、スコアC3(P20M)が0.05であり、スコアC3(P40M)が0.9となっている。画像中の人物の姿勢が「立ち止まり」であり、全身が撮影された姿勢であるため、人物認識部11aが上記画像に基づいて人物の属性A3の認識を精度よく行うことができた結果、「20代男性」のスコアC3(P20M)よりも、「40代男性」のスコアC3(P40M)のほうが高くなっている。これらのスコアC3(P20M)およびC3(P40M)の大小関係は、「40代男性」を正解とする答えと対応する関係と言える。 FIG. 19 shows an example of information obtained for the third frame. In this example, the person with ID=0001 has a score C 3 (P 20M ) of 0.05 and a score C 3 (P 40M ) of 0.9. Since the posture of the person in the image is "stopping" and the whole body is photographed, the person recognition unit 11a was able to accurately recognize the attribute A3 of the person based on the above image. The score C 3 (P 40M ) of the “male in his 40s” is higher than the score C 3 (P 20M ) of the “male in his 20s”. The magnitude relationship between these scores C 3 (P 20M ) and C 3 (P 40M ) can be said to be a relationship corresponding to the correct answer of “male in his 40s”.

人物の姿勢が属性A3の認識にほとんど影響を与えない姿勢であることを考慮し、図19の例では、スコアC3の信頼度f(A3)を、f(A3)=f3(A3)=1.0に設定している。これにより、各クラスについて、属性A3の認識結果に上記位置の認識結果を加味した属性情報Q3として、「20代男性」のクラスについては、Q3(P20M)=C3(P20M)×f3(A3)=0.05×1.0=0.05が得られており、「40代男性」のクラスについては、Q3(P40M)=C3(P40M)×f3(A3)=0.9×1.0=0.9が得られている。 Considering that the posture of a person has little effect on the recognition of attribute A3 , in the example of FIG . (A 3 )=1.0 is set. As a result, for each class, the attribute information Q3 obtained by adding the recognition result of the position to the recognition result of the attribute A3 is calculated as follows: Q3 ( P20M )= C3 ( P20M ) ) ×f 3 (A 3 ) = 0.05 × 1.0 =0.05. f 3 (A 3 )=0.9×1.0=0.9 is obtained.

フレーム数nが3つの上記の例において、仮に、属性認識に影響を与える人物の姿勢(信頼度f(An))を考慮せずに属性Bを決定する場合(比較例3とする)、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)’は、スコアCnを用いて以下の式で算出される。
Z(P20M)’=C1(P20M)+C2(P20M)+C3(P20M
=0.8+0.8+0.05
=1.65
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)’ は、スコアCnを用いて以下の式で算出される。
Z(P40M)’=C1(P40M)+C2(P40M)+C3(P40M
=0.01+0.01+0.9
=0.92
上記より、Z(P40M)’>Z(P40M)’であるため、この場合は、属性Bが「20代男性」と決定されることになる。つまり、「40代男性」が正解であるにもかかわらず、3フレームトータルでは、属性Bは「20代男性」と誤った決定がされることになる。
In the above example where the number of frames n is 3, if the attribute B is determined without considering the posture of the person (reliability f(A n )) that affects attribute recognition (comparative example 3), The evaluation value Z(P 20M )′ of the recognition result of “male in his twenties” in the total of three frames is calculated by the following formula using the score C n .
Z( P20M )'= C1 ( P20M )+ C2 ( P20M )+ C3 ( P20M )
= 0.8 + 0.8 + 0.05
= 1.65
On the other hand, the evaluation value Z(P 40M )′ of the recognition result of “male in his 40s” in the total of three frames is calculated by the following formula using the score C n .
Z( P40M )'= C1 ( P40M )+ C2 ( P40M )+ C3 ( P40M )
= 0.01 + 0.01 + 0.9
= 0.92
From the above, Z(P 40M )′>Z(P 40M )′, so in this case attribute B is determined to be “male in twenties”. In other words, even though the correct answer is "male in his 40s", attribute B is erroneously determined to be "male in his 20s" in the three-frame total.

これに対して、本実施形態のように、属性認識に影響を与える人物の姿勢(信頼度f(An))を考慮して属性Bを決定する場合、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)は、属性情報Qnを用いて以下の式で算出される。
Z(P20M)=Q1(P20M)+Q2(P20M)+Q3(P20M
=C1(P20M)・f1(A1)+C2(P20M)・f2(A2
+C3(P20M)・f3(A3
=0.16+0.16+0.05
=0.37
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)は、属性情報Qnを用いて以下の式で算出される。
Z(P40M)=Q1(P40M)+Q2(P40M)+Q3(P40M
=C1(P40M)・f1(A1)+C2(P40M)・f2(A2
+C3(P40M)・f3(A3
=0.002+0.002+0.9
=0.904
上記より、Z(P20M)<Z(P40M)であるため、属性決定部11cは、3フレームトータルで、人物の属性Bは「40代男性」であると決定する。この場合、決定された属性Bは、正しい属性と一致している。
On the other hand, as in the present embodiment, when attribute B is determined in consideration of a person's posture (reliability f(A n )) that affects attribute recognition, "a male in his twenties" in three frames in total ” is calculated by the following formula using the attribute information Q n .
Z ( P20M ) = Q1 ( P20M ) + Q2 ( P20M ) + Q3 ( P20M )
= C1 ( P20M )* f1 ( A1 )+ C2 ( P20M )* f2 ( A2 )
+ C 3 (P 20M )・f 3 (A 3 )
= 0.16 + 0.16 + 0.05
= 0.37
On the other hand, the evaluation value Z (P 40M ) of the recognition result of "male in his 40s" in the total of three frames is calculated by the following formula using the attribute information Qn .
Z ( P40M ) = Q1 ( P40M ) + Q2 ( P40M ) + Q3 ( P40M )
= C 1 (P 40M )·f 1 (A 1 )+C 2 (P 40M )·f 2 (A 2 )
+ C 3 (P 40M )・f 3 (A 3 )
= 0.002 + 0.002 + 0.9
= 0.904
From the above, since Z(P 20M )<Z(P 40M ), the attribute determining unit 11c determines that the attribute B of the person is "male in 40's" for the three frames in total. In this case, the determined attribute B matches the correct attribute.

以上のように、本実施形態においても、属性決定部11cは、各フレームごとに、人物認識部11aによる属性Anの認識結果に、属性Anの認識に影響を与える事象(ここでは人物の姿勢)の認識結果を加味した属性情報Qnを各クラスについて求める(S5-2~S8)。これにより、属性決定部11cが、各クラスについて、属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定する際に(S11)、属性Anの認識に影響を与える姿勢が生じたフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に小さくし、属性Anの認識に影響を与える姿勢が生じていないフレームについては、属性Anの認識結果の最終的な属性決定への寄与度を相対的に大きくすることができる。その結果、属性Anの認識に影響を与える姿勢が数フレーム(上記の例では1フレーム目、2フレーム目)にわたって続く場合でも、最終的な属性Bの決定に対する上記数フレームの悪影響(属性Anの認識精度の低下の影響)を低減して、複数フレームのトータルで人物の属性Bを精度よく決定することができる。 As described above, also in the present embodiment, the attribute determination unit 11c adds an event (in this case, a person 's Attribute information Q n that takes into account the recognition result of posture) is obtained for each class (S5-2 to S8). As a result, when the attribute determining unit 11c determines the attribute B of the person based on the result of integrating the attribute information Q n for each class in a plurality of frames (S11), the recognition of the attribute A n is affected. For frames in which a pose occurs, the degree of contribution of the recognition result of attribute A n to final attribute determination is made relatively small. The degree of contribution of the recognition result of A n to final attribute determination can be made relatively large. As a result, even if the posture that affects the recognition of attribute A n lasts for several frames (the first and second frames in the above example), the adverse effect of the above few frames on the final determination of attribute B (attribute A n ) can be reduced, and the attribute B of the person can be accurately determined in total for a plurality of frames.

また、上記の信頼度f(An)は、属性Anの認識に影響を与える事象、つまり、画像内における人物の像から把握される人物の姿勢に基づいて設定されている。これにより、属性決定部11cは、上記信頼度f(An)を用いて、人物の姿勢を考慮した適切な属性情報Qnを取得することができる。 The reliability f(A n ) described above is set based on an event that affects the recognition of the attribute A n , that is, the posture of the person ascertained from the image of the person in the image. Accordingly, the attribute determination unit 11c can obtain appropriate attribute information Q n in consideration of the posture of the person using the reliability f(A n ).

また、上記の信頼度f(An)は、画像内における人物の姿勢が、全身の一部のみが撮影された姿勢であるか否かに基づいて設定されている。これにより、人物の姿勢が、全身が撮影された姿勢である場合とそうでない場合とで信頼度f(An)に差を持たせて、人物の姿勢に応じた属性情報Qnを取得することができる。 Further, the reliability f(A n ) is set based on whether or not the posture of the person in the image is a posture in which only a part of the whole body is photographed. As a result, the attribute information Q n corresponding to the posture of the person is acquired by giving a difference in reliability f(A n ) depending on whether the posture of the person is a posture in which the whole body is photographed or not. be able to.

特に、本実施形態では、画像内における人物の姿勢が、全身の一部のみが撮影された姿勢である場合の信頼度f(An)は、画像内における人物の姿勢が、全身が撮影された姿勢である場合の信頼度f(An)よりも低く設定されている。これにより、全身の一部のみが撮影された画像に基づき、低い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を下げて、最終的な属性Bの決定に対する上記認識結果の寄与度を低くした属性情報Qnを得ることができる。一方、全身が撮影された画像に基づき、高い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を上げて、最終的な属性Bの決定に対する上記認識結果の寄与度を高めた属性情報Qnを得ることができる。 In particular, in the present embodiment, the reliability f(A n ) when the posture of a person in an image is a posture in which only a part of the whole body is photographed is calculated as follows: It is set to be lower than the reliability f(A n ) in the case of the posture that is in the normal position. As a result, for a person's attribute A n that is recognized with low accuracy based on an image in which only a part of the whole body is captured, the reliability f(A n ) of the recognition result is lowered, and the final attribute B It is possible to obtain the attribute information Q n in which the degree of contribution of the recognition result to the determination of is reduced. On the other hand, for a person's attribute A n that is recognized with high accuracy based on an image of the whole body, the reliability f(A n ) of the recognition result is increased, and the above recognition for the final determination of attribute B is performed. It is possible to obtain attribute information Q n with a higher degree of contribution of the result.

<実施の形態4>
本実施形態では、属性Anの認識に影響を与える事象として、人物の位置を考えている点で実施の形態1と共通しているが、画像内での複数人の人物の像の位置関係、つまり、各人物矩形の位置関係を加味して属性Bを決定している点で、実施の形態1とは異なっている。以下、実施の形態1と異なる部分について説明する。
<Embodiment 4>
This embodiment is similar to the first embodiment in that the position of a person is considered as an event that affects the recognition of the attribute A n . That is, the attribute B is determined in consideration of the positional relationship of each person rectangle, which is different from the first embodiment. The parts different from the first embodiment will be described below.

図20は、2人の人物を上方から撮影した任意のフレームの画像2aを模式的に示している。例えば、店舗内(実空間)において、2人の人物が物理的に密着していたり、一方の人物が他方の人物に密着せずに覆いかぶさる状態であった場合には、2人の人物を上方から撮影して得られる画像2aでは、同図のように、2人の人物の像Pa・Pbが互いに重なる。その結果、図21に示すように、画像2a内では、2人の人物の像Pa・Pbの位置を規定する人物矩形Ra・Rbも互いに重なる。この場合、人物矩形Ra内の情報のうち、人物矩形Rbと重なる部分の情報は、人物矩形Rb内の像Pbに対応する人物の属性の認識に影響を及ぼす。同様に、人物矩形Rb内の情報のうち、人物矩形Raと重なる部分の情報は、人物矩形Ra内の像Paに対応する人物の属性の認識に影響を及ぼす。その結果、双方の人物の属性の認識精度が低下する可能性がある。一方、画像2a内で各人物矩形Ra・Rbが離れている場合は、各人物矩形Ra・Rb内の情報が、各人物の属性認識に互いに影響を及ぼすことはなく、各人物の属性の認識精度は向上する。 FIG. 20 schematically shows an arbitrary frame image 2a of two persons photographed from above. For example, in a store (real space), if two people are physically in close contact, or if one person is not in close contact with the other and is covering the other, the two people In the image 2a obtained by photographing from above, images Pa and Pb of two persons overlap each other as shown in the figure. As a result, as shown in FIG. 21, the person rectangles Ra and Rb that define the positions of the images Pa and Pb of the two persons also overlap each other in the image 2a. In this case, of the information within the person rectangle Ra, the information of the portion overlapping the person rectangle Rb affects the recognition of the attribute of the person corresponding to the image Pb within the person rectangle Rb. Similarly, of the information within the person rectangle Rb, the information of the portion overlapping the person rectangle Ra affects the recognition of the attribute of the person corresponding to the image Pa within the person rectangle Ra. As a result, there is a possibility that the recognition accuracy of the attributes of both persons will decrease. On the other hand, when the person rectangles Ra and Rb are separated from each other in the image 2a, the information in the person rectangles Ra and Rb do not mutually affect the attribute recognition of each person. Accuracy is improved.

そこで、本実施形態では、属性決定部11cは、画像2a内で、人物の像Paの位置を規定する一の人物矩形Raが、他の人物の像Pbの位置を規定する他の人物矩形Rbと重なっている場合には、信頼度f(An)を1未満に設定し、一の人物矩形Raが他の人物矩形Rbと離れている場合には、信頼度f(An)を1に設定して、各フレームごとに属性情報Qnを各クラスについて求め、求めた属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定するようにしている。 Therefore, in the present embodiment, the attribute determination unit 11c determines that one person rectangle Ra that defines the position of the person image Pa in the image 2a is replaced by another person rectangle Rb that defines the position of another person image Pb. If one person rectangle Ra is separated from another person rectangle Rb, the reliability f(A n ) is set to 1 , the attribute information Q n is obtained for each class for each frame, and the attribute B of the person is determined based on the result of integrating the obtained attribute information Q n in a plurality of frames.

図22は、本実施形態の属性決定システム1における処理の流れを示すフローチャートである。なお、図22のフローチャートは、図7のフローチャートのS3およびS5を、それぞれS3-3およびS5-3に置き換えたものである。なお、ここでは、実施の形態1と同様に、属性を判断する対象となる人物(ID=0001の人物)は、「40代男性」であるとする(「40代男性」が属性として正解であるとする)。 FIG. 22 is a flow chart showing the flow of processing in the attribute determination system 1 of this embodiment. In the flowchart of FIG. 22, S3 and S5 in the flowchart of FIG. 7 are replaced with S3-3 and S5-3, respectively. Here, as in Embodiment 1, it is assumed that the person (person with ID=0001) whose attribute is to be determined is "male in his 40s" ("male in his 40s" is the correct attribute). assuming there is).

S3-3(人物認識工程)では、人物認識部11aは、実施の形態1と同様の手法で、2人の人物を上方から撮影したnフレーム目の画像に基づいて、2人の人物の像を認識し、一方の人物の人物矩形Rnaと、その人物矩形Rna内の像に対応する人物の属性Anと、属性Anの認識に影響を与える事象(ここでは他の人物の人物矩形Rnb)とを認識するとともに、属性Anの認識結果の確からしさを示すスコアCnを算出する(人物認識工程)。得られた認識結果およびスコアCnは、記憶部12に記憶される。S4では、一の人物矩形Rnaの人物に、ID=0001の識別番号を付与し、他の人物矩形Rnbの人物に、ID=0002の識別番号を付与する。 In S3-3 (person recognition step), the person recognition unit 11a uses the same method as in the first embodiment, based on the n-th frame image of the two persons photographed from above, to identify the images of the two persons. , the person rectangle R na of one person, the attribute A n of the person corresponding to the image within the person rectangle R na , and an event that affects the recognition of the attribute A n (here, the person R nb ) are recognized, and a score C n indicating the certainty of the recognition result of the attribute A n is calculated (person recognition step). The obtained recognition results and scores C n are stored in the storage unit 12 . In S4, the identification number of ID=0001 is given to the person of one person rectangle Rna , and the identification number of ID=0002 is given to the person of another person rectangle Rnb .

S5-3では、属性決定部11cは、S3-3での属性Anの認識に影響を与える事象の認識結果(他の人物矩形Rnbが一の人物矩形Rnaと重なっているか否か)に対応してスコアCnの信頼度f(An)を設定する(S5-3~S7)。つまり、画像内で、一の人物矩形Rnaと他の人物矩形Rnbとが重なっており、他の人物矩形Rnbが一の人物矩形Rna内の像に対応する人物(ID=0001)の属性認識に影響を与える場合(S5-3でYes)、属性決定部11cは、上記認識結果に対応して、スコアCnの信頼度f(An)を1未満に設定する(S6)。一方、画像内で、一の人物矩形Rnaと他の人物矩形Rnbとが離れており、他の人物矩形Rnbが一の人物矩形Rna内の像に対応する人物の属性認識に影響を与えない場合(S5-2でNo)、属性決定部11cは、スコアCnの信頼度f(An)を1に設定する(S7)。 In S5-3, the attribute determination unit 11c determines the recognition result of the event that affects the recognition of the attribute A n in S3-3 (whether or not another person rectangle R nb overlaps one person rectangle R na ). The reliability f(A n ) of the score C n is set corresponding to (S5-3 to S7). That is, in the image, one person rectangle R na and another person rectangle R nb overlap each other, and the other person rectangle R nb corresponds to the image within the one person rectangle R na (ID=0001). (Yes in S5-3), the attribute determining unit 11c sets the reliability f(A n ) of the score C n to less than 1 (S6) . On the other hand, one person rectangle Rna and another person rectangle Rnb are separated from each other in the image, and the other person rectangle Rnb affects the attribute recognition of the person corresponding to the image in one person rectangle Rna . is not given (No in S5-2), the attribute determining unit 11c sets the reliability f(A n ) of the score C n to 1 (S7).

次に、属性決定部11cは、S3-3で算出されたスコアCnと、上記で設定した信頼度f(An)とに基づいて、属性情報Qn(=Q1)を属性Anのクラスごとに求める(S8)。求めた属性情報Qnは、記憶部12に人物の識別情報(ID=0001)と対応付けて記憶される。 Next, the attribute determination unit 11c converts the attribute information Q n (=Q 1 ) to the attribute A n based on the score C n calculated in S3-3 and the reliability f(A n ) set above . (S8). The obtained attribute information Q n is stored in the storage unit 12 in association with the person's identification information (ID=0001).

(n+1)フレーム目以降の画像についてもS2以降の処理を繰り返し(S9、S10)、処理の継続が不要となった時点でS11に移行する。S11では、属性決定部11cは、各フレームごとに求めた属性情報Qnを複数フレームで統合し、その結果に基づいて人物の属性Bを決定する。なお、上述したS5-3~S9、S11の工程は、属性決定工程に対応する。 The processing after S2 is repeated for the (n+1)-th frame and subsequent images (S9, S10), and when the continuation of the processing becomes unnecessary, the process proceeds to S11. In S11, the attribute determination unit 11c integrates the attribute information Q n obtained for each frame in a plurality of frames, and determines the attribute B of the person based on the result. The steps S5-3 to S9 and S11 described above correspond to the attribute determination step.

図23は、1フレーム目および2フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、C1(P20M)=C2(P20M)=0.7であり、C1(P40M)=C2(P40M)=0.01となっている。画像中で人物矩形Rna・Rnbが重なっており、人物認識部11aが、人物矩形Rna内の像に対応する人物(ID=0001)の属性A1・A2の認識を精度よく行うことができなかった結果、「40代男性」が正解であるにもかかわらず、「40代男性」のスコアC1(P40M)およびC2(P40M)よりも、「20代男性」のスコアC1(P20M)およびC2(P20M)のほうが高くなっている。 FIG. 23 shows an example of information obtained for the first and second frames. In this example, for the person with ID=0001, C 1 (P 20M )=C 2 (P 20M )=0.7 and C 1 (P 40M )=C 2 (P 40M )=0.01. ing. The person rectangles Rna and Rnb overlap in the image, and the person recognition unit 11a accurately recognizes the attributes A1 and A2 of the person (ID=0001) corresponding to the image within the person rectangle Rna . As a result, despite the fact that "male in his 40s" was the correct answer, the score of "male in his 20s" was higher than the score C 1 (P 40M ) and C 2 (P 40M ) of "male in his 40s". Scores C 1 (P 20M ) and C 2 (P 20M ) are higher.

そこで、人物矩形Rnbが、人物(ID=0001)の属性A1・A2の認識に影響を与える位置にあることを考慮し、図23の例では、1フレーム目のスコアC1の信頼度f(A1)を、f(A1)=f1(A1)0.1に設定し、2フレーム目のスコアC2の信頼度f(A2)を、f(A2)=f2(A2)=0.1に設定している。これにより、1フレーム目の属性A1の認識結果に上記人物矩形Rnbの認識結果(位置)を加味した属性情報Q1として、Q1(P20M)=C1(P20M)×f1(A1)=0.7×0.1=0.07が得られており、Q1(P40M)=C1(P40M)×f1(A1)=0.01×0.1=0.001が得られている。また、2フレーム目の属性A2の認識結果に上記人物矩形Rnbの認識結果(位置)を加味した属性情報Q2として、Q2(P20M)=C2(P20M)×f2(A2)=0.7×0.1=0.07が得られており、Q2(P40M)=C2(P40M)×f2(A2)=0.01×0.1=0.001が得られている。 Considering that the person rectangle R nb is located at a position that affects the recognition of the attributes A 1 and A 2 of the person (ID=0001), in the example of FIG . The degree f(A 1 ) is set to f(A 1 )=f 1 (A 1 ) 0.1, and the reliability f(A 2 ) of the score C 2 in the second frame is set to f(A 2 )= It is set to f 2 (A 2 )=0.1. As a result, as attribute information Q1 obtained by adding the recognition result (position) of the person rectangle Rnb to the recognition result of the attribute A1 of the first frame, Q1 ( P20M )= C1 ( P20Mf1 (A 1 )=0.7×0.1=0.07 is obtained and Q 1 (P 40M )=C 1 (P 40M )×f 1 (A 1 )=0.01×0.1 = 0.001 is obtained. Also, as attribute information Q2 obtained by adding the recognition result (position) of the person rectangle Rnb to the recognition result of the attribute A2 in the second frame, Q2 ( P20M )= C2 ( P20Mf2 ( A 2 ) = 0.7 x 0.1 = 0.07 and Q 2 (P 40M ) = C 2 (P 40M ) x f 2 (A 2 ) = 0.01 x 0.1 = 0.001 is obtained.

図24は、3フレーム目について得られた情報の一例を示している。この例では、ID=0001の人物について、スコアC3(P20M)が0.01であり、スコアC3(P40M)が0.9となっている。画像中で人物矩形Rna・Rnbが互いに離れており、人物認識部11aが上記画像(人物矩形Rna内の人物(ID=0001)の像)に基づいて人物の属性A3の認識を精度よく行うことができた結果、「20代男性」のスコアC3(P20M)よりも、「40代男性」のスコアC3(P40M)のほうが高くなっている。これらのスコアC3(P20M)およびC3(P40M)の大小関係は、「40代男性」を正解とする答えと対応する関係と言える。 FIG. 24 shows an example of information obtained for the third frame. In this example, for the person with ID=0001, the score C 3 (P 20M ) is 0.01 and the score C 3 (P 40M ) is 0.9. In the image, the person rectangles Rna and Rnb are separated from each other, and the person recognition unit 11a recognizes the person's attribute A3 based on the image (the image of the person (ID=0001) in the person rectangle Rna ). As a result of being able to do this with good accuracy, the score C 3 (P 40M ) for the "male in his 40s" is higher than the score C 3 (P 20M ) for the "male in his 20s". The magnitude relationship between these scores C 3 (P 20M ) and C 3 (P 40M ) can be said to be a relationship corresponding to the correct answer of “male in his 40s”.

人物矩形Rnbが、人物(ID=0001)の属性A3の認識にほとんど影響を与えない位置であることを考慮し、図24の例では、スコアC3の信頼度f(A3)を、f(A3)=f3(A3)=1.0に設定している。これにより、各クラスについて、人物(ID=0001)の属性A3の認識結果に上記人物矩形Rnbの認識結果を加味した属性情報Q3として、「20代男性」のクラスについては、Q3(P20M)=C3(P20M)×f3(A3)=0.01×1.0=0.01が得られており、「40代男性」のクラスについては、Q3(P40M)=C3(P40M)×f3(A3)=0.9×1.0=0.9が得られている。 Considering that the person rectangle Rnb is a position that hardly affects the recognition of the attribute A3 of the person (ID=0001), in the example of FIG . , f(A 3 )=f 3 (A 3 )=1.0. As a result, for each class, the attribute information Q3 obtained by adding the recognition result of the person rectangle Rnb to the attribute A3 of the person (ID=0001) is obtained. (P 20M ) = C 3 (P 20M ) x f 3 (A 3 ) = 0.01 x 1.0 = 0.01 . 40M )= C3 ( P40M )* f3 ( A3 )=0.9*1.0=0.9 is obtained.

フレーム数nが3つの上記の例において、仮に、属性認識に影響を与える人物矩形Rnbの位置(信頼度f(An))を考慮せずに属性Bを決定する場合(比較例4とする)、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)’は、スコアCnを用いて以下の式で算出される。
Z(P20M)’=C1(P20M)+C2(P20M)+C3(P20M
=0.7+0.7+0.01
=1.41
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)’ は、スコアCnを用いて以下の式で算出される。
Z(P40M)’=C1(P40M)+C2(P40M)+C3(P40M
=0.01+0.01+0.9
=0.92
上記より、Z(P40M)’>Z(P40M)’であるため、この場合は、属性Bが「20代男性」と決定されることになる。つまり、「40代男性」が正解であるにもかかわらず、3フレームトータルでは、属性Bは「20代男性」と誤った決定がされることになる。
In the above example where the number of frames n is 3, if the attribute B is determined without considering the position (reliability f(A n )) of the person rectangle R nb that affects attribute recognition (comparative example 4 and ), and the evaluation value Z(P 20M )′ of the recognition result of “male in his twenties” in the total of three frames is calculated by the following formula using the score C n .
Z( P20M )'= C1 ( P20M )+ C2 ( P20M )+ C3 ( P20M )
= 0.7 + 0.7 + 0.01
= 1.41
On the other hand, the evaluation value Z(P 40M )′ of the recognition result of “male in his 40s” in the total of three frames is calculated by the following formula using the score C n .
Z( P40M )'= C1 ( P40M )+ C2 ( P40M )+ C3 ( P40M )
= 0.01 + 0.01 + 0.9
= 0.92
From the above, Z(P 40M )′>Z(P 40M )′, so in this case attribute B is determined to be “male in twenties”. In other words, even though the correct answer is "male in his 40s", attribute B is erroneously determined to be "male in his 20s" in the three-frame total.

これに対して、本実施形態のように、属性認識に影響を与える人物矩形Rnbの位置(信頼度f(An))を考慮して属性Bを決定する場合、3フレームトータルでの「20代男性」の認識結果の評価値Z(P20M)は、属性情報Qnを用いて以下の式で算出される。
Z(P20M)=Q1(P20M)+Q2(P20M)+Q3(P20M
=C1(P20M)・f1(A1)+C2(P20M)・f2(A2
+C3(P20M)・f3(A3
=0.07+0.07+0.01
=0.15
一方、3フレームトータルでの「40代男性」の認識結果の評価値Z(P40M)は、属性情報Qnを用いて以下の式で算出される。
Z(P40M)=Q1(P40M)+Q2(P40M)+Q3(P40M
=C1(P40M)・f1(A1)+C2(P40M)・f2(A2
+C3(P40M)・f3(A3
=0.001+0.001+0.9
=0.902
上記より、Z(P20M)<Z(P40M)であるため、属性決定部11cは、3フレームトータルで、人物の属性Bは「40代男性」であると決定する。この場合、決定された属性Bは、正しい属性と一致している。
On the other hand, as in the present embodiment, when the attribute B is determined in consideration of the position (reliability f(A n )) of the person rectangle R nb that affects attribute recognition, " The evaluation value Z (P 20M ) of the recognition result of "male in his twenties" is calculated by the following formula using the attribute information Q n .
Z ( P20M ) = Q1 ( P20M ) + Q2 ( P20M ) + Q3 ( P20M )
= C1 ( P20M )* f1 ( A1 )+ C2 ( P20M )* f2 ( A2 )
+ C 3 (P 20M )・f 3 (A 3 )
= 0.07 + 0.07 + 0.01
= 0.15
On the other hand, the evaluation value Z (P 40M ) of the recognition result of "male in his 40s" in the total of three frames is calculated by the following formula using the attribute information Qn .
Z ( P40M ) = Q1 ( P40M ) + Q2 ( P40M ) + Q3 ( P40M )
= C 1 (P 40M )·f 1 (A 1 )+C 2 (P 40M )·f 2 (A 2 )
+ C 3 (P 40M )・f 3 (A 3 )
= 0.001 + 0.001 + 0.9
= 0.902
From the above, since Z(P 20M )<Z(P 40M ), the attribute determining unit 11c determines that the attribute B of the person is "male in 40's" for the three frames in total. In this case, the determined attribute B matches the correct attribute.

以上のように、本実施形態においても、属性決定部11cは、各フレームごとに、人物認識部11aによる属性Anの認識結果に、属性Anの認識に影響を与える事象(人物の位置(特に人物矩形Rna・Rnbの重なり))の認識結果を加味した属性情報Qnを各クラスについて求める(S5-3~S8)。これにより、属性決定部11cが、各クラスについて、属性情報Qnを複数フレームで統合した結果に基づいて、人物の属性Bを決定する際に(S11)、属性Anの認識に影響を与える事象が生じたフレーム(画像内で人物矩形Rna・Rnbが重なっているフレーム)については、属性Anの認識結果の最終的な属性決定への寄与度を相対的に小さくし、属性Anの認識に影響を与える事象が生じていないフレーム(画像内で人物矩形Rna・Rnbが離れているフレーム)については、属性Anの認識結果の最終的な属性決定への寄与度を相対的に大きくすることができる。その結果、属性Anの認識に影響を与える事象(人物矩形Rna・Rnbの重なり)が数フレーム(上記の例では1フレーム目、2フレーム目)にわたって続く場合でも、最終的な属性Bの決定に対する上記数フレームの悪影響(属性Anの認識精度の低下の影響)を低減して、複数フレームのトータルで人物の属性Bを精度よく決定することができる。 As described above, also in the present embodiment, the attribute determining unit 11c adds an event (person's position ( In particular, the attribute information Q n that takes into account the recognition results of the person rectangles R na and R nb overlapping)) is obtained for each class (S5-3 to S8). As a result, when the attribute determining unit 11c determines the attribute B of the person based on the result of integrating the attribute information Q n for each class in a plurality of frames (S11), the recognition of the attribute A n is affected. For the frame in which the event occurred (the frame in which the person rectangles Rna and Rnb overlap in the image), the contribution of the attribute A n to the final attribute determination of the recognition result is made relatively small, and the attribute A For frames in which an event affecting the recognition of n does not occur (frames in which the person rectangles Rna and Rnb are separated in the image), the degree of contribution of the recognition result of attribute A n to final attribute determination is It can be relatively large. As a result, even if the event that affects the recognition of the attribute A n (overlapping of the person rectangles R na and R nb ) continues over several frames (the first and second frames in the above example), the final attribute B It is possible to reduce the adverse effect of the above several frames on the determination of (influence of deterioration in the recognition accuracy of attribute A n ), and accurately determine the attribute B of the person in the total of a plurality of frames.

また、上記の信頼度f(An)は、画像内で、一の人物矩形Rnaが他の人物矩形Rnbと重なっているか否かに基づいて設定されている。これにより、画像内で、一の人物矩形Rnaが他の人物矩形Rnbと重なっている場合とそうでない場合とで信頼度f(An)に差を持たせて、人物矩形Rna・Rnbの位置に応じた属性情報Qnを取得することができる。 Further, the reliability f(A n ) is set based on whether or not one person rectangle R na overlaps another person rectangle R nb in the image. As a result, the reliability f(A n ) differs depending on whether or not one person rectangle R na overlaps another person rectangle R nb in the image, and the person rectangle R na · Attribute information Q n corresponding to the position of R nb can be obtained.

特に、本実施形態では、画像内で、一の人物矩形Rnaが他の人物矩形Rnbと重なっている場合の信頼度f(An)は、一の人物矩形Rnaが他の人物矩形Rnbから離れている場合の信頼度f(An)よりも低く設定されている。これにより、人物矩形Rna・Rnbが重なっている画像に基づき、低い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を下げて、最終的な属性Bの決定に対する上記認識結果の寄与度を低くした属性情報Qnを得ることができる。一方、人物矩形Rna・Rnbが離れている画像に基づき、高い精度で認識される人物の属性Anについては、その認識結果の信頼度f(An)を上げて、最終的な属性Bの決定に対する上記認識結果の寄与度を高めた属性情報Qnを得ることができる。 In particular, in the present embodiment, the reliability f(A n ) when one person rectangle R na overlaps another person rectangle R nb in an image is calculated as follows. It is set lower than the reliability f(A n ) when far from R nb . As a result, based on the image in which the person rectangles R na and R nb are superimposed, the reliability f(A n ) of the recognition result for the attribute A n of the person recognized with low accuracy is lowered, and the final Attribute information Q n in which the degree of contribution of the recognition result to determination of attribute B is reduced can be obtained. On the other hand, for a person attribute A n that is recognized with high accuracy based on an image in which the person rectangles R na and R nb are distant, the reliability f(A n ) of the recognition result is increased, and the final attribute It is possible to obtain attribute information Q n in which the degree of contribution of the recognition result to the determination of B is increased.

<プログラムおよび記録媒体>
以上の各実施の形態で説明した属性決定装置3は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部16)が読み取って実行することにより、属性決定装置3の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されて記憶部12に記憶される。また、上記プログラムは、例えばCD-ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体に記録され、この記録媒体から上記プログラムをコンピュータが読み取って記憶部12に記憶する形態であってもよい。
<Program and recording medium>
The attribute determination device 3 described in each of the above embodiments can be configured by, for example, a computer (PC) in which a predetermined program (application software) is installed. A computer (for example, the control unit 16 as a CPU) reads and executes the above program, so that each unit of the attribute determination device 3 can be operated to execute each process (each process) described above. Such a program is acquired by, for example, downloading from the outside via a network and stored in the storage unit 12 . The program is recorded in a computer-readable recording medium such as a CD-ROM (Compact Disk-Read Only Memory), and the computer reads the program from the recording medium and stores the program in the storage unit 12. may

<補足>
以上の各実施の形態を組み合わせて、複数フレームのトータルで人物の属性を決定することも可能である。例えば、属性の認識に影響を与える事象として、人物の位置、行動、姿勢を適宜組み合わせて信頼度を設定し、上記信頼度とスコアとに基づいて各フレームごとに属性情報を求め、複数フレームで属性情報を統合することによって、属性を決定するようにしてもよい。
<Supplement>
By combining the above embodiments, it is possible to determine the attributes of a person in total for a plurality of frames. For example, as an event that affects the recognition of attributes, a reliability level is set by appropriately combining a person's position, action, and posture, and attribute information is obtained for each frame based on the above reliability level and score, Attributes may be determined by integrating attribute information.

以上で説明した本実施形態の属性決定装置、属性決定システムおよび属性決定方法は、以下のように表現されてもよい。また、本実施形態で説明した内容は、以下のプログラムおよび記録媒体を含む。 The attribute determination device, attribute determination system, and attribute determination method of this embodiment described above may be expressed as follows. Further, the contents described in this embodiment include the following programs and recording media.

1.人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定装置であって、
各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識部と、
各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定部と、
各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定部とを備えていることを特徴とする属性決定装置。
1. An attribute determining device for determining an attribute of a person based on an image of each frame photographing the person from above,
A person who recognizes, for each frame, based on the image of each frame, person information indicating information of the image of the person in the image, attributes of the person, and events affecting recognition of the attributes. a recognition unit;
a person identification unit that determines whether or not the image of the person is the image of the same person between frames based on the person information of each frame;
With respect to the person whose images are determined to be the same person in each frame, the recognized attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is added for each frame. an attribute determination unit that determines the attributes of the person based on results obtained for each class of attributes and integrating the attribute information in a plurality of frames for each of the classes. .

2.前記人物認識部は、各フレームの前記画像に基づいて、前記属性の認識結果の確からしさを示すスコアを算出し、
前記属性決定部は、前記事象の認識結果に対応して前記スコアの信頼度を設定し、前記人物認識部によって算出された前記スコアと、前記信頼度とに基づいて、前記クラスごとに前記属性情報を求めることを特徴とする前記1に記載の属性決定装置。
2. The person recognition unit calculates a score indicating the likelihood of the recognition result of the attribute based on the image of each frame,
The attribute determination unit sets the reliability of the score corresponding to the recognition result of the event, and based on the score calculated by the person recognition unit and the reliability, the 2. The attribute determination device according to 1 above, which obtains attribute information.

3.前記事象は、前記画像内における前記人物の像の位置を含み、
前記信頼度は、前記人物の像の位置に基づいて設定されていることを特徴とする前記2に記載の属性決定装置。
3. the event includes the position of the image of the person within the image;
3. The attribute determination device according to 2, wherein the reliability is set based on the position of the image of the person.

4.前記信頼度は、前記画像内における前記人物の像の位置が、全身が撮影された位置であるか否かに基づいて設定されていることを特徴とする前記3に記載の属性決定装置。 4. 4. The attribute determination device according to 3 above, wherein the reliability is set based on whether or not the position of the image of the person in the image is a position where the whole body is photographed.

5.前記画像内における前記人物の像の位置が、全身が撮影された位置である場合の前記信頼度は、前記画像内における前記人物の像の位置が、全身の一部のみが撮影された位置である場合の前記信頼度よりも高く設定されていることを特徴とする前記4に記載の属性決定装置。 5. The reliability when the position of the image of the person in the image is the position where the whole body is photographed is the position where the image of the person in the image is the position where only a part of the whole body is photographed. 5. The attribute determination device according to 4 above, wherein the reliability is set higher than the reliability in a certain case.

6.前記信頼度は、前記画像内で、前記人物の像の位置を規定する一の人物矩形が、他の人物の像の位置を規定する他の人物矩形と重なっているか否かに基づいて設定されていることを特徴とする前記3に記載の属性決定装置。 6. The reliability is set based on whether or not one person rectangle defining the position of the image of the person overlaps another person rectangle defining the position of the image of another person in the image. 4. The attribute determination device according to 3 above, characterized in that:

7.前記画像内で、前記一の人物矩形が前記他の人物矩形と重なっている場合の前記信頼度は、前記一の人物矩形が前記他の人物矩形から離れている場合の前記信頼度よりも低く設定されていることを特徴とする前記6に記載の属性決定装置。 7. In the image, the confidence when the one person rectangle overlaps with the other person rectangle is lower than the confidence when the one person rectangle is separated from the other person rectangle. 7. The attribute determination device according to 6 above, characterized in that it is set.

8.前記事象は、前記画像内における前記人物の像から把握される前記人物の行動を含み、
前記信頼度は、前記人物の行動に基づいて設定されていることを特徴とする前記2から7のいずれかに記載の属性決定装置。
8. The event includes the behavior of the person grasped from the image of the person in the image,
8. The attribute determination device according to any one of 2 to 7, wherein the reliability is set based on the behavior of the person.

9.前記信頼度は、前記人物の行動が、動きを伴う行動であるか否かに基づいて設定されていることを特徴とする前記8に記載の属性決定装置。 9. 9. The attribute determination device according to 8, wherein the reliability is set based on whether or not the action of the person involves movement.

10.前記人物の行動が動きを伴う行動である場合の前記信頼度は、前記人物の行動が滞留行動である場合の前記信頼度よりも低く設定されていることを特徴とする前記9に記載の属性決定装置。 10. 10. The attribute according to 9 above, wherein the reliability when the action of the person is an action involving movement is set lower than the reliability when the action of the person is a staying action. decision device.

11.前記事象は、前記画像内における前記人物の像から把握される前記人物の姿勢を含み、
前記信頼度は、前記人物の姿勢に基づいて設定されていることを特徴とする前記2から10のいずれかに記載の属性決定装置。
11. The event includes the posture of the person grasped from the image of the person in the image,
11. The attribute determination device according to any one of 2 to 10, wherein the reliability is set based on the posture of the person.

12.前記信頼度は、前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢であるか否かに基づいて設定されていることを特徴とする前記11に記載の属性決定装置。 12. 12. The attribute determination apparatus according to 11 above, wherein the reliability is set based on whether or not the posture of the person in the image is a posture in which only a part of the whole body is photographed. .

13.前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢である場合の前記信頼度は、前記画像内における前記人物の姿勢が、全身が撮影された姿勢である場合の前記信頼度よりも低く設定されていることを特徴とする前記12に記載の属性決定装置。 13. The reliability when the posture of the person in the image is a posture in which only a part of the whole body is photographed is the reliability when the posture of the person in the image is a posture in which the whole body is photographed. 13. The attribute determination device according to 12 above, wherein the attribute is set lower than the reliability.

14.前記人物の前記属性は、前記人物の年齢および性別の少なくとも一方であることを特徴とする前記1から13のいずれかに記載の属性決定装置。 14. 14. The attribute determination device according to any one of 1 to 13, wherein the attribute of the person is at least one of age and sex of the person.

15.前記属性決定部によって決定された前記属性を記憶する記憶部をさらに備えていることを特徴とする前記1から14のいずれかに記載の属性決定装置。 15. 15. The attribute determination device according to any one of 1 to 14, further comprising a storage unit that stores the attribute determined by the attribute determination unit.

16.前記1から15のいずれかに記載の属性決定装置と、
前記属性決定装置と通信回線を介して接続される管理サーバーとを含み、
前記管理サーバーは、前記属性決定装置から送出される情報を格納する格納部を備え、
前記情報には、前記属性決定装置の前記属性決定部によって決定された前記属性が含まれることを特徴とする属性決定システム。
16. 16. The attribute determination device according to any one of 1 to 15;
including a management server connected to the attribute determination device via a communication line,
The management server comprises a storage unit for storing information sent from the attribute determination device,
The attribute determination system, wherein the information includes the attribute determined by the attribute determination unit of the attribute determination device.

17.人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定方法であって、
各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識工程と、
各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定工程と、
各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定工程とを含むことを特徴とする属性決定方法。
17. An attribute determination method for determining an attribute of a person based on an image of each frame photographing the person from above,
A person who recognizes, for each frame, based on the image of each frame, person information indicating information of the image of the person in the image, attributes of the person, and events affecting recognition of the attributes. a recognition process;
a person identification step of determining whether or not the images of the person between the frames are images of the same person based on the person information of each frame;
With respect to the person whose images are determined to be the same person in each frame, the recognized attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is added for each frame. and an attribute determination step of determining the attributes of the person based on results obtained for each attribute class and integrating the attribute information in a plurality of frames for each class.

18.前記人物認識工程では、各フレームの前記画像に基づいて、前記属性の認識結果の確からしさを示すスコアを算出し、
前記属性決定工程では、前記事象の認識結果に対応して前記スコアの信頼度を設定し、前記人物認識部によって算出された前記スコアと、前記信頼度とに基づいて、前記クラスごとに前記属性情報を求めることを特徴とする前記17に記載の属性決定方法。
18. In the person recognition step, based on the image of each frame, a score indicating the likelihood of the recognition result of the attribute is calculated;
In the attribute determination step, the reliability of the score is set corresponding to the recognition result of the event, and based on the score calculated by the person recognition unit and the reliability, the 18. The attribute determination method according to 17 above, wherein attribute information is obtained.

19.前記事象は、前記画像内における前記人物の像の位置を含み、
前記信頼度は、前記人物の像の位置に基づいて設定されていることを特徴とする前記18に記載の属性決定方法。
19. the event includes the position of the image of the person within the image;
19. The attribute determination method according to 18 above, wherein the reliability is set based on the position of the image of the person.

20.前記信頼度は、前記画像内における前記人物の像の位置が、全身が撮影された位置であるか否かに基づいて設定されていることを特徴とする前記19に記載の属性決定方法。 20. 20. The attribute determination method according to 19, wherein the reliability is set based on whether or not the position of the image of the person in the image is a position where the whole body is photographed.

21.前記画像内における前記人物の像の位置が、全身が撮影された位置である場合の前記信頼度は、前記画像内における前記人物の像の位置が、全身の一部のみが撮影された位置である場合の前記信頼度よりも高く設定されていることを特徴とする前記20に記載の属性決定方法。 21. The reliability when the position of the image of the person in the image is the position where the whole body is photographed is the position where the image of the person in the image is the position where only a part of the whole body is photographed. 21. The attribute determination method as described in 20 above, wherein the reliability is set higher than the reliability in a certain case.

22.前記信頼度は、前記画像内で、前記人物の像の位置を規定する一の人物矩形が、他の人物の像の位置を規定する他の人物矩形と重なっているか否かに基づいて設定されていることを特徴とする前記19に記載の属性決定方法。 22. The reliability is set based on whether or not one person rectangle defining the position of the image of the person overlaps another person rectangle defining the position of the image of another person in the image. 20. The attribute determination method according to 19 above, characterized in that

23.前記画像内で、前記一の人物矩形が前記他の人物矩形と重なっている場合の前記信頼度は、前記一の人物矩形が前記他の人物矩形から離れている場合の前記信頼度よりも低く設定されていることを特徴とする前記22に記載の属性決定方法。 23. In the image, the confidence when the one person rectangle overlaps with the other person rectangle is lower than the confidence when the one person rectangle is separated from the other person rectangle. 23. The attribute determination method according to the above 22, wherein the attribute is set.

24.前記事象は、前記画像内における前記人物の像から把握される前記人物の行動を含み、
前記信頼度は、前記人物の行動に基づいて設定されていることを特徴とする前記18から23のいずれかに記載の属性決定方法。
24. The event includes the behavior of the person grasped from the image of the person in the image,
24. The attribute determination method according to any one of 18 to 23, wherein the reliability is set based on behavior of the person.

25.前記信頼度は、前記人物の行動が、動きを伴う行動であるか否かに基づいて設定されていることを特徴とする前記24に記載の属性決定方法。 25. 25. The attribute determination method according to 24 above, wherein the reliability is set based on whether or not the action of the person involves movement.

26.前記人物の行動が動きを伴う行動である場合の前記信頼度は、前記人物の行動が滞留行動である場合の前記信頼度よりも低く設定されていることを特徴とする前記25に記載の属性決定方法。 26. 26. The attribute according to 25 above, wherein the reliability when the action of the person is an action involving movement is set lower than the reliability when the action of the person is a staying action. How to decide.

27.前記事象は、前記画像内における前記人物の像から把握される前記人物の姿勢を含み、
前記信頼度は、前記人物の姿勢に基づいて設定されていることを特徴とする前記18から26のいずれかに記載の属性決定方法。
27. The event includes the posture of the person grasped from the image of the person in the image,
27. The attribute determination method according to any one of 18 to 26, wherein the reliability is set based on the posture of the person.

28.前記信頼度は、前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢であるか否かに基づいて設定されていることを特徴とする前記27に記載の属性決定方法。 28. 28. The attribute determination method according to 27 above, wherein the reliability is set based on whether or not the posture of the person in the image is a posture in which only a part of the whole body is photographed. .

29.前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢である場合の前記信頼度は、前記画像内における前記人物の姿勢が、全身が撮影された姿勢である場合の前記信頼度よりも低く設定されていることを特徴とする前記28に記載の属性決定方法。 29. The reliability when the posture of the person in the image is a posture in which only a part of the whole body is photographed is the reliability when the posture of the person in the image is a posture in which the whole body is photographed. 29. The attribute determination method according to 28 above, wherein the attribute is set lower than the reliability.

30.前記人物の前記属性は、前記人物の年齢および性別の少なくとも一方であることを特徴とする前記17から29のいずれかに記載の属性決定方法。 30. 30. The attribute determination method according to any one of 17 to 29, wherein the attribute of the person is at least one of age and sex of the person.

31.前記属性決定工程によって決定された前記属性を記憶する記憶工程をさらに含むことを特徴とする請求項17から30のいずれかに記載の属性決定方法。 31. 31. The attribute determination method according to any one of claims 17 to 30, further comprising a storage step of storing said attributes determined by said attribute determination step.

32.前記17から31のいずれかに記載の属性決定方法をコンピュータに実行させるための属性決定プログラム。 32. 32. An attribute determination program for causing a computer to execute the attribute determination method according to any one of 17 to 31 above.

33.前記32に記載の属性決定プログラムを記録した、コンピュータ読取可能な記録媒体。 33. 33. A computer-readable recording medium recording the attribute determination program according to 32 above.

以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited thereto, and can be implemented by being expanded or modified without departing from the gist of the invention.

本発明は、人物を上方から撮影した各フレームの画像に基づいて、人物の属性を決定する装置、システムおよび方法に利用可能である。 INDUSTRIAL APPLICABILITY The present invention is applicable to apparatuses, systems, and methods for determining attributes of a person based on each frame image of the person photographed from above.

1 属性決定システム
3 属性決定装置
4 管理サーバー
11a 人物認識部
11b 人物同定部
11c 属性決定部
12 記憶部
21 格納部
1 attribute determination system 3 attribute determination device 4 management server 11a person recognition unit 11b person identification unit 11c attribute determination unit 12 storage unit 21 storage unit

Claims (19)

人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定装置であって、
各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識部と、
各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定部と、
各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定部とを備え、
前記人物認識部は、各フレームの前記画像に基づいて、前記属性の認識結果の確からしさを示すスコアを算出し、
前記属性決定部は、前記事象の認識結果に対応して前記スコアの信頼度を設定し、前記人物認識部によって算出された前記スコアに前記信頼度を乗算することによって、前記クラスごとに前記属性情報を求め、前記クラスごとに求めた前記属性情報を複数フレームで統合した、前記クラスごとの評価値の大小関係に基づいて前記人物の属性を決定することを特徴とする属性決定装置。
An attribute determining device for determining an attribute of a person based on an image of each frame photographing the person from above,
A person who recognizes, for each frame, based on the image of each frame, person information indicating information of the image of the person in the image, attributes of the person, and events affecting recognition of the attributes. a recognition unit;
a person identification unit that determines whether or not the image of the person is the image of the same person between frames based on the person information of each frame;
With respect to the person whose images are determined to be the same person between frames, the recognized attribute information obtained by adding the recognition result of the event to the recognition result of the attribute is obtained for each frame. an attribute determining unit that determines the attributes of the person based on results obtained for each class of attributes and integrating the attribute information in a plurality of frames for each class;
The person recognition unit calculates a score indicating the likelihood of the recognition result of the attribute based on the image of each frame,
The attribute determination unit sets the reliability of the score corresponding to the recognition result of the event, and multiplies the score calculated by the person recognition unit by the reliability to obtain the 1. An attribute determination device, wherein attribute information is obtained, and the attribute information obtained for each class is integrated in a plurality of frames , and the attribute of the person is determined based on the magnitude relation of the evaluation values for each class .
前記事象は、前記画像内における前記人物の像の位置を含み、
前記信頼度は、前記人物の像の位置に基づいて設定されていることを特徴とする請求項1に記載の属性決定装置。
the event includes the position of the image of the person within the image;
2. The attribute determination device according to claim 1, wherein the reliability is set based on the position of the image of the person.
前記信頼度は、前記画像内における前記人物の像の位置が、全身が撮影された位置であるか否かに基づいて設定されていることを特徴とする請求項2に記載の属性決定装置。 3. The attribute determination device according to claim 2, wherein the reliability is set based on whether the position of the image of the person in the image is a position where the whole body is photographed. 前記画像内における前記人物の像の位置が、全身が撮影された位置である場合の前記信頼度は、前記画像内における前記人物の像の位置が、全身の一部のみが撮影された位置である場合の前記信頼度よりも高く設定されていることを特徴とする請求項3に記載の属性決定装置。 The reliability when the position of the image of the person in the image is the position where the whole body is photographed is the position where the image of the person in the image is the position where only a part of the whole body is photographed. 4. The attribute determination device according to claim 3, wherein the reliability is set higher than the reliability in a certain case. 前記信頼度は、前記画像内で、前記人物の像の位置を規定する一の人物矩形が、他の人物の像の位置を規定する他の人物矩形と重なっているか否かに基づいて設定されていることを特徴とする請求項2に記載の属性決定装置。 The reliability is set based on whether or not one person rectangle defining the position of the image of the person overlaps another person rectangle defining the position of the image of another person in the image. 3. The attribute determination device according to claim 2, wherein: 前記画像内で、前記一の人物矩形が前記他の人物矩形と重なっている場合の前記信頼度は、前記一の人物矩形が前記他の人物矩形から離れている場合の前記信頼度よりも低く設定されていることを特徴とする請求項5に記載の属性決定装置。 In the image, the confidence when the one person rectangle overlaps with the other person rectangle is lower than the confidence when the one person rectangle is separated from the other person rectangle. 6. The attribute determination device according to claim 5, wherein the attribute is set. 前記事象は、前記画像内における前記人物の像から把握される前記人物の行動を含み、
前記信頼度は、前記人物の行動に基づいて設定されていることを特徴とする請求項1から6のいずれかに記載の属性決定装置。
The event includes the behavior of the person grasped from the image of the person in the image,
7. The attribute determination device according to any one of claims 1 to 6, wherein the reliability is set based on behavior of the person.
前記信頼度は、前記人物の行動が、動きを伴う行動であるか否かに基づいて設定されていることを特徴とする請求項7に記載の属性決定装置。 8. The attribute determination device according to claim 7, wherein the reliability is set based on whether or not the action of the person involves movement. 前記人物の行動が動きを伴う行動である場合の前記信頼度は、前記人物の行動が滞留行動である場合の前記信頼度よりも低く設定されていることを特徴とする請求項8に記載の属性決定装置。 9. The method according to claim 8, wherein the reliability when the action of the person is an action involving movement is set lower than the reliability when the action of the person is a staying action. Attribute determination device. 前記事象は、前記画像内における前記人物の像から把握される前記人物の姿勢を含み、
前記信頼度は、前記人物の姿勢に基づいて設定されていることを特徴とする請求項1から9のいずれかに記載の属性決定装置。
The event includes the posture of the person grasped from the image of the person in the image,
10. The attribute determination device according to any one of claims 1 to 9, wherein the reliability is set based on the posture of the person.
前記信頼度は、前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢であるか否かに基づいて設定されていることを特徴とする請求項10に記載の属性決定装置。 11. The attribute determination according to claim 10, wherein the reliability is set based on whether the posture of the person in the image is a posture in which only a part of the whole body is photographed. Device. 前記画像内における前記人物の姿勢が、全身の一部のみが撮影された姿勢である場合の前記信頼度は、前記画像内における前記人物の姿勢が、全身が撮影された姿勢である場合の前記信頼度よりも低く設定されていることを特徴とする請求項11に記載の属性決定装置。 The reliability when the posture of the person in the image is a posture in which only a part of the whole body is photographed is the reliability when the posture of the person in the image is a posture in which the whole body is photographed. 12. The attribute determination device according to claim 11, wherein the attribute is set lower than the reliability. 前記人物の前記属性は、前記人物の年齢および性別の少なくとも一方であることを特徴とする請求項1から12のいずれかに記載の属性決定装置。 13. The attribute determination device according to any one of claims 1 to 12, wherein the attribute of the person is at least one of age and sex of the person. 前記属性決定部によって決定された前記属性を記憶する記憶部をさらに備えていることを特徴とする請求項1から13のいずれかに記載の属性決定装置。 14. The attribute determination device according to any one of claims 1 to 13, further comprising a storage unit that stores the attribute determined by the attribute determination unit. 請求項1から14のいずれかに記載の属性決定装置と、
前記属性決定装置と通信回線を介して接続される管理サーバーとを含み、
前記管理サーバーは、前記属性決定装置から送出される情報を格納する格納部を備え、
前記情報には、前記属性決定装置の前記属性決定部によって決定された前記属性が含まれることを特徴とする属性決定システム。
an attribute determination device according to any one of claims 1 to 14;
including a management server connected to the attribute determination device via a communication line,
The management server comprises a storage unit for storing information sent from the attribute determination device,
The attribute determination system, wherein the information includes the attribute determined by the attribute determination unit of the attribute determination device.
人物を上方から撮影した各フレームの画像に基づいて、前記人物の属性を決定する属性決定方法であって、
人物認識部が、各フレームの前記画像に基づいて、前記画像内における前記人物の像の情報を示す人物情報と、前記人物の属性と、前記属性の認識に影響を与える事象とを、各フレームごとに認識する人物認識工程と、
人物同定部が、各フレームの前記人物情報に基づいて、各フレーム間で前記人物の像が同一人の像であるか否かを判断する人物同定工程と、
属性決定部が、各フレーム間で前記人物の像が同一人の像であると判断された前記人物に関して、各フレームごとに、前記属性の認識結果に前記事象の認識結果を加味した属性情報を、認識した前記属性の各クラスについて求め、前記各クラスについて、前記属性情報を複数フレームで統合した結果に基づいて、前記人物の前記属性を決定する属性決定工程とを含み、
前記人物認識工程では、前記人物認識部が、各フレームの前記画像に基づいて、前記属性の認識結果の確からしさを示すスコアを算出し、
前記属性決定工程では、前記属性決定部が、前記事象の認識結果に対応して前記スコアの信頼度を設定し、前記人物認識工程によって算出された前記スコアに前記信頼度を乗算することによって、前記クラスごとに前記属性情報を求め、前記クラスごとに求めた前記属性情報を複数フレームで統合した、前記クラスごとの評価値の大小関係に基づいて前記人物の属性を決定することを特徴とする属性決定方法。
An attribute determination method for determining an attribute of a person based on an image of each frame of the person photographed from above,
A person recognition unit recognizes, based on the image of each frame, person information indicating information of the image of the person in the image, attributes of the person, and an event affecting recognition of the attributes for each frame. a person recognition process for recognizing each
a person identification step in which the person identification unit determines whether or not the images of the person between the frames are images of the same person based on the person information of each frame;
attribute information obtained by adding the recognition result of the event to the recognition result of the attribute for each frame with respect to the person whose image is determined to be the same person in each frame by the attribute determination unit; is obtained for each class of the recognized attribute, and for each class, the attribute of the person is determined based on the result of integrating the attribute information in a plurality of frames,
In the person recognition step, the person recognition unit calculates a score indicating the likelihood of the recognition result of the attribute based on the image of each frame,
In the attribute determination step, the attribute determination unit sets the reliability of the score corresponding to the recognition result of the event, and multiplies the score calculated by the person recognition step by the reliability. , the attribute information is obtained for each class, and the attribute of the person is determined based on the magnitude relationship of the evaluation values for each class, which is obtained by integrating the attribute information obtained for each class in a plurality of frames. attribute determination method.
前記人物の前記属性は、前記人物の年齢および性別の少なくとも一方であることを特徴とする請求項16に記載の属性決定方法。 17. The attribute determination method according to claim 16, wherein said attribute of said person is at least one of age and sex of said person. 記憶部が、前記属性決定工程よって決定された前記属性を記憶する記憶工程をさらに含むことを特徴とする請求項16または17に記載の属性決定方法。18. The attribute determination method according to claim 16, further comprising a storage step of storing the attribute determined by the attribute determination step. 請求項16から18のいずれかに記載の属性決定方法をコンピュータに実行させるための属性決定プログラム。An attribute determination program for causing a computer to execute the attribute determination method according to any one of claims 16 to 18.
JP2018090459A 2018-05-09 2018-05-09 Attribute determination device, attribute determination system, and attribute determination method Active JP7336835B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018090459A JP7336835B2 (en) 2018-05-09 2018-05-09 Attribute determination device, attribute determination system, and attribute determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018090459A JP7336835B2 (en) 2018-05-09 2018-05-09 Attribute determination device, attribute determination system, and attribute determination method

Publications (2)

Publication Number Publication Date
JP2019197353A JP2019197353A (en) 2019-11-14
JP7336835B2 true JP7336835B2 (en) 2023-09-01

Family

ID=68537535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018090459A Active JP7336835B2 (en) 2018-05-09 2018-05-09 Attribute determination device, attribute determination system, and attribute determination method

Country Status (1)

Country Link
JP (1) JP7336835B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7377971B2 (en) 2020-05-22 2023-11-10 富士フイルム株式会社 Image data processing device and image data processing system
CN112396494A (en) * 2020-11-23 2021-02-23 北京百度网讯科技有限公司 Commodity guide method, commodity guide device, commodity guide equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012053311A1 (en) 2010-10-22 2012-04-26 Necソフト株式会社 Attribute determination method, attribute determination device, program, recording medium, and attribute determination system
JP2012226609A (en) 2011-04-20 2012-11-15 Canon Inc Information processor, information processor control method and program
JP2015222881A (en) 2014-05-23 2015-12-10 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method
JP2017204095A (en) 2016-05-10 2017-11-16 富士通株式会社 Feature quantity comparison program, information processor, and feature quantity comparison method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4198951B2 (en) * 2002-07-17 2008-12-17 独立行政法人科学技術振興機構 Group attribute estimation method and group attribute estimation apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012053311A1 (en) 2010-10-22 2012-04-26 Necソフト株式会社 Attribute determination method, attribute determination device, program, recording medium, and attribute determination system
JP2012226609A (en) 2011-04-20 2012-11-15 Canon Inc Information processor, information processor control method and program
JP2015222881A (en) 2014-05-23 2015-12-10 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method
JP2017204095A (en) 2016-05-10 2017-11-16 富士通株式会社 Feature quantity comparison program, information processor, and feature quantity comparison method

Also Published As

Publication number Publication date
JP2019197353A (en) 2019-11-14

Similar Documents

Publication Publication Date Title
EP3769267B1 (en) Method and system for interfacing with a user to facilitate an image search for an object-of-interest
US8036416B2 (en) Method and apparatus for augmenting a mirror with information related to the mirrored contents and motion
US10380603B2 (en) Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale
US20220344044A1 (en) User-customized skin diagnosis system and method
EP2908220A1 (en) Gesture recognition device and method of controlling gesture recognition device
CN110738101A (en) Behavior recognition method and device and computer readable storage medium
CN106897659B (en) The recognition methods of blink movement and device
US10559102B2 (en) Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program
JP4668680B2 (en) Attribute identification system and attribute identification dictionary generator
US11475500B2 (en) Device and method for item recommendation based on visual elements
JP2010262425A (en) Computer execution method for recognizing and classifying clothes
JP2008203916A (en) Image processing apparatus, program, and image processing method
JP7336835B2 (en) Attribute determination device, attribute determination system, and attribute determination method
JP2014016968A (en) Person retrieval device and data collection device
JP6784261B2 (en) Information processing equipment, image processing system, image processing method and program
JP2019109843A (en) Classification device, classification method, attribute recognition device, and machine learning device
JP2020101968A (en) Multi-label data learning assisting apparatus, multi-label data learning assisting method and multi-label data learning assisting program
US20170083782A1 (en) Image analysis apparatus, image analysis method, and storage medium
US20230089155A1 (en) Information processing device, monitoring system, information processing method, andnon-transitory computer-readable storage medium
US20130236065A1 (en) Image semantic clothing attribute
CN113435353A (en) Multi-mode-based in-vivo detection method and device, electronic equipment and storage medium
US20230131717A1 (en) Search processing device, search processing method, and computer program product
JP6312991B2 (en) Image output device
CN116311347A (en) Person on Shift detection method, electronic device, and computer-readable storage medium
CN112487980A (en) Micro-expression-based treatment method, device, system and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220906

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220914

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220920

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20221028

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20221101

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221122

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230110

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230822

R150 Certificate of patent or registration of utility model

Ref document number: 7336835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150