JP2018163601A - 対応付け方法、情報処理装置及び対応付けプログラム - Google Patents

対応付け方法、情報処理装置及び対応付けプログラム Download PDF

Info

Publication number
JP2018163601A
JP2018163601A JP2017061632A JP2017061632A JP2018163601A JP 2018163601 A JP2018163601 A JP 2018163601A JP 2017061632 A JP2017061632 A JP 2017061632A JP 2017061632 A JP2017061632 A JP 2017061632A JP 2018163601 A JP2018163601 A JP 2018163601A
Authority
JP
Japan
Prior art keywords
information
group
attribute
person
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017061632A
Other languages
English (en)
Inventor
新吾 加藤
Shingo Kato
新吾 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017061632A priority Critical patent/JP2018163601A/ja
Priority to US15/928,888 priority patent/US10853829B2/en
Publication of JP2018163601A publication Critical patent/JP2018163601A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0204Market segmentation
    • G06Q30/0205Location or geographical consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures

Abstract

【課題】無線端末からユーザの属性を取得できない場合であっても無線端末のユーザの属性を特定することを可能とする対応付け方法、情報処理装置及び対応付けプログラムを提供する。
【解決手段】複数の撮像装置のそれぞれの周辺に位置することが検出された無線端末の識別情報を取得し、第1の識別情報を有する無線端末が周辺に位置することが検出された複数の撮像装置を特定し、特定した前記複数の撮像装置から取得した撮像画像であって、撮像タイミングが、対応する撮像装置の周辺に前記第1の識別情報を有する無線端末が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出し、抽出した属性のうち、統計的に優位を示す属性を特定する。
【選択図】図4

Description

本発明は、対応付け方法、情報処理装置及び対応付けプログラムに関する。
近年、商品の販売を行う実店舗(以下、単に店舗とも呼ぶ)において、各種の手法を活用することによる来店客(以下、ユーザまたは人物とも呼ぶ)の動作分析が行われている。具体的に、各店舗では、例えば、来店客を性別や年齢等の属性(デモグラフィクス)毎に分類し、分類した属性毎に来店客の動作分析を行う。
これにより、各店舗では、属性毎に行われた動作分析の結果を参照することで、来店客が興味を示した商品の特定や各商品の陳列方法の決定等を行うことが可能になる(例えば、特許文献1及び2参照)。
特開平5−006500号公報 特開2009−260583号公報
上記のような動作分析を行う場合、各店舗では、例えば、来店客が有する無線端末からWi−Fi(登録商標:Wireless Fidelity)を経由して取得した情報による動作分析(以下、Wi−Fiによる動作分析とも呼ぶ)が行われる。
しかしながら、Wi−Fiによる動作分析では、来店客の属性を判定するための情報を取得する場合、例えば、来店客の承認を得る必要がある。そのため、Wi−Fiによる動作分析では、来店客の承認結果等によって、来店客の属性(来店客の属性を判定するために必要な情報)の取得が困難になる場合がある。
そこで、一つの側面では、無線端末からユーザの属性を取得できない場合であっても無線端末のユーザの属性を特定することを可能とする対応付け方法、情報処理装置及び対応付けプログラムを提供することを目的とする。
実施の形態の一つの態様によれば、複数の撮像装置のそれぞれの周辺に位置することが検出された無線端末の識別情報を取得し、第1の識別情報を有する無線端末が周辺に位置することが検出された複数の撮像装置を特定し、特定した前記複数の撮像装置から取得した撮像画像であって、撮像タイミングが、対応する撮像装置の周辺に前記第1の識別情報を有する無線端末が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出し、抽出した属性のうち、統計的に優位を示す属性を特定する。
一つの側面によれば、無線端末からユーザの属性を取得できない場合であっても、無線端末のユーザの属性を特定することを可能とする。
図1は、情報処理システム10の全体構成を示す図である。 図2は、情報処理装置1のハードウエア構成を説明する図である。 図3は、情報処理装置1の機能ブロック図である。 図4は、第1の実施の形態における対応付け処理の概略を説明するフローチャートである。 図5は、第1の実施の形態における対応付け処理の詳細を説明するフローチャートである。 図6は、検出属性情報131の具体例を説明する図である。 図7は、検出回数情報132の具体例を説明する図である。 図8は、特定属性情報133の具体例を説明する図である。 図9は、第2の実施の形態における情報処理装置1の機能ブロック図である。 図10は、第2の実施の形態における対応付け処理の概略を説明するフローチャートである。 図11は、第2の実施の形態における対応付け処理の詳細を説明するフローチャートである。 図12は、第2の実施の形態における対応付け処理の詳細を説明するフローチャートである。 図13は、第2の実施の形態における対応付け処理の詳細を説明するフローチャートである。 図14は、第2の実施の形態における対応付け処理の詳細を説明するフローチャートである。 図15は、検出人数情報141の具体例を説明する図である。 図16は、平均検出人数情報142の具体例を説明する図である。 図17は、振分検出人数情報143の具体例を説明する図である。 図18は、推定人数情報144の具体例を説明する図である。 図19は、合計検出人数情報145の具体例を説明する図である。 図20は、検出指数情報146の具体例を説明する図である。 図21は、未振分人数情報147の具体例を説明する図である。 図22は、振分済人数情報148の具体例を説明する図である。 図23は、S54の処理の具体例を説明する図である。 図24は、S54の処理の具体例を説明する図である。 図25は、S54の処理の具体例を説明する図である。 図26は、S54の処理の具体例を説明する図である。 図27は、平均振分済人数情報149の具体例を説明する図である。 図28は、振分指数情報150の具体例を説明する図である。 図29は、振分指数情報150の具体例を説明する図である。
[情報処理システムの構成]
図1は、情報処理システム10の全体構成を示す図である。図1に示す情報処理システム10は、情報処理装置1と、撮像装置2と、無線端末3(以下、単に端末3とも呼ぶ)とを有する。図1に示す撮像装置2には、撮像装置2a及び2bが含まれている。また、図1に示す無線端末3には、無線端末3a、3b、3c及び3dが含まれている。
撮像装置2は、例えば、各店舗にそれぞれ設置されたカメラであり、少なくとも店舗の営業時間の間、店舗内の状況の撮影を行う。そして、撮像装置2は、例えば、店舗内を撮影することによって取得した撮像画像の内容を解析することにより、撮像画像に含まれる各人物の属性を特定する。具体的に、撮像装置2は、例えば、撮像画像に含まれる各人物の性別及び年代の特定を行う。
無線端末3は、無線通信を行う携帯端末であり、例えば、各店舗に来店した来店客が有するスマートフォン等の端末である。
情報処理装置1は、例えば、複数の物理マシンから構成され、CPU(Central Computing Unit)と、メモリ(DRAM:Dynamic Random Access Memory)と、ハードディスク(HDD:Hard Disk Drive)等とを有する。
なお、情報処理装置1は、図1の例において、インターネット網等のネットワークを介して、アクセスポイントAPと有線通信を行う。アクセスポイントAPは、無線通信を行う無線端末3をネットワークに接続させるための機器である。
[情報処理装置による動作分析]
図1に示す情報処理装置1は、例えば、撮像装置2によって撮影された撮像画像に含まれる情報や無線端末3から取得された情報から、各店舗の来店客の動作分析を行う。具体的に、情報処理装置1は、例えば、来店客を性別や年齢等の属性(デモグラフィクス)毎に分類し、分類した属性毎に来店客の動作分析を行う。
これにより、各店舗では、属性毎に行われた動作分析の結果を参照することで、来店客が興味を示した商品の特定や各商品の陳列方法の決定等を行うことが可能になる。
ここで、図1に示す情報処理装置1は、例えば、各店舗の来店客の動作分析を行う場合、Wi−Fiによる動作分析や、カメラによって撮影された撮像画像に含まれる情報による動作分析(以下、カメラによる動作分析とも呼ぶ)を行う。
しかしながら、Wi−Fiによる動作分析では、来店客の属性を判定するための情報を取得する場合、例えば、来店客の承認を得る必要がある。そのため、Wi−Fiによる動作分析では、来店客の承認結果等によって、来店客の属性(来店客の属性を判定するために必要な情報)の取得が困難になる場合がある。
また、カメラによる動作分析では、撮影範囲外における来店客の動作分析を行うことができない。 そのため、カメラによる動作分析では、例えば、店舗内に十分なカメラが設置されていない場合、来店客の動作分析を十分に行うことができない。
そこで、本実施の形態における情報処理装置1は、複数の撮像装置2のそれぞれの周辺に位置することが検出された無線端末3の識別情報を取得し、ある識別情報(以下、第1の識別情報とも呼ぶ)を有する無線端末3が周辺に位置することが検出された複数の撮像装置2を特定する。
そして、情報処理装置1は、特定した複数の撮像装置2から取得した撮像画像であって、撮像タイミングが、対応する撮像装置2の周辺に第1の識別情報を有する無線端末3が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出する。その後、情報処理装置1は、抽出した属性のうち、統計的に優位を示す属性を特定する。
すなわち、第1の識別情報を有する無線端末3が周辺に位置する撮像装置2によって撮影された撮像画像に含まれる人物には、第1の識別情報を有する無線端末3を所有している人物が含まれている可能性がある。そのため、本実施の形態における情報処理装置1は、第1の識別情報を有する無線端末3が周辺に位置する撮像装置2によって撮影された撮像画像に含まれる人物の属性のそれぞれを、第1の識別情報を有する無線端末3に対応付ける。同様に、情報処理装置1は、複数の撮像装置2によって撮像された撮像画像毎に、各撮像画像に含まれる人物の属性のそれぞれを、その撮像画像の撮像タイミングにおいて撮像装置2の周辺に位置していた無線端末にそれぞれに対応付ける。
そして、上記のように情報の対応付けが行われた場合、各無線端末3は、各無線端末3を有する人物の実際の属性と対応付けられる頻度が最大になる可能性が高い。そのため、情報処理装置1は、各無線端末3に最も多く対応付けられた属性が、各無線端末3を有する人物の属性であると判定する。
これにより、情報処理装置1は、来店客の承認を得ることができなかった場合であっても、来店客が有する無線端末3のそれぞれと、各撮像装置2から取得された撮影画像に含まれる来店客の属性のそれぞれとを対応付けることが可能になる。そのため、事業者は、来店客の属性毎の動作分析を、Wi−Fiを経由して無線端末3から取得される情報(例えば、無線端末3の位置情報)に基づいて行うことが可能になる。
[情報処理装置のハードウエア構成]
次に、情報処理装置1のハードウエア構成について説明する。図2は、情報処理装置1のハードウエア構成を説明する図である。
情報処理装置1は、図2に示すように、プロセッサであるCPU101と、メモリ102と、外部インターフェース(I/Oユニット)103と、記憶媒体(ストレージ)104とを有する。各部は、バス105を介して互いに接続される。
記憶媒体104は、記憶媒体104内のプログラム格納領域(図示しない)に、撮像装置2の撮像画像によって取得された来店客の属性と無線端末3との対応付けを行う処理(以下、対応付け処理とも呼ぶ)を行うためのプログラム110を記憶する。
CPU101は、図2に示すように、プログラム110の実行時に、プログラム110を記憶媒体104からメモリ102にロードし、プログラム110と協働して対応付け処理を行う。
記憶媒体104は、例えば、対応付け処理を行う際に用いられる情報を記憶する情報格納領域130(以下、記憶部130とも呼ぶ)を有する。また、外部インターフェース103は、ネットワークを介して撮像装置2や無線端末3と通信を行う。
[情報処理装置のソフトウエア構成]
次に、情報処理装置1のソフトウエア構成について説明する。図3は、情報処理装置1の機能ブロック図である。
CPU101は、図3に示すように、プログラム110と協働することにより、情報取得部111と、撮像装置特定部112と、属性抽出部113と、属性特定部114として動作する。また、情報格納領域130には、図3に示すように、検出属性情報131と、検出回数情報132と、特定属性情報133とが記憶される。
情報取得部111は、複数の撮像装置2のそれぞれの周辺に位置することが検出された無線端末3の識別情報を取得する。具体的に、情報取得部111は、例えば、Wi−Fiを経由して取得された各無線端末3の位置情報を参照し、各撮像装置2に周辺に位置する無線端末3の識別情報を取得する。
撮像装置特定部112は、情報取得部111が取得した識別情報のうち、第1の識別情報を有する無線端末3が周辺に位置することが検出された複数の撮像装置2を特定する。
属性抽出部113は、撮像装置特定部112が特定した複数の撮像装置2から取得した撮像画像であって、撮像タイミングが、対応する撮像装置2の周辺に第1の識別情報を有する無線端末3が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出する。
属性特定部114は、属性抽出部113が抽出した属性のうちの統計的に優位を示す属性を、第1の識別情報を有する無線端末3に対応する属性として特定する。具体的に、属性特定部114は、複数の撮像装置2から取得した撮像画像から抽出された回数を属性毎に特定する。そして、属性特定部114は、特定した回数が最も多い属性を、第1の識別情報を有する無線端末3に対応する属性として特定する。なお、情報格納領域130に記憶される各情報についての説明については後述する。
[第1の実施の形態の概略]
次に、第1の実施の形態の概略について説明する。図4は、第1の実施の形態における対応付け処理の概略を説明するフローチャートである。
情報処理装置1は、図4に示すように、対応付けタイミングになるまで待機する(S1のNO)。対応付けタイミングは、例えば、店舗に担当者が対応付け処理を開始する旨の情報を情報処理装置1に入力したタイミングであってよい。
そして、対応付けタイミングになった場合(S1のYES)、情報処理装置1は、複数の撮像装置2のそれぞれの周辺に位置することが検出された無線端末3の識別情報を取得する(S2)。続いて、情報処理装置1は、S2の処理で取得した識別情報のうち、第1の識別情報を有する無線端末3が周辺に位置することが検出された複数の撮像装置2を特定する(S3)。
その後、情報処理装置1は、S3の処理で特定した複数の撮像装置2から取得した撮像画像であって、撮像タイミングが、対応する撮像装置2の周辺に第1の識別情報を有する無線端末3が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出する(S4)。そして、情報処理装置1は、S4の処理で抽出した属性のうち、統計的に優位を示す属性を特定する(S5)。
これにより、情報処理装置1は、来店客の承認を得ることができなかった場合であっても、来店客が有する無線端末3のそれぞれと、各撮像装置2から取得された撮影画像に含まれる来店客の属性のそれぞれとを対応付けることが可能になる。そのため、事業者は、来店客の属性毎の動作分析を、Wi−Fiを経由して無線端末3から取得される情報(例えば、無線端末3の位置情報)に基づいて行うことが可能になる。
なお、情報処理装置1は、撮像装置2による撮像画像に分析対象の人物が含まれる時間帯については、撮像画像に含まれる情報を参照して来店客の動作分析を行うものであってよい。これにより、情報処理装置1は、来店客の動作分析をより精度良く行うことが可能になる。
[第1の実施の形態の詳細]
次に、第1の実施の形態の詳細について説明する。図5は、第1の実施の形態における対応付け処理の詳細を説明するフローチャートである。また、図6から図8は、第1の実施の形態における対応付け処理の詳細を説明する図である。図6から図8を参照しながら、図5に示す対応付け処理を説明する。
情報処理装置1の情報取得部111は、図5に示すように、対応付けタイミングになるまで待機する(S11のNO)。そして、対応付けタイミングになった場合(S11のYES)、情報取得部111は、複数の撮像装置2のそれぞれの周辺に位置することが検出された無線端末3の識別情報を取得する(S12)。
続いて、情報処理装置1の撮像装置特定部112は、S12の処理で取得した識別情報毎に、各識別情報を有する無線端末3が周辺に位置することが検出された複数の撮像装置2を特定する(S13)。
その後、情報処理装置1の属性抽出部113は、S12の処理で取得した識別情報毎であってS13の処理で特定した複数の撮像装置2から取得した撮像画像毎に、撮像タイミングが、対応する撮像装置2の周辺に各識別情報を有する無線端末3が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出する(S14)。そして、属性抽出部113は、例えば、抽出した属性を含む検出属性情報131を生成し、情報格納領域130に記憶する。以下、検出属性情報131の具体例について説明を行う。
[検出属性情報の具体例]
図6は、検出属性情報131の具体例を説明する図である。具体的に、図6(A)は、図1で説明した撮像装置2aによって撮影された撮像画像に含まれる人物の属性を含む検出属性情報131aの具体例を説明する図である。また、図6(B)は、図1で説明した撮像装置2bによって撮影された撮像画像に含まれる人物の属性を含む検出属性情報131bの具体例を説明する図である。
図6に示す検出属性情報131は、撮像装置2によって撮像画像が撮影された時刻を示す「時刻」と、撮像装置2の周辺に位置することが検出された無線端末3の識別情報を示す「無線端末」とを項目として有する。「無線端末」には、例えば、図1で説明した無線端末3a、3b、3c及び3dの識別情報をそれぞれ示す「P1」、「P2」、「P3」及び「P4」が設定される。なお、撮像装置2の周辺に位置する無線端末3が存在しない場合、「無線端末」には、「−」が設定される。
また、図6に示す検出属性情報131は、撮像装置2によって撮影された撮像画像に含まれる人数のうち、20代の男性であると特定した人数を示す「男性20代」と、30代男性であると特定した人数を示す「男性30代」とを項目として有する。さらに、図6に示す検出属性情報131は、撮像装置2によって撮影された撮像画像に含まれる人数のうち、20代の女性であると特定した人数を示す「女性20代」と、30代女性であると特定した人数を示す「女性30代」とを項目として有する。
具体的に、図6(A)に示す検出属性情報131aにおいて、「時刻」に「10:00」が設定された情報には、「無線端末」として「P1」が設定され、「男性20代」として「0(人)」が設定され、「男性30代」として「2(人)」が設定され、「女性20代」として「1(人)」が設定され、「女性30代」として「0(人)」が設定されている。
すなわち、図6(A)に示す検出属性情報131aは、10時の時点における撮像装置2aの周辺に、識別情報が「P1」である無線端末3が存在していたことを示している。また、図6(A)に示す検出属性情報131aは、撮像装置2aによって10時に撮影された撮像画像に、2名の男性30代及び1名の女性20代が含まれていることを示している。図6(A)に示す検出属性情報131aに含まれる他の情報及び図6(B)に示す検出属性情報131bに含まれる各情報については説明を省略する。
図5に戻り、情報処理装置1の属性特定部114は、S12の処理で取得した識別情報毎に、S14の処理において各属性が抽出された回数を属性毎に特定する(S15)。そして、属性特定部114は、例えば、特定した回数を含む検出回数情報132を生成し、情報格納領域130に記憶する。以下、検出回数情報132の具体例について説明を行う。
[検出回数情報の具体例]
図7は、検出回数情報132の具体例を説明する図である。
図7に示す検出回数情報132は、撮像装置2の周辺に位置することが検出された無線端末3の識別情報を示す「無線端末」と項目として有する。また、図7に示す検出回数情報132は、撮像装置2によって撮影された撮像画像に含まれる人数のうち、20代の男性であると特定した人数を示す「男性20代」と、30代男性であると特定した人数を示す「男性30代」とを項目として有する。さらに、図7に示す検出回数情報132は、撮像装置2によって撮影された撮像画像に含まれる人数のうち、20代の女性であると特定した人数を示す「女性20代」と、30代女性であると特定した人数を示す「女性30代」とを項目として有する。
具体的に、図6(A)で説明した検出属性情報131aにおける「無線端末」に「P1」が含まれる情報(「時刻」が「10:00」である情報及び「時刻」が「11:00」である情報)の「男性20代」には、それぞれ「0(人)」が設定されている。そして、図6(B)で説明した検出属性情報131bには、「無線端末」に「P1」が含まれる情報が存在しない。そのため、属性特定部114は、S15の処理において、図7に示すように、「無線端末」に「P1」が設定された情報の「男性20代」に、これらの人数の合計である「0(人)」を設定する。
また、図6(A)で説明した検出属性情報131aにおける「無線端末」に「P1」が含まれる情報(「時刻」が「10:00」である情報及び「時刻」が「11:00」である情報)の「男性30代」には、それぞれ「2(人)」が設定されている。そして、図6(B)で説明した検出属性情報131bには、「無線端末」に「P1」が含まれる情報が存在しない。そのため、属性特定部114は、S15の処理において、図7に示すように、「無線端末」に「P1」が設定された情報の「男性30代」に、これらの人数の合計である「4(人)」を設定する。
さらに、図6(A)で説明した検出属性情報131aにおける「無線端末」に「P2」が含まれる情報(「時刻」が「12:00」である情報)の「女性20代」には、「3(人)」が設定されている。また、図6(B)で説明した検出属性情報131bにおける「無線端末」に「P2」が含まれる情報(「時刻」が「10:00」である情報及び「時刻」が「11:00」である情報)の「女性20代」には、それぞれ「1(人)」が設定されている。そのため、属性特定部114は、S15の処理において、図7に示すように、「無線端末」に「P2」が設定された情報の「女性20代」に、これらの人数の合計である「5(人)」を設定する。図7に含まれる他の情報については説明を省略する。
図5に戻り、属性特定部114は、S12の処理で取得した識別情報毎に、S15の処理で特定した回数が最も多い属性を、各識別情報を有する無線端末3に対応する属性として特定する(S16)。そして、属性特定部114は、例えば、特定した属性を含む特定属性情報133を生成し、情報格納領域130に記憶する。以下、特定属性情報133の具体例について説明を行う。
[特定属性情報の具体例]
図8は、特定属性情報133の具体例を説明する図である。
図8に示す特定属性情報133は、撮像装置2の周辺に位置することが検出された無線端末3の識別情報を示す「無線端末」と、各識別情報を有する無線端末3の所有者の属性を示す「属性」とを項目として有する。
具体的に、図7で説明した検出回数情報132において、「無線端末」に「P1」が設定された情報における「男性20代」、「男性30代」、「女性20代」及び「女性30代」に設定された情報のうちの最大数は、「男性30代」に設定された情報である「4(人)」である。そのため、属性特定部114は、S16の処理において、図8に示すように、「無線端末」に「P1」が設定された情報の「属性」に「男性30代」を設定する。すなわち、属性特定部114は、この場合、識別情報が「P1」である無線端末3の所有者の属性として「男性30代」を特定する。図8に含まれる他の情報については説明を省略する。
このように、本実施の形態における情報処理装置1は、複数の撮像装置2のそれぞれの周辺に位置することが検出された無線端末3の識別情報を取得し、第1の識別情報を有する無線端末3が周辺に位置することが検出された複数の撮像装置2を特定する。
そして、情報処理装置1は、特定した複数の撮像装置2から取得した撮像画像であって、撮像タイミングが、対応する撮像装置2の周辺に第1の識別情報を有する無線端末3が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出する。その後、情報処理装置1は、抽出した属性のうち、統計的に優位を示す属性を特定する。
すなわち、第1の識別情報を有する無線端末3が周辺に位置する撮像装置2によって撮影された撮像画像に含まれる人物には、第1の識別情報を有する無線端末3を所有している人物が含まれている可能性がある。そのため、本実施の形態における情報処理装置1は、第1の識別情報を有する無線端末3が周辺に位置する撮像装置2によって撮影された撮像画像に含まれる人物の属性のそれぞれを、第1の識別情報を有する無線端末3に対応付ける。同様に、情報処理装置1は、複数の撮像装置2によって撮像された撮像画像毎に、各撮像画像に含まれる人物の属性のそれぞれを、その撮像画像の撮像タイミングにおいて撮像装置2の周辺に位置していた無線端末にそれぞれに対応付ける。
そして、上記のように情報の対応付けが行われた場合、各無線端末3は、各無線端末3を有する人物の実際の属性と対応付けられる頻度が最大になる可能性が高い。そのため、情報処理装置1は、例えば、各無線端末3に最も多く対応付けられた属性を、各無線端末3を有する人物の属性であると判定する。
これにより、情報処理装置1は、来店客の承認を得ることができなかった場合であっても、来店客が有する無線端末3のそれぞれと、各撮像装置2から取得された撮影画像に含まれる来店客の属性のそれぞれとを対応付けることが可能になる。そのため、事業者は、来店客の属性毎の動作分析を、Wi−Fiを経由して無線端末3から取得される情報(例えば、無線端末3の位置情報)に基づいて行うことが可能になる。
なお、図6(A)で説明した検出属性情報131aにおける「無線端末」に「P1」が含まれる情報(「時刻」が「10:00」である情報及び「時刻」が「11:00」である情報)の「男性30代」には、それぞれ「2(人)」が設定されている。そして、図6で説明した検出属性情報131aにおいて、「時刻」が「10:00」である情報の「無線端末」に「P1」のみが設定されているのに対し、「時刻」が「11:00」である情報の「無線端末」には、「P1」及び「P3」が設定されている。
そのため、属性特定部114は、例えば、「時刻」に「10:00」が設定された情報の「男性30代」に設定された情報である「2(人)」を、「時刻」に「10:00」が設定された情報の「無線端末」に設定された情報の種類の数である1で除算した「2(人)」を算出するものであってよい。また、属性特定部114は、例えば、「時刻」に「11:00」が設定された情報の「男性30代」に設定された情報である「2(人)」を、「時刻」に「11:00」が設定された情報の「無線端末」に設定された情報の種類の数である2で除算した「1(人)」を算出するものであってよい。そして、属性特定部114は、それぞれ算出した「2(人)」と「1(人)」とを加算した「3(人)」を、検出回数情報132における「無線端末」に「P1」が設定された情報の「男性30代」に設定するものであってもよい。
これにより、属性特定部114は、例えば、各撮像装置2が撮影する場所や時間帯によって撮像画像に含まれる人数が大きく異なる場合であっても、来店客の数が少ない場所や時間帯において撮影された撮像画像に含まれる人物の属性を、処理結果に反映させることが可能になる。
[第2の実施の形態]
次に、第2の実施の形態における対応付け処理について説明を行う。
第2の実施の形態における情報処理装置1では、複数人からなるグループで店舗内を行動する来店客が存在する場合、グループに含まれる人数を特定し、特定した人数毎に属性の特定を行う。また、第2の実施の形態における情報処理装置1では、無線端末3を有していない来店客の属性についても特定を行う。
[第2の実施の形態における情報処理装置のソフトウエア構成]
初めに、第2の実施の形態における情報処理装置1のソフトウエア構成について説明する。図9は、第2の実施の形態における情報処理装置1の機能ブロック図である。
CPU101は、図9に示すように、プログラム110と協働することにより、グループ分類部121と、グループ特定部122と、人数特定部123と、推定人数算出部124と、属性抽出部125と、属性特定部126として動作する。また、情報格納領域130には、図9に示すように、検出人数情報141と、平均検出人数情報142と、振分検出人数情報143と、推定人数情報144と、合計検出人数情報145と、検出指数情報146とが記憶される。さらに、情報格納領域130には、図9に示すように、未振分人数情報147と、振分済人数情報148と、平均振分済人数情報149と、振分指数情報150とが記憶される。
グループ分類部121は、複数の撮像装置2のそれぞれの周辺に位置することが検出された複数の無線端末3を、所定の関係にある無線端末3毎のグループに分類する。具体的に、グループ分類部121は、例えば、複数の無線端末3毎に、Wi−Fiを経由して取得された各無線端末3の位置情報を参照し、各無線端末3が店舗内に最初に位置した時刻から最後に位置した時刻までの検出時間を特定する。そして、グループ分類部121は、例えば、複数の無線端末3毎に、特定した検出時間のうち、無線端末3間の距離が第1閾値以下であった時間の割合が第2閾値以上であった他の無線端末3を、同一のグループに含まれる他の無線端末3としてグループの分類を行う。
グループ特定部122は、複数の撮像装置2毎に、グループ分類部121が分類したグループのうち、各撮像装置2の周辺に位置することが検出されたグループを特定する。具体的に、グループ特定部122は、例えば、グループの特定を所定の時間毎に行う。
人数特定部123は、複数の撮像装置2毎に、各撮像装置2から取得した撮像画像に含まれる人数を特定する。具体的に、人数特定部123は、例えば、人数の特定を所定の時間毎に行う。
推定人数算出部124は、グループ特定部122が特定したグループと、人数特定部123が特定した人数とに基づき、グループのそれぞれに含まれる推定人数を算出する。
属性抽出部125は、複数の撮像装置2毎に、各撮像装置2から取得した撮像画像に含まれる人物の属性を抽出する。
属性特定部126は、グループ特定部122が特定したグループと、推定人数算出部124が算出した推定人数と、属性抽出部125が抽出した属性とに基づき、グループ特定部122が特定したグループ毎に、各グループに含まれる人物の属性を特定する。なお、情報格納領域130に記憶される各情報についての説明については後述する。
[第2の実施の形態の概略]
次に、第2の実施の形態の概略について説明する。図10は、第2の実施の形態における対応付け処理の概略を説明するフローチャートである。
情報処理装置1は、図10に示すように、対応付けタイミングになるまで待機する(S21のNO)。そして、対応付けタイミングになった場合(S21のYES)、情報処理装置1は、複数の撮像装置2のそれぞれの周辺に位置することが検出された複数の無線端末3を所定の関係にある無線端末3毎のグループに分類する(S22)。
続いて、情報処理装置1は、複数の撮像装置2毎に、各撮像装置3の周辺に位置することが検出されたグループを特定する(S23)。また、情報処理装置1は、複数の撮像装置2毎に、各撮像装置3から取得した撮像画像に含まれる人数を特定する(S24)。
その後、情報処理装置1は、S23の処理で特定したグループと、S24の処理で特定した人数とに基づき、グループのそれぞれに含まれる推定人数を算出する(S25)。
すなわち、情報処理装置1は、例えば、複数の撮像装置2毎に、S24の処理で特定した人数を、S23の処理で特定したグループのそれぞれに振り分ける。そして、情報処理装置1は、例えば、S23の処理で特定したグループ毎に、各グループに振り分けられた複数の撮像装置2毎の人数を平均することによって、各グループに含まれる推定人数の算出を行う。
これにより、情報処理装置1は、無線端末3を有していない来店客を含めて、各グループに含まれる推定人数の算出を行うことが可能になる。
そして、情報処理装置1は、複数の撮像装置2毎に各撮像装置から取得した撮像画像に含まれる人物の属性を抽出する(S26)。さらに、情報処理装置1は、S23の処理で特定したグループと、S25の処理で算出した推定人数と、S26の処理で抽出した属性とに基づき、複数の撮像装置2のそれぞれから取得した撮像画像に含まれる各人物の属性をグループに含まれる人数毎に特定する(S27)。
すなわち、情報処理装置1は、S23の処理で特定したグループ毎に、S25で算出した推定人数を、S26の処理で抽出した人物の属性に基づいて各属性にそれぞれ振り分ける。
これにより、情報処理装置1は、各グループに含まれる推定人数のそれぞれの属性を特定することが可能になる。また、情報処理装置1は、店舗内における来店客の属性の割合に差がある場合であっても、割合が小さい属性にも来店客を対応付けることが可能になる。
[第2の実施の形態の詳細]
次に、第2の実施の形態の詳細について説明する。図11から図14は、第2の実施の形態における対応付け処理の詳細を説明するフローチャートである。また、図15から図29は、第2の実施の形態における対応付け処理の詳細を説明する図である。図15から図29を参照しながら、図11から図14に示す対応付け処理を説明する。
情報処理装置1のグループ分類部121は、図11に示すように、対応付けタイミングになるまで待機する(S31のNO)。
そして、対応付けタイミングになった場合(S31のYES)、グループ分類部121は、複数の無線端末3毎に、各無線端末3が最初に検出された時刻から最後に検出された時刻までの検出時間を特定する(S32)。具体的に、グループ分類部121は、複数の無線端末3毎に、各無線端末3が各店舗内に最初に位置した時刻から最後に位置した時刻までの検出時間を特定する。
続いて、グループ分類部121は、複数の無線端末3毎に、S32の処理で特定した検出時間のうち、無線端末3間の距離が第1閾値以下であった時間の割合が第2閾値以上であった他の無線端末3を同一のグループに含まれる無線端末3として、グループの分類を行う(S33)。
これにより、グループ分類部121は、グループでの行動を行っていた複数の来店客と、一時的に同じような行動を行っていた複数の来店客とを区別した上で、各来店客を複数のグループに分類することが可能になる。
その後、グループ特定部122は、複数の撮像装置2毎であって所定の時間毎に、各撮像装置2の周辺に位置することが検出されたグループを特定する(S34)。また、人数特定部123は、複数の撮像装置2毎であって所定の時間毎に、各撮像装置2から取得した撮像画像に含まれる人数を特定する(S35)。そして、グループ特定部122及び人数特定部123は、特定したグループと人数とを含む検出人数情報141を生成し、情報格納領域130に記憶する。以下、検出人数情報141の具体例について説明を行う。
[検出人数情報の具体例]
図15は、検出人数情報141の具体例を説明する図である。具体的に、図15(A)は、図1で説明した撮像装置2aが撮影した撮像画像に含まれる人物に対応する検出人数情報141aの具体例を説明する図である。また、図15(B)は、図1で説明した撮像装置2bが撮影した撮像画像に含まれる人物に対応する検出人数情報141bの具体例を説明する図である。
図15に示す検出人数情報141は、撮像装置2によって撮影が行われた時刻を示す「時刻」と、撮像装置2の周辺に位置することが検出されたグループの識別情報を示す「グループ名」とを項目として有する。「グループ名」には、例えば、1以上の来店客を含むグループをそれぞれ示す「G1」、「G2」、「G3」及び「G4」が設定される。また、撮像装置2の周辺に位置するグループが存在しない場合、「グループ名」には、「−」が設定される。
そして、図15に示す検出人数情報141は、撮像装置2によって撮影された撮像画像に含まれる人数のうち、20代の男性であると特定した人数を示す「男性20代」と、30代男性であると特定した人数を示す「男性30代」とを項目として有する。また、図15に示す検出人数情報141は、撮像装置2によって撮影された撮像画像に含まれる人数のうち、20代の女性であると特定した人数を示す「女性20代」と、30代女性であると特定した人数を示す「女性30代」とを項目として有する。さらに、図15に示す検出人数情報141は、「男性20代」、「男性30代」、「女性20代」及び「女性30代」に設定された人数の合計が設定される「合計人数」を項目として有する。
具体的に、図15(A)に示す検出人数情報141aにおいて、「時刻」に「10:00」が設定された情報には、「グループ名」として「G1」が設定され、「男性20代」として「0(人)」が設定され、「男性30代」として「1(人)」が設定されている。また、図15(A)に示す検出人数情報141aにおいて、「時刻」に「10:00」が設定された情報には、「女性20代」として「1(人)」が設定され、「女性30代」として「1(人)」が設定され、「合計人数」として「3(人)」が設定されている。すなわち、図15(A)に示す検出人数情報141は、10時の時点における撮像装置2aの周辺に、識別情報が「G1」であるグループが存在していたことを示している。また、図15(A)に示す検出人数情報141は、撮像装置2aによって10時に撮影された撮像画像に、1名の男性30代、1名の女性20代及び1名の女性30代が含まれていることを示している。図15(A)に示す検出人数情報141aに含まれる他の情報及び図15(B)に示す検出人数情報141bに含まれる各情報については説明を省略する。
図12に戻り、情報処理装置1の推定人数算出部124は、複数の撮像装置2毎であって所定の時間毎に、各撮像装置2から取得した撮像画像に含まれる人数を、各撮像装置2のそれぞれの周辺に位置することが検出されたグループの数で除算することによって、各撮像装置の周辺に位置することが検出されたグループに対応する人数(以下、第1人数とも呼ぶ)をそれぞれ算出する(S41)。そして、推定人数算出部124は、複数の撮像装置2毎であってグループ毎に、S41の処理で算出した第1人数の平均値を算出する(S42)。具体的に、推定人数算出部124は、例えば、それぞれ算出された第1人数と第1人数の平均値とを含む平均検出人数情報142を生成し、情報格納領域130に記憶する。以下、平均検出人数情報142の具体例について説明を行う。
[平均検出人数情報の具体例]
図16は、平均検出人数情報142の具体例を説明する図である。
図16に示す平均検出人数情報142は、撮像装置2によって撮影が行われた時刻を示す「時刻」と、識別情報がそれぞれG1、G2、G3及びG4であるグループをそれぞれ示す「グループG1」、「グループG2」、「グループG3」及び「グループG4」とを項目として有する。なお、以下、「グループG1」、「グループG2」、「グループG3」及び「グループG4」には、小数点以下第2位までの値が設定されるものとする。
具体的に、図15に示す検出人数情報141において、「時刻」に「10:00」が設定され、「グループ名」に「G1」が含まれる情報の「合計人数」には、「3(人)」が設定されている。また、図15に示す検出人数情報141において、「時刻」に「10:00」が設定された情報の「グループ名」に設定されている情報の数は1種類(「G1」のみ)である。そのため、推定人数算出部124は、図16に示すように、「時刻」が「10:00」である情報の「グループG1」に、「3(人)」を1で除算した値である「3.00(人)」を第1人数として設定する。
また、図15に示す検出人数情報141において、「時刻」に「11:00」が設定され、「グループ名」に「G1」が含まれる情報の「合計人数」には、「5(人)」が設定されている。また、図15に示す検出人数情報141において、「時刻」に「11:00」が設定された情報の「グループ名」に設定されている情報の数は2種類(「G1」及び「G3」)である。そのため、推定人数算出部124は、図16に示すように、「時刻」が「11:00」である情報の「グループG1」に、「5(人)」を2で除算した値である「2.50(人)」を第1人数として設定する。
また、図15に示す検出人数情報141において、「時刻」に「12:00」が設定され、「グループ名」に「G1」が含まれる情報は存在しない。そのため、推定人数算出部124は、図16に示すように、「時刻」が「12:00」である情報の「グループG1」に、情報が存在しないことを示す「−」を設定する。
さらに、推定人数算出部124は、図16に示す平均検出人数情報142において、「時刻」に「10:00」、「11:00」及び「12:00」が設定された情報の「グループG1」に設定された第1人数である「3.00(人)」、「2.50(人)」の平均値である「2.75(人)」を第1人数の平均値として算出する。そして、推定人数算出部124は、「時刻」に「平均」が設定された情報の「グループG1」に、算出した「2.75(人)」を第1人数の平均値として設定する。図16に含まれる他の情報については説明を省略する。
図12に戻り、推定人数算出部124は、複数の撮像装置2毎であって所定の時間毎に、各撮像装置2の周辺に位置することが検出されたグループのそれぞれに対応する人数の比が、S42の処理で算出した第1人数の平均値の比になるように、各撮像装置2から取得した撮像画像に含まれる人数を振り分けて各グループの人数(以下、第2人数とも呼ぶ)を算出する(S43)。具体的に、推定人数算出部124は、例えば、それぞれ算出された第2人数を含む振分検出人数情報143を生成し、情報格納領域130に記憶する。以下、振分検出人数情報143の具体例について説明を行う。
[振分検出人数情報の具体例]
図17は、振分検出人数情報143の具体例を説明する図である。具体的に、図17(A)は、図1で説明した撮像装置2aが撮影した撮像画像に含まれる人物に対応する振分検出人数情報143aの具体例を説明する図である。また、図17(B)は、図1で説明した撮像装置2bが撮影した撮像画像に含まれる人物に対応する振分検出人数情報143bの具体例を説明する図である。
図17に示す振分検出人数情報143は、図16で説明した平均検出人数情報142と同じ項目を有する。
具体的に、図15(A)に示す検出人数情報141aにおける「時刻」に「10:00」が設定された情報の「グループ名」には、「G1」のみが設定されている。また、図15(A)に示す検出人数情報141aにおける「時刻」に「10:00」が設定された情報の「合計人数」には、「3(人)」が設定されている。そのため、推定人数算出部124は、図17(A)に示すように、「時刻」が「10:00」である情報の「グループG1」に「3.00(人)」を第2人数として設定する。
一方、図15(A)に示す検出人数情報141aにおける「時刻」に「11:00」が設定された情報の「グループ名」には、「G1」及び「G3」が設定されている。また、図15(A)に示す検出人数情報141aにおける「時刻」に「11:00」が設定された情報の「合計人数」には、「5(人)」が設定されている。さらに、図16に示す平均検出人数情報142における「時刻」に「平均」が設定された情報の「グループG1」及び「グループG3」には、「2.75(人)」及び「2.92(人)」が設定されている。そのため、推定人数算出部124は、分割した後の数の比が「2.75(人)」:「2.92(人)」になるように「5(人)」を分割することにより、「2.43(人)」と「2.57(人)」とを算出する。そして、推定人数算出部124は、図17(A)に示すように、「時刻」が「11:00」である情報の「グループG1」及び「グループG3」に、第2人数として「2.43(人)」及び「2.57(人)」をそれぞれ設定する。図17(A)に示す振分検出人数情報143aに含まれる他の情報及び図17(B)に示す振分検出人数情報143bに含まれる各情報については説明を省略する。
図12に戻り、推定人数算出部124は、グループ毎に、S43の処理で算出した第2人数の平均値を、各グループに含まれる人物の推定人数として算出する(S44)。具体的に、推定人数算出部124は、例えば、それぞれ算出された推定人数を含む推定人数情報144を生成し、情報格納領域130に記憶する。以下、推定人数情報144の具体例について説明を行う。
[推定人数情報の具体例]
図18は、推定人数情報144の具体例を説明する図である。
図18に示す推定人数情報144は、各グループを識別する「グループ名」と、振分検出人数情報143に含まれる人数の平均値を示す「平均グループ人数」と、「平均グループ人数」に設定された情報から算出された推定人数を示す「推定人数」とを項目として有する。なお、以下、「平均グループ人数」には、小数点以下第2位までの値が設定されるものとする。
具体的に、図17に示す振分検出人数情報143a及び振分検出人数情報143bには、「グループG1」に対応する情報として「3.00(人)」及び「2.43(人)」が設定されている。そのため、推定人数算出部124は、図18に示すように、「グループ名」に「G1」が設定された情報の「平均グループ人数」に、「3.00(人)」及び「2.43(人)」の平均値である「2.71(人)」を設定する。そして、推定人数算出部124は、図18に示すように、「グループ名」に「G1」が設定された情報の「推定人数」に、例えば、「平均グループ人数」に設定した数である「2.71(人)」を四捨五入して算出される値である「3(人)」を設定する。図18に含まれる他の情報については省略する。
なお、推定人数算出部124は、S44の処理の後、例えば、図18に示す推定人数情報144の「平均グループ人数」に設定された情報を、S42の処理における第1人数の平均値として用いることにより、S43及びS44の処理を繰り返し行うものであってもよい。そして、推定人数算出部124は、この場合、例えば、前回のS44の処理の実行に伴って「平均グループ人数」に設定された情報と、今回のS44の処理の実行に伴って「平均グループ人数」に設定された情報との差が一定未満になった場合、S43及びS44の処理を終了するものであってよい。
これにより、推定人数算出部124は、グループ毎の推定人数をより精度高く算出することが可能になる。
図13に戻り、情報処理装置1の属性抽出部125は、複数の撮像装置2毎であって所定の時間毎であって属性毎に、各撮像装置2から取得した撮像画像に含まれる人数(以下、第3人数とも呼ぶ)を特定する(S51)。具体的に、属性抽出部125は、例えば、図15で説明した検出人数情報141を参照し、「男性20代」、「男性30代」、「女性20代」及び「女性30代」に設定された各情報を第3人数として特定する。
そして、属性特定部126は、グループ毎であって属性毎に、各グループと各属性とに対応する第3人数を加算した人数(以下、第4人数とも呼ぶ)を算出する(S52)。具体的に、属性抽出部125は、例えば、それぞれ算出された第4人数を含む合計検出人数情報145を生成し、情報格納領域130に記憶する。以下、合計検出人数情報145の具体例について説明を行う。
[合計検出人数情報の具体例]
図19は、合計検出人数情報145の具体例を説明する図である。図19に示す合計検出人数情報145は、図15で説明した検出人数情報141の項目のうち、「グループ名」、「男性20代」、「男性30代」、「女性20代」及び「女性30代」を項目として有する。
具体的に、図15に示す検出人数情報141において、「グループ名」に「G1」が含まれる情報は、図15(A)に示す検出人数情報141aにおける「時刻」に「10:00」及び「11:00」が設定された情報である。そして、これらの情報における「男性20代」には、それぞれ「0(人)」が設定されている。そのため、属性特定部126は、図19に示すように、「グループ名」に「G1」が設定された情報の「男性20代」に、「0(人)」を第4人数として設定する。
また、図15に示す検出人数情報141において、「グループ名」に「G2」が含まれる情報は、図15(A)に示す検出人数情報141aにおける「時刻」に「12:00」が設定された情報と、図15(B)に示す検出人数情報141bにおける「時刻」に「10:00」及び「11:00」が設定された情報である。そして、これらの情報における「男性20代」には、それぞれ「3(人)」、「0(人)」及び「0(人)」が設定されている。そのため、属性特定部126は、図19に示すように、「グループ名」に「G2」が設定された情報の「男性20代」に、「3(人)」を第4人数として設定する。図19に含まれる他の情報については説明を省略する。
図13に戻り、属性特定部126は、グループ毎に、各属性に対応する人数の比が、各属性に対応する第4人数の比になるように、各グループに対応する推定人数を各属性に振り分けた人数(以下、第5人数とも呼ぶ)を算出する(S53)。具体的に、属性特定部126は、例えば、それぞれ算出した第5人数を含む検出指数情報146を生成し、情報格納領域130に記憶する。以下、検出指数情報146の具体例について説明を行う。
[検出指数情報の具体例]
図20は、検出指数情報146の具体例を説明する図である。
図20に示す検出指数情報146は、図15で説明した検出人数情報141と同様に、「グループ名」、「男性20代」、「男性30代」、「女性20代」及び「女性30代」を項目として有する。また、図20に示す検出指数情報146は、各グループの推定人数を示す「未振分人数」を項目として有する。なお、以下、検出指数情報146において、「男性20代」、「男性30代」、「女性20代」及び「女性30代」には、小数点以下第2位までの値が設定されるものとする。
具体的に、図18で説明した推定人数情報144における「グループ名」に「G1」が設定された情報の「推定人数」には、「3(人)」が設定されている。そのため、属性特定部126は、図20に示すように、「グループ名」が「G1」である情報の「未振分人数」に「3(人)」を設定する。
また、属性特定部126は、分割した後の人数の比が、図19で説明した合計検出人数情報145における「グループ名」に「G1」が設定された情報の「男性20代」、「男性30代」、「女性20代」及び「女性30代」に設定された情報の比(「0(人)」:「2(人)」:「4(人)」:「2(人)」)になるように、「未振分人数」に設定した「3(人)」を分割することにより、「0.00(人)」、「0.75(人)」、「1.50(人)」及び「0.75(人)」をそれぞれ算出する。そして、属性特定部126は、図20に示すように、「グループ名」が「G1」である情報の「男性20代」、「男性30代」、「女性20代」及び「女性30代」に、それぞれ「0.00(人)」、「0.75(人)」、「1.50(人)」及び「0.75(人)」を第5人数としてそれぞれ設定する。図20に含まれる他の情報については説明を省略する。
図13に戻り、属性特定部126は、複数の撮像装置2毎であって所定の時間毎に、各撮像装置2の周辺に位置することが検出されたグループのいずれかと属性のいずれかとの組合せ(以下、単に組合せとも呼ぶ)のうち、各組合せに対応する第5人数が多い組合せを優先して、各撮像装置2の周辺に位置することが検出されたグループに対応する推定人数を各組合せに振り分けることによって、組合せ毎の人数(以下、第6人数とも呼ぶ)を特定する(S54)。以下、S54の処理の具体例について説明を行う。
[S54の処理の具体例]
図21から図26は、S54の処理の具体例を説明する図である。
属性特定部126は、S54の処理において、初めに、複数の撮像装置2のそれぞれが撮影した撮影画像に含まれる人物毎に、各グループに対応する推定人数のうち、各組合せに対する振り分けがまだ行われていない人数を示す未振分人数情報147と、各組合せに対する振り分けが行われた人数を示す振分済人数情報148とを生成する。以下、未振分人数情報147及び振分済人数情報148の具体例について説明を行う。
[未振分人数情報の具体例]
初めに、未振分人数情報147の具体例について説明を行う。図21は、未振分人数情報147の具体例を説明する図である。具体的に、図21(A)は、未振分人数情報147のうち、撮像装置2aが撮影した撮像画像に含まれる人数に対応する未振分人数情報147aを説明する具体例である。また、図21(B)は、未振分人数情報147のうち、撮像装置2bが撮影した撮像画像に含まれる人数に対応する未振分人数情報147bを説明する具体例である。
図21に示す未振分人数情報147は、図15で説明した検出人数情報141の項目のうち、「時刻」、「グループ名」、「男性20代」、「男性30代」、「女性20代」及び「女性30代」を項目として有している。
具体的に、図21(A)に示す未振分人数情報147a及び図21(B)に示す未振分人数情報147bには、図15(A)で説明した検出人数情報141a及び図15(B)で説明した検出人数情報141bの各項目に設定された情報と同じ情報が設定されている。すなわち、未振分人数情報147には、初期値として、検出人数情報141に含まれる情報と同じ情報が設定される。
[振分済人数情報の具体例]
次に、振分済人数情報148の具体例について説明を行う。図22は、振分済人数情報148の具体例を説明する図である。具体的に、図22(A)は、振分済人数情報148のうち、撮像装置2aが撮影した撮像画像に含まれる人数に対応する振分済人数情報148aを説明する具体例である。また、図22(B)は、振分済人数情報148のうち、撮像装置2bが撮影した撮像画像に含まれる人数に対応する振分済人数情報148bを説明する具体例である。
図22に示す振分済人数情報148は、図15で説明した検出人数情報141の項目のうち、「グループ名」、「男性20代」、「男性30代」、「女性20代」及び「女性30代」を項目として有している。また、図22に示す振分済人数情報148は、各グループに対応する推定人数のうち、各組合せへの振り分けが既に行われた人数を示す「振分人数」を項目として有している。
具体的に、図22(A)に示す振分済人数情報148a及び図22(B)に示す振分済人数情報148bには、初期値として、全ての欄に「0」が設定されている。
そして、属性特定部126は、S54の処理において、図21で説明した未振分人数情報147における各欄に設定された人数を、図22で説明した振分済人数情報148における各欄に振り分ける。以下、未振分人数情報147及び振分済人数情報148が更新される際の具体例について説明を行う。
[未振分人数情報及び振分済人数情報が更新される際の具体例]
図21(A)で説明した未振分人数情報147aにおける「時刻」に「11:00」が設定されている情報の「グループ名」には、「G1」及び「G3」が設定されている。そして、図20で説明した検出指数情報146における「グループ名」に「G1」または「G3」が設定された情報の各属性に設定された情報のうちの最大値は、「グループ名」が「G1」である情報の「女性20代」に設定された情報である「1.50(人)」、及び「グループ名」が「G3」である情報の「女性20代」に設定された情報である「1.50(人)」である。
そのため、属性特定部126は、図23(C)の下線部分に示すように、振分済人数情報148aにおける「グループ名」に「G1」が設定された情報の「女性20代」に設定された情報を「1(人)」に更新する。また、属性特定部126は、図23(C)の下線部分に示すように、振分済人数情報148aにおける「グループ名」に「G3」が設定された情報の「女性20代」に設定された情報を「1(人)」に更新する。
そして、属性特定部126は、図23(C)の下線部分に示すように、振分済人数情報148aにおける「グループ名」に「G1」が設定された情報の「振分人数」に設定された情報を、「男性20代」、「男性30代」、「女性20代」及び「女性30代」のそれぞれに設定された情報の和である「1」に更新する。また、属性特定部126は、図23(C)の下線部分に示すように、振分済人数情報148aにおける「グループ名」に「G3」が設定された情報の「振分人数」に設定された情報を、「男性20代」、「男性30代」、「女性20代」及び「女性30代」のそれぞれに設定された情報の和である「1」に更新する。すなわち、属性特定部126は、この場合、20代の女性がグループG1とグループG3とにそれぞれ含まれているものと特定する。
その後、属性特定部126は、図23(A)に示すように、図21(A)に示す未振分人数情報147aにおける「時刻」に「11:00」が設定された情報の「女性20代」に設定された情報である「3(人)」を、グループG1及びグループG3に対して振り分けが行われた人数である「2(人)」を減算した人数である「1(人)」に更新する。
そして、属性特定部126は、図23(B)の下線部分に示すように、図20に示す検出指数情報146における「グループ名」に「G1」が設定された情報の「未振分情報」に設定された情報である「3(人)」を、グループG1に対して振り分けが行われた人数である「1(人)」を減算した人数である「2(人)」に更新する。また、属性特定部126は、図23(B)の下線部分に示すように、図20に示す検出指数情報146における「グループ名」に「G3」が設定された情報の「未振分情報」に設定された情報である「3(人)」を、グループG1に対して振り分けが行われた人数である「1(人)」を減算した人数である「2(人)」に更新する。
さらに、属性特定部126は、図23(B)の下線部分に示すように、図20に示す検出指数情報146における「グループ名」に「G1」が設定された情報の「女性20代」に設定された情報である「1.50(人)」を、グループG1及び女性20代の組合せに対して振り分けが行われた人数である「1(人)」を減算した値である「0.50(人)」に更新する。また、属性特定部126は、図23(B)に示すように、図20に示す検出指数情報146における「グループ名」に「G3」が設定された情報の「女性20代」に設定された情報である「1.50(人)」を、グループG3及び女性20代の組合せに対して振り分けが行われた人数である「1(人)」を減算した値である「0.50(人)」に更新する。すなわち、属性特定部126は、グループG1及び女性20代の組合せと、グループG3及び女性20代の組合せとに対する人物の振り分けが既に行われたため、検出指数情報146のうち、人物の振り分けが行われた組合せに対応する情報を小さくする。
なお、図23(A)に示す未振分人数情報147aにおいて、「時刻」が「11:00」である情報の「男性30代」、「女性20代」及び「女性30代」に「1(人)」が設定されているのに対し、「時刻」が「11:00」である情報の「男性20代」には、「0(人)」が設定されている。そのため、例えば、図20で説明した検出指数情報146における「グループ名」に「G1」または「G3」が設定された情報の各属性に設定された情報の最大値が、「グループ名」が「G1」または「G3」である情報の「男性20代」に設定された情報である場合であっても、属性特定部126は、グループG1及び男性20代の組合せ、または、グループG3及び男性20代の組合せに対して人物の振り分けを行わないものであってよい。そして、属性特定部126は、この場合、例えば、「グループ名」に「G1」または「G3」が設定された情報の各属性に設定された情報のうち、「グループ名」に「G1」または「G3」が設定された情報の「男性20代」に設定された情報の次に大きい情報を特定し、特定した情報に対応する組合せに対して人物の振り分けを行うものであってよい。
続いて、各情報の状態が図23に示す状態に更新された場合、図23(B)で説明した検出指数情報146における「グループ名」に「G1」または「G3」が設定された情報の各属性に設定された情報の最大値は、「グループ名」が「G1」である情報の「男性30代」に設定された情報である「0.75(人)」、及び「グループ名」が「G1」である情報の「女性30代」に設定された情報である「0.75(人)」ある。
そのため、属性特定部126は、図24(C)の下線部分に示すように、振分済人数情報148aにおける「グループ名」に「G1」が設定された情報の「男性30代」に設定された情報を「1(人)」に更新する。また、属性特定部126は、図24(C)の下線部分に示すように、振分済人数情報148aにおける「グループ名」に「G1」が設定された情報の「女性30代」に設定された情報を「1(人)」に更新する。
そして、属性特定部126は、図24(C)の下線部分に示すように、振分済人数情報148aにおける「グループ名」に「G1」が設定された情報の「振分人数」を、「男性20代」、「男性30代」、「女性20代」及び「女性30代」のそれぞれに設定された情報の和である「3」に更新する。すなわち、属性特定部126は、この場合、30代の男性と30代の女性がグループG1に含まれているものと特定する。
その後、属性特定部126は、図24(A)に示すように、図23(A)に示す未振分人数情報147aにおける「時刻」に「11:00」が設定された情報の「男性30代」及び「女性30代」にそれぞれ設定された情報である「1(人)」を、グループG1に対してそれぞれ振り分けが行われた人数である「1(人)」を減算した人数である「0(人)」にそれぞれ更新する。
そして、属性特定部126は、図24(B)の下線部分に示すように、図23(B)に示す検出指数情報146における「グループ名」に「G1」が設定された情報の「未振分情報」に設定された情報である「2(人)」を、グループG1に対して振り分けが行われた人数である「2(人)」を減算した人数である「0(人)」に更新する。
さらに、属性特定部126は、図24(B)の下線部分に示すように、図23(B)に示す検出指数情報146における「グループ名」に「G1」が設定された情報の「男性30代」に設定された情報である「0.75(人)」を、グループG1及び男性30代の組合せに対して振り分けが行われた人数である「1(人)」を減算して算出された情報である「−0.25(人)」に更新する。また、属性特定部126は、図24(B)の下線部分に示すように、図23(B)に示す検出指数情報146における「グループ名」に「G3」が設定された情報の「女性30代」に設定された情報である「0.75(人)」を、グループG1及び女性30代の組合せに対して振り分けが行われた人数である「1(人)」を減算して算出された情報である「−0.25(人)」に更新する。すなわち、属性特定部126は、グループG1及び男性30代の組合せと、グループG3及び女性30代の組合せとに対する人物の振り分けが既に行われたため、検出指数情報146のうち、人物の振り分けが行われた組合せに対応する情報を小さくする。
なお、図23(B)で説明した検出指数情報146における「グループ名」に「G1」または「G3」が設定された情報の各属性に設定された情報の最大値は、「グループ名」が「G1」である情報の「男性30代」に設定された情報である「0.75(人)」と、「グループ名」が「G1」である情報の「女性30代」に設定された情報である「0.75(人)」との両方である。そのため、例えば、「グループ名」に「G1」が設定された情報の「未振分人数」に設定された情報が「1(人)」である場合、属性特定部126は、グループG1及び男性30代の組合せと、グループG1及び女性30代の組合せとの両方に人数の振り分けを行うことができない。
この点、図23(B)に示す検出指数情報146における「男性30代」に対応する情報のうち、「0.75(人)」の次に大きい情報は、「グループ名」が「G3」である情報の「男性30代」に設定された情報である「0.64(人)」である。また、図23(B)に示す検出指数情報146における「女性30代」に対応する情報のうち、「0.75」の次に大きい情報は、「グループ名」が「G3」である情報の「女性30代」に設定された情報である「0.43(人)」である。そのため、属性特定部126は、この場合、例えば、「0.75(人)」の次に大きい情報が小さい方の組合せであるグループG1及び女性30代の組合せに人物の振り分けを行うものであってよい。
これにより、属性抽出部125は、男性30代に対応する組合せと女性30代に対応する組合せの両方に、人物の振り分けが行われる可能性を高めることが可能になる。
続いて、各情報の状態が図24に示す状態に更新された場合、図24(B)で説明した検出指数情報146における「グループ名」に「G1」または「G3」が設定された情報の各属性に設定された情報の最大値は、「グループ名」が「G1」である情報の「女性20代」に設定された情報である「0.50(人)」、及び「グループ名」が「G3」である情報の「女性20代」に設定された情報である「0.50(人)」である。
ここで、図24(B)に示す検出指数情報146における「グループ名」が「G1」である情報の「未振分人数」には「0(人)」が設定されている。すなわち、図24(B)に示す検出指数情報146は、グループG1に対応する組合せに振り分けられた人数が、グループG1に対応する推定人数に達したことを示している。そのため、属性特定部126は、この場合、グループG1に対応する組合せに対する人物の振り分けをこれ以上行わない。
したがって、属性特定部126は、図25(C)の下線部分に示すように、振分済人数情報148aにおける「グループ名」に「G3」が設定された情報の「女性20代」に設定された情報を「2(人)」に更新する。すなわち、属性特定部126は、この場合、20代の女性がグループG3に含まれているものと特定する。
その後、属性特定部126は、この場合、図25(A)に示すように、図24(A)に示す未振分人数情報147aにおける「時刻」に「11:00」が設定された情報の「女性20代」に設定された情報である「1(人)」を、グループG3に対して振り分けが行われた人数である「1(人)」を減算して算出された人数である「0(人)」に更新する。
そして、属性特定部126は、この場合、図25(B)の下線部分に示すように、図24(B)に示す検出指数情報146における「グループ名」に「G3」が設定された情報の「未振分情報」に設定された情報である「2(人)」を、グループG3に対して振り分けが行われた人数である「1(人)」を減算した人数である「1(人)」に更新する。
さらに、属性特定部126は、図25(B)の下線部分に示すように、図24(B)に示す検出指数情報146における「グループ名」に「G3」が設定された情報の「女性20代」に設定された情報である「0.50(人)」を、グループG3及び女性20代の組合せに対して振り分けが行われた人数である「1(人)」を減算した値である「−0.50(人)」に更新する。
ここで、図25(A)に示す未振分人数情報147aの「男性20代」、「男性30代」、「女性20代」及び「女性30代」には、全て「0(人)」が設定されている。すなわち、図25(A)に示す未振分人数情報147aは、撮像装置2aが11時に撮影した撮像画像に含まれる全人物の各組合せに対する振り分けが完了したことを示している。
その後、属性特定部126は、図26の振分済人数情報148に示すように、撮像装置2毎であって時刻毎(各撮像装置2による撮影された撮像画像毎)の人物の振り分けが全て終了するまでS54の処理を行う。
図14に戻り、属性特定部126は、各グループのいずれかと各属性のいずれかとの組合せ毎に、S54の処理で特定した第6人数の平均値を算出する(S61)。具体的に、属性特定部126は、例えば、それぞれ生成された第6人数の平均値を含む平均振分済人数情報149を生成し、情報格納領域130に記憶する。以下、平均振分済人数情報149の具体例について説明を行う。
[平均振分済人数情報の具体例]
図27は、平均振分済人数情報149の具体例を説明する図である。
図27に示す平均振分済人数情報149は、図15で説明した検出人数情報141の項目のうち、「グループ名」、「男性20代」、「男性30代」、「女性20代」及び「女性30代」を項目として有している。
具体的に、図26に示す振分済人数情報148における「グループ名」に「G1」が設定された情報の「男性20代」には、それぞれ「0(人)」が設定されている。そのため、属性特定部126は、図27に示すように、「グループ名」が「G1」である情報の「男性20代」に「0(人)」を設定する。
また、図26に示す振分済人数情報148における「グループ名」に「G3」が設定された情報の「男性20代」には、「0(人)」及び「1(人)」が設定されている。そのため、属性特定部126は、図27に示すように、「グループ名」が「G3」である情報の「男性20代」に、「0(人)」と「1(人)」との平均値である「0.5(人)」を設定する。図27に含まれる他の情報については説明を省略する。
図14に戻り、属性特定部126は、グループ毎に、各属性に対応する人数の比が各属性に対応する第6人数の平均値の比になるように、各グループに対応する推定人数を各属性に振り分けることにより、各グループに含まれる各人物の属性を特定する(S62)。具体的に、属性特定部126は、各属性に振り分けられた推定人数のそれぞれを含む振分指数情報150を生成し、情報格納領域130に記憶する。以下、振分指数情報150の具体例について説明を行う。
[振分指数情報の具体例]
図28は、振分指数情報150の具体例を説明する図である。
図28に示す振分指数情報150は、図15で説明した検出人数情報141の項目のうち、「グループ名」、「男性20代」、「男性30代」、「女性20代」及び「女性30代」を項目として有している。
具体的に、図27で説明した平均振分済人数情報149の「グループ名」に「G1」が設定された情報における「男性20代」、「男性30代」、「女性20代」及び「女性30代」に設定された人数の合計は、図18で説明した推定人数情報144における「グループ名」が「G1」である情報の「推定人数」に設定された人数と同数の「3(人)」である。そのため、属性特定部126は、この場合、図28に示すように、「グループ名」に「G1」が設定された情報における「男性20代」、「男性30代」、「女性20代」及び「女性30代」に、図27で説明した平均振分済人数情報149の「グループ名」に「G1」が設定された情報における「男性20代」、「男性30代」、「女性20代」及び「女性30代」に設定された人数をそれぞれ設定する。
一方、図27で説明した平均振分済人数情報149の「グループ名」に「G3」が設定された情報における「男性20代」、「男性30代」、「女性20代」及び「女性30代」に設定された人数の合計は、「2.5(人)」である。また、図18で説明した推定人数情報144における「グループ名」が「G3」である情報の「推定人数」に設定された人数は、「3(人)」である。そのため、属性特定部126は、分割した後の数の比が、図28で説明した平均振分済人数情報149における「グループ名」に「G3」が設定された情報の「男性20代」、「男性30代」、「女性20代」及び「女性30代」に設定された情報の比(「0.5(人)」:「0.5(人)」:「1.5(人)」:「0(人)」)になるように「3(人)」を分割し、「0.6(人)」、「0.6(人)」、「1.8(人)」及び「0(人)」をそれぞれ算出する。そして、属性特定部126は、図28に示すように、「グループ名」が「G3」である情報の「男性20代」、「男性30代」、「女性20代」及び「女性30代」に、「0.6(人)」、「0.6(人)」、「1.8(人)」及び「0(人)」をそれぞれ設定する。図28に含まれる他の情報については説明を省略する。
なお、属性特定部126は、S62の処理において、例えば、図28で説明した振分指数情報150に含まれる各値を整数化するものであってもよい。
具体的に、図28に示す振分指数情報150において、「グループ名」に「G3」が設定された情報の「男性20代」、「男性30代」、「女性20代」及び「女性30代」には、それぞれ「0.6(人)」、「0.6(人)」、「1.8(人)」及び「0(人)」が設定されている。そのため、属性特定部126は、例えば、図29に示すように、小数点が含まれている人数である「0.6(人)」、「0.6(人)」及び「1.8(人)」のうちの最大数である「1.8(人)」を切り上げることによって「2(人)」にする。
ここで、図26で説明した振分済人数情報148には、「グループ名」に「未振分」が設定された情報の「男性30代」、「女性20代」及び「女性30代」に「0(人)」が設定されているのに対し、「グループ名」に「未振分」が設定された情報の「男性20代」には「1(人)」が設定されている。そのため、グループG3に含まれる男性20代の実際の人数は、図28に示す振分指数情報150における「グループ名」に「G3」が設定された情報の「男性20代」に設定された情報である「0.6(人)」よりも大きい可能性が高い。したがって、属性特定部126は、この場合、図29に示すように、図28に示す振分指数情報150における「グループ名」に「G3」が設定された情報の「男性20代」に設定された情報である「0.6(人)」を「1(人)」に切り上げる。そして、属性特定部126は、図28に示す振分指数情報150における「グループ名」に「G3」が設定された情報の「男性30代」に設定された情報である「0.6(人)」を「0(人)」に切り下げる。
これにより、属性特定部126は、例えば、図28で説明した振分指数情報150に含まれる各値の整数化を、各グループに含まれる各属性の実際の人数に近付けながら行うことが可能になる。
このように、本実施の形態における情報処理装置1は、複数の撮像装置2のそれぞれの周辺に位置することが検出された複数の無線端末3を、所定の関係にある無線端末3毎のグループに分類する。
そして、情報処理装置1は、複数の撮像装置2毎に、各撮像装置2の周辺に位置することが検出されたグループを特定する。また、情報処理装置1は、複数の撮像装置2毎に、各撮像装置2から取得した撮像画像に含まれる人数を特定する。さらに、情報処理装置1は、特定したグループと、特定した人数とに基づき、グループのそれぞれに含まれる推定人数を算出する。
その後、情報処理装置1は、複数の撮像装置2毎に、各撮像装置2から取得した撮像画像に含まれる人物の属性を抽出し、特定したグループと、算出した推定人数と、抽出した属性とに基づき、グループ毎に、各グループに含まれる人物の属性を特定する。
これにより、情報処理装置1は、各グループに含まれる推定人数のそれぞれの属性を特定することが可能になる。また、情報処理装置1は、店舗内における来店客の属性の割合に差がある場合であっても、割合が小さい属性にも来店客を対応付けることが可能になる。
以上の実施の形態をまとめると、以下の付記の通りである。
(付記1)
複数の撮像装置のそれぞれの周辺に位置することが検出された無線端末の識別情報を取得し、
第1の識別情報を有する無線端末が周辺に位置することが検出された複数の撮像装置を特定し、
特定した前記複数の撮像装置から取得した撮像画像であって、撮像タイミングが、対応する撮像装置の周辺に前記第1の識別情報を有する無線端末が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出し、
抽出した属性のうち、統計的に優位を示す属性を特定する、
ことを特徴とする対応付け方法。
(付記2)
付記1において、
前記属性を特定する工程では、前記統計的に優位を示す属性を、前記第1の識別情報を有する無線端末に対応する属性として特定する、
ことを特徴とする対応付け方法。
(付記3)
付記1において、
前記属性を特定する工程では、
前記複数の撮像装置から取得した撮像画像から抽出された回数を前記属性毎に特定し、
前記回数が最も多い前記属性を、前記統計的に優位を示す属性として特定する、
ことを特徴とする対応付け方法。
(付記4)
複数の撮像装置のそれぞれの周辺に位置することが検出された複数の無線端末を、所定の関係にある無線端末毎のグループに分類し、
前記複数の撮像装置毎に、各撮像装置の周辺に位置することが検出された前記グループを特定し、
前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人数を特定し、
特定した前記グループと、特定した前記人数とに基づき、前記グループのそれぞれに含まれる推定人数を算出し、
前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人物の属性を抽出し、
特定した前記グループと、算出した前記推定人数と、抽出した前記属性とに基づき、前記グループ毎に、各グループに含まれる人物の前記属性を特定する、
ことを特徴とする対応付け方法。
(付記5)
付記4において、
前記グループを分類する工程では、
前記複数の無線端末毎に、前記複数の撮像装置のいずれかが各無線端末を最初に検出した時刻から最後に検出した時間までの検出時間を特定し、
前記複数の無線端末毎に、特定した検出時間のうち、無線端末間の距離が第1閾値以下であった時間の割合が第2閾値以上であった他の無線端末を、同一の前記グループに含まれる他の無線端末として分類を行う、
ことを特徴とする対応付け方法。
(付記6)
付記5において、
前記推定人数を算出する工程では、
前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人数を、各撮像装置のそれぞれの周辺に位置することが検出されたグループに振り分け、
振り分けた前記人数を前記グループ毎に平均した人数を、前記グループのそれぞれに含まれる前記推定人数として算出する、
ことを特徴とする対応付け方法。
(付記7)
付記6において、
前記グループを特定する工程では、前記グループの特定を所定の時間毎に行い、
前記人物の数を特定する工程では、前記人物の数の特定を前記所定の時間内に検出された人物毎に行い、
前記推定人数を算出する工程では、
前記複数の撮像装置毎であって前記所定の時間毎に、各撮像装置から取得した撮像画像に含まれる人数を、各撮像装置のそれぞれの周辺に位置することが検出されたグループの数で除算することによって、各撮像装置の周辺に位置することが検出されたグループのそれぞれに対応する第1人数を算出し、
前記複数の撮像装置毎であって前記グループ毎に、算出した前記第1人数の平均値を算出し、
前記複数の撮像装置毎であって前記所定の時間毎に、各撮像装置の周辺に位置することが検出されたグループのそれぞれに対応する人数の比が、各撮像装置の周辺に位置することが検出されたグループのそれぞれに対応する前記第1人数の平均値の比になるように、各撮像装置から取得した撮像画像に含まれる数を、各撮像装置のそれぞれの周辺に位置することが検出されたグループのそれぞれに振り分けることによって、各撮像装置のそれぞれの周辺に位置することが検出されたグループのそれぞれに対応する第2人数を算出し、
前記グループ毎に、算出した前記第2人数の平均値を、各グループに含まれる人物の前記推定人数として算出する、
ことを特徴とする対応付け方法。
(付記8)
付記7において、
前記属性を抽出する工程では、前記属性の抽出を、前記複数の撮像装置毎であって前記所定の時間毎であって前記属性毎に、各撮像装置から取得した撮像画像に含まれる第3人数を特定することによって行い、
前記属性を特定する工程では、
前記グループ毎であって前記属性毎に、各グループと各属性とに対応する前記第3人数を加算することによって第4人数を算出し、
前記グループ毎に、前記属性のそれぞれに対応する人数の比が、前記属性のそれぞれに対応する前記第4人数の比になるように、前記推定人数を前記属性のそれぞれに振り分けることによって第5人数を算出し、
前記複数の撮像装置毎であって前記所定の時間毎に、各撮像装置の周辺に位置することが検出された前記グループのいずれかと前記属性のいずれかとの複数の組合せのうち、各組合せに対応する前記第5人数が多い組合せを優先して、各撮像装置の周辺に位置することが検出された前記グループに対応する前記推定人数を、前記複数の組合せに振り分けることによって、前記複数の組合せ毎の第6人数を特定し、
前記複数の組合せ毎に、特定した前記第6人数の平均値を算出し、
前記グループ毎に、前記属性のそれぞれに対応する人数の比が、前記属性のそれぞれに対応する前記第6人数の平均値の比になるように、各グループに対応する前記推定人数を前記属性のそれぞれに振り分けることにより、各グループに含まれる人物の前記属性を特定する、
ことを特徴とする対応付け方法。
(付記9)
付記8において、
前記第6人数を特定する工程では、
前記グループに対応する前記推定人数を前記複数の組合せのいずれかに振り分ける毎に、振り分けられた前記複数の組合せのいずれかに対応する前記第5人数から、振り分けた人数を減算し、
前記グループに対応する前記推定人数の振り分けが再度行われる場合、前記複数の組合せにおいて、振り分けた人数が減算された前記第5人数が多い組合せから順に、前記グループに対応する前記推定人数の振り分けを行う、
ことを特徴とする対応付け方法。
(付記10)
付記9において、
前記第6人数を特定する工程では、
前記複数の組合せに含まれる特定の組合せに振り分けた人数が、前記特定の組合せに対応する前記第3人数に達した場合、前記特定の組合せに対する振り分けを終了する、
ことを特徴とする対応付け方法。
(付記11)
付記9において、
前記複数の組合せのうち、特定のグループに対応する組合せのそれぞれに振り分けた人数を加算した人数が、前記特定のグループに対応する前記推定人数に達した場合、前記特定のグループに対応する組合せのいずれかに対する振り分けを終了する、
ことを特徴とする対応付け方法。
(付記12)
複数の撮像装置のそれぞれの周辺に位置することが検出された無線端末の識別情報を取得する情報取得部と、
第1の識別情報を有する無線端末が周辺に位置することが検出された複数の撮像装置を特定する撮像装置特定部と、
特定した前記複数の撮像装置から取得した撮像画像であって、撮像タイミングが、対応する撮像装置の周辺に前記第1の識別情報を有する無線端末が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出する属性抽出部と、
抽出した属性のうち、統計的に優位を示す属性を特定する属性特定部と、を有する、
ことを特徴とする情報処理装置。
(付記13)
複数の撮像装置のそれぞれの周辺に位置することが検出された無線端末の識別情報を取得し、
第1の識別情報を有する無線端末が周辺に位置することが検出された複数の撮像装置を特定し、
特定した前記複数の撮像装置から取得した撮像画像であって、撮像タイミングが、対応する撮像装置の周辺に前記第1の識別情報を有する無線端末が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出し、
抽出した属性のうち、統計的に優位を示す属性を特定する、
処理をコンピュータに実行させることを特徴とする対応付けプログラム。
(付記14)
複数の撮像装置のそれぞれの周辺に位置することが検出された複数の無線端末を、所定の関係にある無線端末毎のグループに分類するグループ分類部と、
前記複数の撮像装置毎に、各撮像装置の周辺に位置することが検出された前記グループを特定するグループ特定部と、
前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人数を特定する人数特定部と、
特定した前記グループと、特定した前記人数とに基づき、前記グループのそれぞれに含まれる推定人数を算出する推定人数算出部と、
前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人物の属性を抽出する属性抽出部と、
特定した前記グループと、算出した前記推定人数と、抽出した前記属性とに基づき、前記グループ毎に、各グループに含まれる人物の前記属性を特定する属性特定部と、を有する、
ことを特徴とする情報処理装置。
(付記15)
複数の撮像装置のそれぞれの周辺に位置することが検出された複数の無線端末を、所定の関係にある無線端末毎のグループに分類し、
前記複数の撮像装置毎に、各撮像装置の周辺に位置することが検出された前記グループを特定し、
前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人数を特定し、
特定した前記グループと、特定した前記人数とに基づき、前記グループのそれぞれに含まれる推定人数を算出し、
前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人物の属性を抽出し、
特定した前記グループと、算出した前記推定人数と、抽出した前記属性とに基づき、前記グループ毎に、各グループに含まれる人物の前記属性を特定する、
処理をコンピュータに実行させることを特徴とする対応付けプログラム。
1:情報処理装置 2a:撮像装置
2b:撮像装置 3a:無線端末
3b:無線端末 3c:無線端末
3d:無線端末

Claims (14)

  1. 複数の撮像装置のそれぞれの周辺に位置することが検出された無線端末の識別情報を取得し、
    第1の識別情報を有する無線端末が周辺に位置することが検出された複数の撮像装置を特定し、
    特定した前記複数の撮像装置から取得した撮像画像であって、撮像タイミングが、対応する撮像装置の周辺に前記第1の識別情報を有する無線端末が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出し、
    抽出した属性のうち、統計的に優位を示す属性を特定する、
    ことを特徴とする対応付け方法。
  2. 請求項1において、
    前記属性を特定する工程では、
    前記複数の撮像装置から取得した撮像画像から抽出された回数を前記属性毎に特定し、
    前記回数が最も多い前記属性を、前記統計的に優位を示す属性として特定する、
    ことを特徴とする対応付け方法。
  3. 複数の撮像装置のそれぞれの周辺に位置することが検出された複数の無線端末を、所定の関係にある無線端末毎のグループに分類し、
    前記複数の撮像装置毎に、各撮像装置の周辺に位置することが検出された前記グループを特定し、
    前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人数を特定し、
    特定した前記グループと、特定した前記人数とに基づき、前記グループのそれぞれに含まれる推定人数を算出し、
    前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人物の属性を抽出し、
    特定した前記グループと、算出した前記推定人数と、抽出した前記属性とに基づき、前記グループ毎に、各グループに含まれる人物の前記属性を特定する、
    ことを特徴とする対応付け方法。
  4. 請求項3において、
    前記グループを分類する工程では、
    前記複数の無線端末毎に、前記複数の撮像装置のいずれかが各無線端末を最初に検出した時刻から最後に検出した時間までの検出時間を特定し、
    前記複数の無線端末毎に、特定した検出時間のうち、無線端末間の距離が第1閾値以下であった時間の割合が第2閾値以上であった他の無線端末を、同一の前記グループに含まれる他の無線端末として分類を行う、
    ことを特徴とする対応付け方法。
  5. 請求項4において、
    前記推定人数を算出する工程では、
    前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人数を、各撮像装置のそれぞれの周辺に位置することが検出されたグループに振り分け、
    振り分けた前記人数を前記グループ毎に平均した人数を、前記グループのそれぞれに含まれる前記推定人数として算出する、
    ことを特徴とする対応付け方法。
  6. 請求項5において、
    前記グループを特定する工程では、前記グループの特定を所定の時間毎に行い、
    前記人物の数を特定する工程では、前記人物の数の特定を前記所定の時間内に検出された人物毎に行い、
    前記推定人数を算出する工程では、
    前記複数の撮像装置毎であって前記所定の時間毎に、各撮像装置から取得した撮像画像に含まれる人数を、各撮像装置のそれぞれの周辺に位置することが検出されたグループの数で除算することによって、各撮像装置の周辺に位置することが検出されたグループのそれぞれに対応する第1人数を算出し、
    前記複数の撮像装置毎であって前記グループ毎に、算出した前記第1人数の平均値を算出し、
    前記複数の撮像装置毎であって前記所定の時間毎に、各撮像装置の周辺に位置することが検出されたグループのそれぞれに対応する人数の比が、各撮像装置の周辺に位置することが検出されたグループのそれぞれに対応する前記第1人数の平均値の比になるように、各撮像装置から取得した撮像画像に含まれる数を、各撮像装置のそれぞれの周辺に位置することが検出されたグループのそれぞれに振り分けることによって、各撮像装置のそれぞれの周辺に位置することが検出されたグループのそれぞれに対応する第2人数を算出し、
    前記グループ毎に、算出した前記第2人数の平均値を、各グループに含まれる人物の前記推定人数として算出する、
    ことを特徴とする対応付け方法。
  7. 請求項6において、
    前記属性を抽出する工程では、前記属性の抽出を、前記複数の撮像装置毎であって前記所定の時間毎であって前記属性毎に、各撮像装置から取得した撮像画像に含まれる第3人数を特定することによって行い、
    前記属性を特定する工程では、
    前記グループ毎であって前記属性毎に、各グループと各属性とに対応する前記第3人数を加算することによって第4人数を算出し、
    前記グループ毎に、前記属性のそれぞれに対応する人数の比が、前記属性のそれぞれに対応する前記第4人数の比になるように、前記推定人数を前記属性のそれぞれに振り分けることによって第5人数を算出し、
    前記複数の撮像装置毎であって前記所定の時間毎に、各撮像装置の周辺に位置することが検出された前記グループのいずれかと前記属性のいずれかとの複数の組合せのうち、各組合せに対応する前記第5人数が多い組合せを優先して、各撮像装置の周辺に位置することが検出された前記グループに対応する前記推定人数を、前記複数の組合せに振り分けることによって、前記複数の組合せ毎の第6人数を特定し、
    前記複数の組合せ毎に、特定した前記第6人数の平均値を算出し、
    前記グループ毎に、前記属性のそれぞれに対応する人数の比が、前記属性のそれぞれに対応する前記第6人数の平均値の比になるように、各グループに対応する前記推定人数を前記属性のそれぞれに振り分けることにより、各グループに含まれる人物の前記属性を特定する、
    ことを特徴とする対応付け方法。
  8. 請求項7において、
    前記第6人数を特定する工程では、
    前記グループに対応する前記推定人数を前記複数の組合せのいずれかに振り分ける毎に、振り分けられた前記複数の組合せのいずれかに対応する前記第5人数から、振り分けた人数を減算し、
    前記グループに対応する前記推定人数の振り分けが再度行われる場合、前記複数の組合せにおいて、振り分けた人数が減算された前記第5人数が多い組合せから順に、前記グループに対応する前記推定人数の振り分けを行う、
    ことを特徴とする対応付け方法。
  9. 請求項8において、
    前記第6人数を特定する工程では、
    前記複数の組合せに含まれる特定の組合せに振り分けた人数が、前記特定の組合せに対応する前記第3人数に達した場合、前記特定の組合せに対する振り分けを終了する、
    ことを特徴とする対応付け方法。
  10. 請求項8において、
    前記複数の組合せのうち、特定のグループに対応する組合せのそれぞれに振り分けた人数を加算した人数が、前記特定のグループに対応する前記推定人数に達した場合、前記特定のグループに対応する組合せのいずれかに対する振り分けを終了する、
    ことを特徴とする対応付け方法。
  11. 複数の撮像装置のそれぞれの周辺に位置することが検出された無線端末の識別情報を取得する情報取得部と、
    第1の識別情報を有する無線端末が周辺に位置することが検出された複数の撮像装置を特定する撮像装置特定部と、
    特定した前記複数の撮像装置から取得した撮像画像であって、撮像タイミングが、対応する撮像装置の周辺に前記第1の識別情報を有する無線端末が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出する属性抽出部と、
    抽出した属性のうち、統計的に優位を示す属性を特定する属性特定部と、を有する、
    ことを特徴とする情報処理装置。
  12. 複数の撮像装置のそれぞれの周辺に位置することが検出された無線端末の識別情報を取得し、
    第1の識別情報を有する無線端末が周辺に位置することが検出された複数の撮像装置を特定し、
    特定した前記複数の撮像装置から取得した撮像画像であって、撮像タイミングが、対応する撮像装置の周辺に前記第1の識別情報を有する無線端末が位置することが検出されたタイミングに対応する撮像画像に含まれる人物の属性を抽出し、
    抽出した属性のうち、統計的に優位を示す属性を特定する、
    処理をコンピュータに実行させることを特徴とする対応付けプログラム。
  13. 複数の撮像装置のそれぞれの周辺に位置することが検出された複数の無線端末を、所定の関係にある無線端末毎のグループに分類するグループ分類部と、
    前記複数の撮像装置毎に、各撮像装置の周辺に位置することが検出された前記グループを特定するグループ特定部と、
    前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人数を特定する人数特定部と、
    特定した前記グループと、特定した前記人数とに基づき、前記グループのそれぞれに含まれる推定人数を算出する推定人数算出部と、
    前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人物の属性を抽出する属性抽出部と、
    特定した前記グループと、算出した前記推定人数と、抽出した前記属性とに基づき、前記グループ毎に、各グループに含まれる人物の前記属性を特定する属性特定部と、を有する、
    ことを特徴とする情報処理装置。
  14. 複数の撮像装置のそれぞれの周辺に位置することが検出された複数の無線端末を、所定の関係にある無線端末毎のグループに分類し、
    前記複数の撮像装置毎に、各撮像装置の周辺に位置することが検出された前記グループを特定し、
    前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人数を特定し、
    特定した前記グループと、特定した前記人数とに基づき、前記グループのそれぞれに含まれる推定人数を算出し、
    前記複数の撮像装置毎に、各撮像装置から取得した撮像画像に含まれる人物の属性を抽出し、
    特定した前記グループと、算出した前記推定人数と、抽出した前記属性とに基づき、前記グループ毎に、各グループに含まれる人物の前記属性を特定する、
    処理をコンピュータに実行させることを特徴とする対応付けプログラム。
JP2017061632A 2017-03-27 2017-03-27 対応付け方法、情報処理装置及び対応付けプログラム Pending JP2018163601A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017061632A JP2018163601A (ja) 2017-03-27 2017-03-27 対応付け方法、情報処理装置及び対応付けプログラム
US15/928,888 US10853829B2 (en) 2017-03-27 2018-03-22 Association method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017061632A JP2018163601A (ja) 2017-03-27 2017-03-27 対応付け方法、情報処理装置及び対応付けプログラム

Publications (1)

Publication Number Publication Date
JP2018163601A true JP2018163601A (ja) 2018-10-18

Family

ID=63583574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017061632A Pending JP2018163601A (ja) 2017-03-27 2017-03-27 対応付け方法、情報処理装置及び対応付けプログラム

Country Status (2)

Country Link
US (1) US10853829B2 (ja)
JP (1) JP2018163601A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185477A1 (ja) * 2021-03-04 2022-09-09 日本電気株式会社 特性情報生成装置、システム、方法、及びコンピュータ可読媒体

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11366989B2 (en) 2019-08-20 2022-06-21 Microsoft Technology Licensing, Llc Negative sampling algorithm for enhanced image classification
US11270121B2 (en) 2019-08-20 2022-03-08 Microsoft Technology Licensing, Llc Semi supervised animated character recognition in video
US11450107B1 (en) * 2021-03-10 2022-09-20 Microsoft Technology Licensing, Llc Dynamic detection and recognition of media subjects

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160780A (ja) * 2008-12-09 2010-07-22 Yahoo Japan Corp サイネージと連携する情報処理システム及び方法
WO2016038902A1 (ja) * 2014-09-08 2016-03-17 富士ゼロックス株式会社 行動分析装置、行動分析方法、行動分析プログラム、及び記録媒体
JP2017049750A (ja) * 2015-09-01 2017-03-09 株式会社Jvcケンウッド 情報提供装置、端末装置、情報提供方法、プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH056500A (ja) 1990-09-19 1993-01-14 Hitachi Ltd 移動体・施設制御システム
WO2009090804A1 (ja) * 2008-01-18 2009-07-23 Nikon Corporation 画像群の標題付与装置、画像のグループ化装置、画像群の代表画像決定装置、画像表示装置、カメラおよび画像表示プログラム
JP2009260583A (ja) 2008-04-16 2009-11-05 Nec Corp 携帯電話機情報視覚化装置、携帯電話機情報視覚化システム及びそれらに用いる携帯電話機情報視覚化方法
CN102422297B (zh) * 2009-05-14 2015-04-08 联想创新有限公司(香港) 信息处理器、外部设备扩展系统及外部设备扩展方法
JP4643735B1 (ja) * 2009-08-31 2011-03-02 株式会社東芝 電子機器及び映像処理方法
US20110169982A1 (en) * 2010-01-13 2011-07-14 Canon Kabushiki Kaisha Image management apparatus, method of controlling the same, and storage medium storing program therefor
JP5533418B2 (ja) * 2010-08-10 2014-06-25 富士通株式会社 情報処理装置および情報処理方法
US20120109715A1 (en) * 2010-10-29 2012-05-03 Peng Wu Visualizing visitation patterns at sites of a commercial facility
JP5641058B2 (ja) * 2010-12-28 2014-12-17 富士通株式会社 プログラム、情報処理装置および方法
JP5585494B2 (ja) * 2011-02-28 2014-09-10 富士通株式会社 画像処理装置、画像処理プログラム及び画像処理方法
JP2013238991A (ja) * 2012-05-14 2013-11-28 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP6071287B2 (ja) * 2012-07-09 2017-02-01 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2014157390A (ja) * 2013-02-14 2014-08-28 Sony Corp 情報処理装置及び記憶媒体
WO2015168306A1 (en) * 2014-04-30 2015-11-05 Eye Stalks Corporation Dba Bay Sensors Methods, systems, and apparatuses for visitor monitoring
US10609267B2 (en) * 2014-07-23 2020-03-31 Orcam Technologies Ltd. Systems and methods for analyzing advertisement effectiveness using wearable camera systems
WO2016119897A1 (en) * 2015-01-30 2016-08-04 Longsand Limited Tracking a person in a physical space
US10242287B2 (en) * 2015-06-11 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
US10080129B2 (en) * 2016-07-25 2018-09-18 Kiana Analytics Inc. Method and apparatus for integrated tracking of visitors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160780A (ja) * 2008-12-09 2010-07-22 Yahoo Japan Corp サイネージと連携する情報処理システム及び方法
WO2016038902A1 (ja) * 2014-09-08 2016-03-17 富士ゼロックス株式会社 行動分析装置、行動分析方法、行動分析プログラム、及び記録媒体
JP2017049750A (ja) * 2015-09-01 2017-03-09 株式会社Jvcケンウッド 情報提供装置、端末装置、情報提供方法、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185477A1 (ja) * 2021-03-04 2022-09-09 日本電気株式会社 特性情報生成装置、システム、方法、及びコンピュータ可読媒体

Also Published As

Publication number Publication date
US10853829B2 (en) 2020-12-01
US20180276696A1 (en) 2018-09-27

Similar Documents

Publication Publication Date Title
CN110175595B (zh) 人体属性识别方法、识别模型训练方法及装置
CN107784282B (zh) 对象属性的识别方法、装置及系统
CN108229314B (zh) 目标人物的搜索方法、装置和电子设备
JP2018163601A (ja) 対応付け方法、情報処理装置及び対応付けプログラム
US11023534B2 (en) Classification method and a classification device for service data
JP6254836B2 (ja) 画像検索装置、画像検索装置の制御方法およびプログラム
CN109740573B (zh) 视频分析方法、装置、设备及服务器
JP5780348B1 (ja) 情報提示プログラム及び情報処理装置
CN105828211A (zh) 基于智能电视的数据处理方法及装置
US20190197695A1 (en) Image processing apparatus, image processing method, and storage medium
US20190213610A1 (en) Evaluation device and evaluation method
US10402888B2 (en) System and method for virtual reality content rating using biometric data
JP2017004431A (ja) 顔認識システム、顔認識サーバ及び顔認識方法
US11335098B2 (en) Data processing methods, apparatuses and storage media
JP6577397B2 (ja) 画像解析装置、画像解析方法、画像解析プログラム、および画像解析システム
CN110503457A (zh) 用户满意度的分析方法及装置、存储介质、计算机设备
CN115393007A (zh) 一种行业分类模型的训练方法及装置
US20180330199A1 (en) Fashion analysis device and fashion analysis method
JP2015162109A (ja) タスク割り当てサーバ、タスク割り当て方法およびプログラム
US10438085B2 (en) Image analysis apparatus, image analysis method, and storage medium
CN110555349A (zh) 一种工作时长统计方法和装置
CN110909817A (zh) 分布式聚类方法及系统、处理器、电子设备及存储介质
US10248853B2 (en) Image output device, image output method, and computer program product
CN110633723B (zh) 图像处理装置和方法及存储介质
CN112580397A (zh) 数据处理方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211214