JP6267350B2 - データ処理装置、データ処理システム、データ処理方法及びプログラム - Google Patents

データ処理装置、データ処理システム、データ処理方法及びプログラム Download PDF

Info

Publication number
JP6267350B2
JP6267350B2 JP2016546579A JP2016546579A JP6267350B2 JP 6267350 B2 JP6267350 B2 JP 6267350B2 JP 2016546579 A JP2016546579 A JP 2016546579A JP 2016546579 A JP2016546579 A JP 2016546579A JP 6267350 B2 JP6267350 B2 JP 6267350B2
Authority
JP
Japan
Prior art keywords
attribute information
estimated
data processing
person
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016546579A
Other languages
English (en)
Other versions
JPWO2016035632A1 (ja
Inventor
一秀 梅田
一秀 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2016035632A1 publication Critical patent/JPWO2016035632A1/ja
Application granted granted Critical
Publication of JP6267350B2 publication Critical patent/JP6267350B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、データ処理装置、データ処理システム、データ処理方法及びプログラムに関する。
特許文献1には、顔画像に対して顔認識を行い、ユーザの性別や年令層を表す属性情報を抽出する情報処理装置が開示されている。
特開2010−282590号公報
特許文献1に開示の技術を用いることで、例えば、あるスポット(店舗、施設等)に来たユーザの分析を行うことができる。しかし、顔画像を用いた顔認識の精度は十分でないため、分析精度が不十分になる。
本願発明は、あるスポットに来たユーザの分析を行うための新たな技術を提供することを課題とする。
本発明によれば、
設置装置から所定の距離以内のエリアに位置し、前記設置装置と通信したユーザ携帯端末各々から、前記設置装置を介さずにユーザの属性情報を取得する属性情報取得手段と、
前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得手段と、
前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理手段と、
同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出手段と、
を有するデータ処理装置が提供される。
また、本発明によれば、
コンピュータが、
設置装置から所定の距離以内のエリアに位置し、前記設置装置と通信したユーザ携帯端末各々から、前記設置装置を介さずにユーザの属性情報を取得する属性情報取得工程と、
前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得工程と、
前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理工程と、
同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出工程と、
を実行するデータ処理方法が提供される。
また、本発明によれば、
コンピュータを、
設置装置から所定の距離以内のエリアに位置し、前記設置装置と通信したユーザ携帯端末各々から、前記設置装置を介さずにユーザの属性情報を取得する属性情報取得手段、
前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得手段、
前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理手段、
同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出手段、
として機能させるためのプログラムが提供される。
本発明によれば、あるスポットに来たユーザの分析を行うための新たな技術が実現される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本実施形態のデータ処理システムの全体像の一例を説明するための図である。 本実施形態のデータ処理装置のハードウエア構成の一例を模式的に示す図である。 本実施形態のデータ処理装置の機能ブロック図の一例を示す図である。 本実施形態の属性情報取得部が取得する属性情報の一例を模式的に示す図である。 本実施形態の画像処理部が生成する推定属性情報の一例を模式的に示す図である。 本実施形態の抽出部により統合された属性情報及び推定属性情報の一例を模式的に示す図である。 本実施形態の画像処理部が生成する推定属性情報の一例を模式的に示す図である。 本実施形態の属性情報取得部が取得する属性情報の一例を模式的に示す図である。 本実施形態の画像処理部が生成する推定属性情報の一例を模式的に示す図である。 本実施形態の属性情報取得部が取得する属性情報の一例を模式的に示す図である。 本実施形態の画像処理部が生成する推定属性情報の一例を模式的に示す図である。 本実施形態の属性情報取得部が取得する属性情報の一例を模式的に示す図である。 本実施形態のデータ処理方法の処理の流れの一例を示すフローチャートである。 本実施形態のデータ処理システムの全体像の一例を説明するための図である。
以下、本発明の実施形態について説明する。本実施形態の各装置及び各端末が備える各部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされたプログラム(あらかじめ装置を出荷する段階からメモリ内に格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムも含む)、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インタフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
以下の実施形態の説明において利用する機能ブロック図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。これらの図においては、各装置及び各端末は1つの機器により実現されるよう記載されているが、その実現手段はこれに限定されない。すなわち、物理的に分かれた構成であっても、論理的に分かれた構成であっても構わない。なお、同一の構成要素には同一の符号を付し、適宜説明を省略する。
まず、図1を用いて、本実施形態のデータ処理システムの全体像について説明する。
本実施形態のデータ処理システムは、データ処理装置10、設置装置20、ユーザ携帯端末30及び撮影装置40の中の少なくとも一つを有する。
設置装置20は、ユーザ情報を収集するスポット(所定の場所)に設置される。このようなスポットとしては、店舗、施設、建物等が考えられ、より詳細には、これらの出入口、スポット内の任意の位置等が考えられる。設置装置20は、通信距離が所定の距離以内である所定の無線通信規格で通信可能に構成され、通信エリア20A内に入ってきたユーザ携帯端末30と無線通信を行う。なお、図1では、1つの設置装置20が示されているが、あるスポットに複数の設置装置20が設置されてもよい。例えば、あるスポットの出入口と、スポットの内部の任意の位置等に複数の設置装置20を設置してもよい。
ユーザ携帯端末30は、各ユーザに携帯される。ユーザ携帯端末30は、上記無線通信規格で無線通信可能に構成されている。ユーザ携帯端末30は、予め、ユーザの属性情報(名称、年令、性別等)を記憶している。そして、ユーザ携帯端末30は、通信エリア20A内に入って設置装置20と無線通信を行うと、それに応じて、上記ユーザの属性情報を無線LAN(Local Area Network)やインターネット等のネットワーク1を介してデータ処理装置10に送信する。
撮影装置40は、通信エリア20A内の少なくとも一部を撮影する。そして、撮影した画像データを有線及び/又は無線での通信により、データ処理装置10に送信する。なお、図1では、データ処理装置10と撮影装置40の通信と、データ処理装置10とユーザ携帯端末30の通信とは、別のネットワークで実現されているが、同じネットワークで実現されてもよい。設置装置20が複数設置される場合、撮影装置40は、複数の設置装置20の通信エリア20A各々に対応して設置され、各通信エリア20A内を撮影する。
データ処理装置10は、ユーザ携帯端末30から収集したユーザの属性情報を蓄積する。また、撮影装置40から取得した撮影画像に対して画像解析を行い、画像内に写っている人物を認識するとともに、認識した人物の属性(年令、性別等)を推定する。以下、画像解析で推定したユーザの属性を「推定属性情報」という。
データ処理装置10は、このように2つの手段で収集したユーザの属性情報(推定属性情報を含む)を用いて、スポットに来たユーザの分析を行う。分析内容は、様々であるが、例えば、以下の例が考えられる。
(1) スポットに来たユーザの属性を分析
例えば、属性情報及び推定属性情報を用いた分析により、スポットに来たユーザの割合、男女比率、年令層等を分析することができる。
なお、上記した顔画像を用いてユーザの推定属性情報を取得する手段、及び、ユーザ携帯端末30からユーザの属性情報を取得する手段、いずれか一方のみでも、ある程度はユーザの属性情報又は推定属性情報を収集し、スポットに来たユーザの属性を分析することができる。しかし、いずれの手段の場合も、その精度が十分でないという問題がある。
顔画像を用いてユーザの推定属性情報を取得する手段の場合、例えば、複数のユーザが重なり合った状態で撮影されるなどの不都合が生じうる。この場合、後方に位置するユーザを人物として認識できず、そのユーザの推定属性情報を収集できないという事態が生じうる。また、ユーザ携帯端末30からユーザの属性情報を取得する手段の場合、ユーザがユーザ携帯端末30を携帯していなかったり、電源をOFFにしている場合等には、ユーザの属性情報を取得できない。ユーザ携帯端末30はユーザの管理下にあるため、ユーザ携帯端末30を携帯するか否か、電源をONにするかOFFにするか等は、ユーザ次第である。このため、このような不都合を改善して、精度を向上させるのは難しい。
これに対し、本実施形態では、顔画像を用いてユーザの推定属性情報を取得する手段、及び、ユーザ携帯端末30からユーザの属性情報を取得する手段の両方で収集したユーザの属性情報及び推定属性情報を用いて、スポットに来たユーザの属性を分析する。この場合、一方の手段で取得できなかったあるユーザの属性情報又は推定属性情報を、他方の手段で取得することにより、精度を向上させることができる。
なお、当該手段の場合、同一ユーザを重複して表す属性情報及び推定属性情報が発生し得る。詳細は後述するが、本実施形態では、このような属性情報及び推定属性情報を抽出し、それらを統合することができる。結果、スポットに来たユーザの属性を分析する際、あるユーザを2人以上のユーザとして重ねてカウントしてしまう等の不都合を解消することができる。
(2)ユーザ携帯端末30を携帯していないユーザを抽出
詳細は後述するが、本実施形態では、ユーザ携帯端末30からユーザの属性情報を取得する手段によっては属性情報を取得されていないが、顔画像を用いてユーザの推定属性情報を取得する手段により推定属性情報を取得されているユーザを抽出することができる。このようなユーザは、ユーザ携帯端末30を携帯していない、又は、電源をOFFにしているユーザであると推定できる。
当該分析により、例えば、スポットに来たユーザの中のユーザ携帯端末30を携帯していないユーザの割合、男女比率、年令層等を分析することができる。また、ユーザ携帯端末30を携帯してスポットに来ることをルール化していた場合や、ユーザ携帯端末30を配布されたユーザのみがスポットに来ることができる場合、このようなルールを破ってスポットに来ているユーザを特定することができる。例えば、推定属性情報を生成する元となった顔画像を各推定属性情報に対応付けておくことで、このようなルールを破ったユーザの推定年令、推定性別のみならず、顔画像をも取得することができる。
(3)顔画像を用いて推定属性情報を取得できなかったユーザを抽出
詳細は後述するが、本実施形態では、顔画像を用いてユーザの推定属性情報を取得する手段によっては推定属性情報を取得されていないが、ユーザ携帯端末30からユーザの属性情報を取得する手段により属性情報を取得されているユーザを抽出することができる。このようなユーザを抽出することで、顔画像を用いた解析による推定属性情報の取得が難しいユーザの割合、男女比率、年令層等を分析することができる。また、抽出した属性情報とともに、当該属性情報が取得されたタイミングの撮影画像を対応付けて蓄積することで、顔画像を用いた推定属性情報の収集に失敗した事例を蓄積することができる。
以下、各装置の構成について説明する。
<設置装置20>
設置装置20は、通信距離が所定の距離以内である所定の無線通信規格で通信可能に構成され、通信エリア20A内に入ってきたユーザ携帯端末30と無線通信を行う。
例えば、検知情報送信部21は、通信距離が所定の距離以内である所定の無線通信規格を用いて、自装置から所定の距離以内の通信エリア(図1の通信エリア20A)内に、定期的に又は間欠的に検知情報を送信する。検知情報には、設置装置20の識別情報が含まれてもよい。そして、当該通信エリア(図1の通信エリア20A)内に位置するユーザ携帯端末30は、当該検知情報を受信することとなる。無線通信規格は、ブルートゥース規格や無線LAN規格等が挙げられるがこれらに限定されない。設置装置20は、例えば、いわゆるビーコン端末や無線LANアクセスポイントであってもよいが、これらに限定されない。
<ユーザ携帯端末30>
ユーザ携帯端末30は、予め、ユーザの属性情報を記憶している。属性情報は、ユーザの名称、ニックネーム、年令、性別、職業、趣味等様々である。
また、ユーザ携帯端末30は、設置装置20と同じ無線通信規格で通信可能に構成されている。そして、ユーザ携帯端末30は、設置装置20の通信エリア20A内に入り、設置装置20と上記無線通信規格で通信を行うと、それに応じて、記憶しているユーザの属性情報をデータ処理装置10に送信する。なお、ユーザ携帯端末30は、ユーザの属性情報に対応付けて、属性情報をデータ処理装置10に送信した送信日時や、設置装置20と通信した日時などの日時情報をデータ処理装置10に送信してもよい。
例えば、ユーザ携帯端末30は、設置装置20の通信エリア20Aに入ると、設置装置20から定期的に又は間欠的に送信されている検知情報を受信する。そして、ユーザ携帯端末30は、当該検知情報の受信に応じて、ユーザの属性情報をデータ処理装置10に送信する。例えば、ユーザ携帯端末30は、検知情報を受信すると、検知情報内の所定の位置にユーザの属性情報を書き込み、それをデータ処理装置10に送信してもよい。
なお、通信エリア20A内にユーザ携帯端末30がいる間、ユーザ携帯端末30は、設置装置20から定期的に又は間欠的に送信される検知情報を受信し続けることとなる。ユーザ携帯端末30は、検知情報を受信すると、その都度、ユーザの属性情報をデータ処理装置10に送信してもよい。または、ユーザ携帯端末30は、設置装置20から所定の時間よりも短い時間間隔で連続的に検知情報を受信した場合、2回目以降の受信時にはユーザの属性報を送信しないように構成してもよい。
ユーザ携帯端末30は、例えば、スマートフォン等の携帯電話、タブレット端末、携帯ゲーム機等の既存の携帯端末に所定のアプリをインストールすることで上記機能を実現したものであってもよい。または、ユーザ携帯端末30は、本実施形態のデータ処理システム専用に準備された端末であってもよい。
<撮影装置40>
撮影装置40は、設置装置20に対応して設置される。そして、撮影装置40は、設置装置20の通信エリア20A内を撮影する。例えば、撮影装置40は動画像を撮影してもよいし、静止画像を定期的に(動画像よりも長い時間間隔で)撮影してもよい。
撮影装置40は、撮影した画像データを、有線及び/又は無線での通信により、データ処理装置10に送信する。なお、撮影装置40は、自装置を識別できる情報をデータ処理装置10に送信し、送信した画像データの送信元を特定できるようにしてもよい。また、撮影装置40は、各画像データ(各フレームデータ)の撮影日時を特定する日時情報をさらに10に送信してもよい。
撮影装置40は、通信エリア20A内に入ったユーザを漏れなく撮影できるのが好ましい。このため、撮影装置40は、例えば通信エリア20A内全体を撮影できるように設置されてもよい。または、通信エリア20Aに入ったユーザが必ず通るポイントがある場合、例えば通信エリア20A内にユーザが必ず通るスポットの出入口が含まれている場合、撮影装置40はこのユーザが必ず通るポイントを撮影するように設定されてもよい。この場合、通信エリア20Aの全体を撮影できなくてもよい。
<データ処理装置10>
図2は、本実施形態のデータ処理装置10のハードウエア構成の一例を概念的に示す図である。図示するように、本実施形態のデータ処理装置10は、例えば、バス10Aで相互に接続されるCPU1A、RAM(Random Access Memory)2A、ROM(Read Only Memory)3A、表示制御部4A、ディスプレイ5A、操作受付部6A、操作部7A、通信部8A、補助記憶装置9A等を有する。なお、図示しないが、その他、外部機器と有線で接続される入出力インタフェイス、マイク、スピーカ等の他の要素を備えてもよい。また、図示する要素の一部を含まなくてもよい。
CPU1Aは各要素とともにデータ処理装置10のコンピュータ全体を制御する。ROM3Aは、コンピュータを動作させるためのプログラムや各種アプリケーションプログラム、それらのプログラムが動作する際に使用する各種設定データなどを記憶する領域を含む。RAM2Aは、プログラムが動作するための作業領域など一時的にデータを記憶する領域を含む。補助記憶装置9Aは、例えばHDD(Hard Disc Drive)であり、大容量のデータを記憶可能である。
タッチパネルディスプレイ5Aは、表示装置(LED(Light Emitting Diode)表示器、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等)と、タッチパッドとが一体になっている。表示制御部4Aは、VRAM(Video RAM)に記憶されたデータを読み出し、読み出したデータに対して所定の処理を施した後、タッチパネルディスプレイ5Aに送って各種画面表示を行う。操作受付部6Aは、操作部7Aを介して各種操作を受付ける。操作部7Aは、操作キー、操作ボタン、スイッチ、ジョグダイヤル、タッチパネルディスプレイ、キーボードなどを含む。通信部8Aは、有線及び/又は無線で、インターネット、LAN等のネットワークに接続し、他の電子機器と通信する。
図3に、データ処理装置10の機能ブロック図の一例を示す。図示するように、データ処理装置10は、属性情報取得部11と、撮影画像取得部12と、画像処理部13と、抽出部14とを有する。
属性情報取得部11は、設置装置20から所定の距離以内のエリア(図1の通信エリア20A)に位置するユーザ携帯端末30各々から、ユーザの属性情報を取得する。すなわち、属性情報取得部11は、上述のようにしてユーザ携帯端末30から送信されたユーザの属性情報を受信する。なお、属性情報取得部11が取得したユーザの属性情報には、取得日時情報が対応付けられてもよい。ここでの取得日時情報は、例えば、ユーザ携帯端末30が属性情報に対応付けた日時情報であってもよいし、又は、属性情報取得部11がユーザ携帯端末30から属性情報を取得した日時を示す情報であってもよい。
図4に、属性情報取得部11が取得し、蓄積した複数の属性情報の一例を模式的に示す。図示する例では、属性情報ID(属ID)と、属性情報と、取得日時情報とが対応付けられている。図4に示す複数の属性情報は、取得日時情報順に並んでいる。当該例によれば、属ID「A0001」の属性情報は、「○○さん、42才、男性」であり、取得日時情報は「2014年7月17日13時17分15秒」であることが分かる。
撮影画像取得部12は、設置装置20から所定の距離以内のエリア(図1の通信エリア20A)内を撮影した撮影画像の画像データを撮影装置40から取得する。すなわち、撮影画像取得部12は、上述のようにして撮影装置40から送信されてきた画像データを取得する。
画像処理部13は、撮影画像取得部12が取得した画像データの撮影画像を解析することにより、撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する。推定属性情報は、例えば、認識した人物の年令及び性別を含んでもよい。また、画像処理部13、認識した人物毎に、撮影画像を解析することにより所定の特徴量を抽出してもよい。特徴量は、各人物の顔から抽出される特徴量であってもよいし、各人物の服装や持ち物から抽出される特徴量(色、形等)であってもよい。
なお、画像処理部13は、あるフレームの撮影画像を解析して新たな所定の人物を認識した後、以降のフレームの解析時にその人物を追跡し、複数のフレームに跨って連続的に写る同一人物の画像データを1つの画像処理単位としてまとめてもよい。そして、当該画像処理単位に対して画像解析を行い、1つの推定属性情報を生成してもよい。なお、同一人物であっても、フレームイン後、一度フレームアウトし、その後再びフレームインした場合、フレームアウト前の撮影画像を1つの画像処理単位とし、フレームアウト後に再びフレームインした後の撮影画像を他の1つの画像処理単位とすることができる。
図5に、画像処理部13により生成される複数の推定属性情報の一例を模式的に示す。図示する例では、推定属性情報ID(推属ID)と、推定属性情報と、特徴量と、取得日時情報とが対応付けられている。図5に示す複数の属性情報は、取得日時順に並んでいる。取得日時情報は、各推定属性情報を生成する元となった上記画像処理単位に含まれる1つまたは複数のフレームの撮影日時の範囲を示す。当該例によれば、推属ID「B0001」の推定属性情報は、「40代、男性」であり、当該人物から抽出した特徴量は、「×××」であり、取得日時情報は「2014年7月17日13時17分14秒〜2014年7月17日13時17分17秒」であることが分かる。
なお、推定属性情報には、さらに、各推定属性情報を生成する元となった画像データが対応付けられてもよい。
抽出部14は、同一人物を重複して表す属性情報及び推定属性情報、属性情報で表されていない人物を表す推定属性情報、及び、推定属性情報で表されていない人物を表す属性情報の中の少なくとも一つを抽出する。
さらに、抽出部14は、互いに異なるタイミングで撮影された複数の撮影画像各々を解析することで生成された複数の推定属性情報の中から、同一人物を重複して表す推定属性情報を抽出してもよい。「異なるタイミングで撮影された複数の撮影画像」とは、上述した画像処理単位が異なる撮影画像であってもよい。例えば、抽出部14は、画像処理部13が抽出した各ユーザの特徴量に基づいて、複数の推定属性情報の中から、同一人物を重複して表す推定属性情報を抽出してもよい。
以下、抽出部14による処理例を説明する。
○ 処理例1(同一人物を重複して表す属性情報及び推定属性情報を抽出)
まず、抽出部14は、処理対象として決定している1つの属性情報と同じタイミングで取得された推定属性情報を抽出する。例えば、取得日時が、処理対象(属性情報)の取得日時を含む推定属性情報を、同じタイミングで取得された推定属性情報として抽出してもよい。または、取得日時の代表日時(推定属性情報の取得日時の中の任意の日時)と処理対象(属性情報)の取得日時との差が所定時間以内である推定属性情報を、同じタイミングで取得された推定属性情報として抽出してもよい。
その後、抽出部14は、抽出した推定属性情報、及び、処理対象(属性情報)の値を利用した所定のアルゴリズムに基づき、抽出した推定属性情報と処理対象(属性情報)の一致度を算出する。そして、算出した一致度に基づいて、処理対象の属性情報と抽出した推定属性情報は同一人物を表すか否かを判断する。例えば、一致度が所定値以上である場合、処理対象の属性情報とその推定属性情報は同一人物を表すと判断してもよい。なお、処理対象の属性情報との一致度が所定値以上である推定属性情報が複数ある場合、抽出部14は、一致度が最も高い推定属性情報と、処理対象の属性情報が同一人物を表すと判断してもよい。
ここで、具体例を説明する。例えば、抽出部14は、図4の属ID「A0001」を処理対象にしたとする。この場合、図5に示す推定属性情報の中から、同じタイミングで取得された推定属性情報として、推属ID「B0001」、「B0002」の属性情報のみが抽出される。
その後、抽出部14は、属ID「A0001」の属性情報と推属ID「B0001」の推定属性情報との一致度、及び、属ID「A0001」の属性情報と推属ID「B0002」の推定属性情報との一致度を算出する。ここでは、性別及び年令層が一致する推属ID「B0001」の推定属性情報の方が、推属ID「B0002」よりも高い一致度が算出される。また、性別及び年令層が一致する推属ID「B0001」の推定属性情報の一致度は、所定値以上となる。そこで、抽出部14は、図4の属ID「A0001」の属性情報と、図5の推属ID「B0001」の属性情報は、同一値人物を表すと判断する。
○処理例2(同一人物を重複して表す属性情報及び推定属性情報を抽出)
まず、抽出部14は、処理対象として決定している1つの推定属性情報と同じタイミングで取得された属性情報を抽出する。例えば、取得日時が、処理対象(推定属性情報)の取得日時に含まれる属性情報を、同じタイミングで取得された属性情報として抽出してもよい。または、処理対象(推定属性情報)の取得日時の代表日時(推定属性情報の取得日時の中の任意の日時)との差が所定時間以内である属性情報を、同じタイミングで取得された属性情報として抽出してもよい。
その後、抽出部14は、処理対象(推定属性情報)及び抽出した属性情報の値を利用した所定のアルゴリズムに基づき、処理対象(推定属性情報)と、抽出した属性情報との一致度を算出する。そして、算出した一致度に基づいて、処理対象の推定属性情報と抽出した属性情報は同一人物を表すか否かを判断する。例えば、一致度が所定値以上である場合、処理対象の推定属性情報とその属性情報は同一人物を表すと判断してもよい。なお、処理対象の推定属性情報との一致度が所定値以上である属性情報が複数ある場合、抽出部14は、一致度が最も高い属性情報と、処理対象の推定属性情報が同一人物を表すと判断してもよい。
ここで、具体例を説明する。例えば、抽出部14は、図5の推属ID「B0001」を処理対象にしたとする。この場合、図4に示す属性情報の中から、同じタイミングで取得された属性情報として、属ID「A0001」、「A0002」の属性情報のみが抽出される。
その後、抽出部14は、推属ID「B0001」の推定属性情報と属ID「A0001」の属性情報との一致度、及び、推属ID「B0001」の推定属性情報と属ID「A0002」の属性情報との一致度を算出する。ここでは、性別及び年令層が一致する属ID「A0001」の属性情報の方が、属ID「A0002」よりも高い一致度が算出される。また、性別及び年令層が一致する属ID「A0001」の属性情報の一致度は、所定値以上となる。そこで、抽出部14は、図5の推属ID「B0001」の推定属性情報と、図4の属ID「A0001」の属性情報は、同一値人物を表すと判断する。
○ 処理例3(属性情報で表されていない人物を表す推定属性情報を抽出)
まず、抽出部14は、処理対象として決定している1つの推定属性情報と同じタイミングで取得された属性情報を、例えば処理例2と同様の手法により抽出する。ここで、属性情報が抽出されなかった場合、抽出部14は、処理対象の推定属性情報を、属性情報で表されていない人物を表す推定属性情報として抽出する。
一方、属性情報が抽出された場合、抽出部14は、処理対象(推定属性情報)及び抽出された属性情報の値を利用した所定のアルゴリズムに基づき、処理対象(推定属性情報)と、抽出した属性情報との一致度を算出する。そして、算出した一致度に基づいて、処理対象(推定属性情報)と抽出した属性情報は同一人物を表すか否かを判断する。そして、処理対象との一致度が所定値以上である属性情報が存在しなかった場合、抽出部14は、処理対象(推定属性情報)を、属性情報で表されていない人物を表す推定属性情報として抽出する。
ここで、具体例を説明する。例えば、抽出部14は、図5の推属ID「B0003」を処理対象にしたとする。この場合、図4に示す属性情報の中から、同じタイミングで取得された属性情報が抽出されない。そこで、抽出部14は、推属ID「B0003」の推定属性情報を、属性情報で表されていない人物を表す推定属性情報として抽出する。
○ 処理例4(推定属性情報で表されていない人物を表す属性情報を抽出)
まず、抽出部14は、処理対象として決定している1つの属性情報と同じタイミングで取得された推定属性情報を、例えば処理例1と同様の手法により抽出する。ここで、推定属性情報が抽出されなかった場合、抽出部14は、処理対象の属性情報を、推定属性情報で表されていない人物を表す属性情報として抽出する。
一方、推定属性情報が抽出された場合、抽出部14は、抽出された推定属性情報及び処理対象(属性情報)の値を利用した所定のアルゴリズムに基づき、処理対象(属性情報)と、抽出した推定属性情報との一致度を算出する。そして、算出した一致度に基づいて、処理対象(属性情報)と抽出した推定属性情報は同一人物を表すか否かを判断する。そして、処理対象との一致度が所定値以上である推定属性情報が存在しなかった場合、抽出部14は、処理対象(属性情報)を、推定属性情報で表されていない人物を表す属性情報として抽出する。
ここで、具体例を説明する。例えば、抽出部14は、図4の属ID「A0003」を処理対象にしたとする。この場合、図5に示す推定属性情報の中から、同じタイミングで取得された推定属性情報が抽出されない。そこで、抽出部14は、属ID「A0003」の属性情報を、推定属性情報で表されていない人物を表す属性情報として抽出する。
○ 処理例5(複数の推定属性情報の中から、同一人物を重複して表す推定属性情報を抽出)
抽出部14は、1つの推定属性情報を処理対象として決定する。その後、抽出部14は、他の推定属性情報を検索対象とし、推定属性情報及び特徴量の値を利用した所定のアルゴリズムに基づき、処理対象の推定属性情報との一致度が所定値以上である推定属性情報を抽出する。そして、抽出部14は、処理対象(推定属性情報)と、抽出した推定属性情報は同一人物を表すと判断する。
ここで、具体例を説明する。例えば、抽出部14は、図5の推属ID「B0026」を処理対象にしたとする。そして、抽出部14は、他の推定属性情報を検索対象として、推定属性情報及び特徴量の値を利用して算出される推属ID「B0026」の推定属性情報との一致度が所定値以上である推定属性情報を検索する。
当該例の場合、抽出部14は、推定属性情報、及び、特徴量の値が一致する推属ID「B0001」の推定属性情報を、処理対象との一致度が所定値以上である推定属性情報、すなわち、同一人物を重複して表す推定属性情報として抽出する。
○ 処理例6(複数の属性情報の中から、同一人物を重複して表す属性情報を抽出)
抽出部14は、1つの属性情報を処理対象として決定する。その後、抽出部14は、他の属性情報を検索対象とし、属性情報の値が一致する属性情報を抽出する。そして、抽出部14は、処理対象(属性情報)と、抽出した属性情報は同一人物を表すと判断する。
ここで、具体例を説明する。例えば、抽出部14は、図4の属ID「A0027」を処理対象にしたとする。そして、抽出部14は、他の属性情報を検索対象として、属ID「A0026」の属性情報の値と一致する属性情報を検索する。
当該例の場合、抽出部14は、属性情報の値が一致する属ID「A0001」の属性情報を、同一人物を重複して表す属性情報として抽出する。
○ 処理例7(処理例1乃至6で抽出した推定属性情報及び属性情報の整理)
処理例1乃至6の一部または全部を利用することで、属性情報取得部11が取得した属性情報、及び、画像処理部13が生成した推定属性情報を、例えば、図6に示すようにまとめることができる。図6に示す例では、同一人物を重複して表す属性情報及び推定属性情報、同一人物を重複して表す複数の推定属性情報、及び、同一人物を重複して表す複数の属性情報を統合し、1つのユーザIDにまとめている。結果、同一人物に対応して2つ以上のユーザIDが重ねて存在する不都合を軽減している。
図示する例では、ユーザIDと、属性情報ID(属ID)と、推定属性情報ID(推属ID)と、属性情報又は推定属性情報と、特徴量とが対応付けられている。なお、その他、撮影画像、属性情報及び/又は推定属性情報の取得日時等が対応付けられてもよい。
図示する例の場合、ユーザID「00001」では、属ID「A0001」、「A0027」の属性情報と、推属ID「B0001」、「B0026」の推定属性情報とが統合されたものであることが分かる。なお、図示する例の場合、属性情報及び推定属性情報の欄には、精度が高いと考えられる属性情報を優先的に記載してある。すなわち、属性情報及び推定属性情報の両方が存在する場合には、属性情報を記載している。そして、属性情報のみが存在する場合には属性情報を記載し、推定属性情報のみが存在する場合には推定属性情報を記載している。なお、属性情報及び推定属性情報の両方が存在する場合には、推定属性情報を記載してもよいし、両方を記載してもよい。
○処理例8(同一人物を重複して表す属性情報及び推定属性情報を抽出)
ある撮影画像で認識された2人の人物の推定属性情報がほぼ一致し、かつ、このタイミングで推定属性情報と同様な内容の2つの属性情報が取得される場合がある。例えば、図7示すように、推定属性情報が一致し、取得日時が重なる2つの推定属性情報を取得したとする。そして、図8に示すように、このタイミングで同様な内容の2つの属性情報を取得したとする。当該情報だけでは、いずれの推定属性情報といずれの属性情報が同一人物を表しているのか判断できない。
しかし、図8の属ID「B0061」の属性情報で特定される「××さん」は、図6を参照すれば、他のタイミングで取得された属性情報が他のタイミングで取得された推定属性情報と統合され、特徴量「○×○」が対応付けられている。この情報に基づき、「××さん」の特徴量は、「○×○」であることが分かる。抽出部14は、当該情報に基づき、推属ID「B0058」と属ID「B0061」が同一人物を重複して表す属性情報及び推定属性情報であることを特定することができる。そして、残った推属ID「B0059」と属ID「B0062」が同一人物を重複して表す属性情報及び推定属性情報であると判断できる。
このように、他のタイミング(処理対象の推定属性情報及び属性情報より前であってもよいし、後であってもよい)で取得された属性情報と推定属性情報との対応付け(統合)の結果に基づいて、同一人物を重複して表す属性情報及び推定属性情報を抽出することができる。
○処理例9(同一人物を重複して表す属性情報及び推定属性情報を抽出)
ある撮影画像で認識された2人の人物の推定属性情報がほぼ一致し、かつ、このタイミングで推定属性情報と同様な内容の1つの属性情報を取得する場合がある。例えば、図9に示すように、推定属性情報が一致し、取得日時が重なる2つの推定属性情報を取得したとする。そして、図10に示すように、このタイミングで同様な内容の1つの属性情報を取得したとする。当該情報だけでは、いずれの推定属性情報といずれの属性情報が同一人物を表しているのか判断できない。
しかし、図6を参照すれば、図9の推属ID「B0072」に対応する特徴量と一致する特徴量が対応付いているユーザIDが既に存在する。そして、このユーザIDの属IDの欄が空であることに基づけば、このユーザIDに対応する推定属性情報は、属性情報で表されていない人物を表す推定属性情報であることが分かる。この情報に基づき、抽出部14は、推属ID「B0072」の推定属性情報は、属性情報で表されていない人物を表す推定属性情報であると特定できる。そして、残った推属ID「B0073」と属ID「A0076」が同一人物を重複して表す属性情報及び推定属性情報であると判断できる。
このように、他のタイミング(処理対象の推定属性情報及び属性情報より前であってもよいし、後であってもよい)で取得された属性情報と推定属性情報との対応付けの結果に基づいて、同一人物を重複して表す属性情報及び推定属性情報を抽出することができる。
○処理例10(同一人物を重複して表す属性情報及び推定属性情報を抽出)
ある撮影画像で3人以上の人物が認識され、3つの推定属性情報が生成される場合がある。そして、このタイミングで1つの属性情報を取得する場合がある。例えば、図11示すように、取得日時が重なる3つの推定属性情報を取得したとする。そして、図12に示すように、このタイミングで1つの属性情報を取得したとする。
この場合、抽出部14は、まず、属性情報及び推定属性情報の一致度により、推属ID「B0093」と属ID「A0101」は同一人物を表していないと判断できる。
次いで、図6を参照すれば、図11の推属ID「B0092」に対応する特徴量と一致する特徴量が対応付いているユーザIDが既に存在する。そして、このユーザIDの属IDの欄が空であることに基づけば、このユーザIDに対応する推定属性情報は、属性情報で表されていない人物を表す推定属性情報であることが分かる。この情報に基づき、抽出部14は、推属ID「B0092」の推定属性情報は、属性情報で表されていない人物を表す推定属性情報であると特定できる。そして、残った推属ID「B0094」と属ID「A0101」が同一人物を重複して表す属性情報及び推定属性情報であると判断できる。
このように、他のタイミング(処理対象の推定属性情報及び属性情報より前であってもよいし、後であってもよい)で取得された属性情報と推定属性情報との対応付けの結果に基づいて、同一人物を重複して表す属性情報及び推定属性情報を抽出することができる。
次に、図13のフローチャートを用いて、本実施形態のデータ処理方法の処理の流れの一例を説明する。なお、当該処理の流れはあくまで一例であり、これに限定されない。ここでは、属性情報取得部11が取得した属性情報(図4参照)、及び、画像処理部13が生成した推定属性情報(図5参照)を統合し、統合済データ(図6参照)を生成する処理につて説明する。
まず、抽出部14は、1つの属性情報又は推定属性情報を取得し、処理対象とする(S10)。
例えば、属性情報取得部11はユーザ携帯端末30から取得した属性情報を、リアルタイム処理で順次、抽出部14に入力してもよい。また、撮影画像取得部12はリアルタイム処理で撮影装置40から画像データを取得してもよい。そして、画像処理部13はリアルタイム処理で当該画像データを解析して推定属性情報を生成し、抽出部14に入力してもよい。抽出部14は、このように属性情報取得部11及び画像処理部13から入力される属性情報及び推定属性情報を、入力順に処理対象とし、リアルタイム処理で処理してもよい。
その他の例として、抽出部14は、属性情報取得部11がユーザ携帯端末30から取得した複数の属性情報、及び、画像処理部13が生成した複数の推定属性情報を、バッチ処理してもよい。この場合、抽出部14は、属性情報及び推定属性情報の群の中から、取得日時順に処理対象を決定してもよい。
その後、抽出部14は、処理対象と、統合済データとを用い、上記処理例1乃至10に基づいて、統合処理を行う(S11)。なお、統合処理の処理フローは特段制限されず、様々な態様を採用し得る。そして、以降、同様の処理を繰り返す(S12)。
ここで、図14を用いて、本実施形態の変形例について説明する。当該変形例のデータ処理システムでは、ユーザ携帯端末30がユーザの属性情報を含む検知情報を通信エリア30A内に送信し、当該通信エリア30A内に位置する設置装置20が当該検知情報を受信する。そして、検知情報を受信した設置装置20は、当該受信に応じて、ユーザの属性情報をデータ処理装置10に送信する。当該変形例のデータ処理システムは、当該点で、上記例と異なる。その他の構成は、上記例と同様である。当該例の場合、ユーザ携帯端末30は、設置装置20を介して(経由して)、ユーザの属性情報をデータ処理装置10に送信することとなる。
当該変形例のユーザ携帯端末30は、本実施形態のデータ処理システム専用に準備された端末、例えばビーコン端末であってもよい。設置装置20とデータ処理装置10間は、有線及び/又は無線で通信される。
次に、本実施形態の作用効果について説明する。
本実施形態によれば、顔画像を用いてユーザの推定属性情報を取得する手段、及び、ユーザ携帯端末30からユーザの属性情報を取得する手段の両方で、ユーザの属性情報(推定属性情報を含む)を収集することができる。そして、このようにして収集した情報を用いて、所定の分析を行うことができる。例えば、所定のスポットに来たユーザの属性を分析したり、所定のスポットに来たユーザにおいて、ユーザ携帯端末30を携帯していないユーザを抽出し、その属性を分析したり、顔画像を用いて推定属性情報を取得できなかったユーザを抽出し、その属性を分析したり、そのデータを蓄積したりできる。
結果、いずれか一方の手段でユーザの属性情報(推定属性情報を含む)を取得し、分析する場合に比べて、分析の精度を向上させることができる。また、分析できる内容の幅を広げることができる。
以下、参考形態の例を付記する。
1. 設置装置から所定の距離以内のエリアに位置するユーザ携帯端末各々から、ユーザの属性情報を取得する属性情報取得手段と、
前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得手段と、
前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理手段と、
同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出手段と、
を有するデータ処理装置。
2. 1に記載のデータ処理装置において、
前記抽出手段は、互いに異なるタイミングで撮影された複数の前記撮影画像各々を解析することで生成された複数の前記推定属性情報の中から、同一人物を重複して表す前記推定属性情報をさらに抽出するデータ処理装置。
3. 2に記載のデータ処理装置において、
前記画像処理手段は、前記撮影画像の解析により認識した人物毎に、前記撮影画像を解析することにより特徴量を抽出し、
前記抽出手段は、前記特徴量に基づいて、複数の前記推定属性情報の中から、同一人物を重複して表す前記推定属性情報を抽出するデータ処理装置。
4. 所定の場所に設置され、通信距離が所定の距離以内である所定の無線通信規格で通信可能である設置装置と、
ユーザに携帯され、前記無線通信規格で通信可能であり、前記設置装置から前記所定の距離以内のエリアに入ると、前記無線通信規格で前記設置装置と通信するユーザ携帯端末と、
前記エリア内を撮影する撮影装置と、
1から3のいずれかに記載のデータ処理装置と、
を有するデータ処理システム。
5. 4に記載のデータ処理システムにおいて、
前記ユーザ携帯端末は、前記設置装置と前記無線通信規格で通信すると、当該通信に応じて、自端末に予め記憶されているユーザの属性情報を前記データ処理装置に送信するデータ処理システム。
6. 5に記載のデータ処理システムにおいて、
前記ユーザ携帯端末は、前記設置装置を介して、前記属性情報を前記データ処理装置に送信するデータ処理システム。
7. コンピュータが、
設置装置から所定の距離以内のエリアに位置するユーザ携帯端末各々から、ユーザの属性情報を取得する属性情報取得工程と、
前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得工程と、
前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理工程と、
同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出工程と、
を実行するデータ処理方法。
7−2. 7に記載のデータ処理方法において、
前記抽出工程では、互いに異なるタイミングで撮影された複数の前記撮影画像各々を解析することで生成された複数の前記推定属性情報の中から、同一人物を重複して表す前記推定属性情報をさらに抽出するデータ処理方法。
7−3. 7−2に記載のデータ処理方法において、
前記画像処理工程では、前記撮影画像の解析により認識した人物毎に、前記撮影画像を解析することにより特徴量を抽出し、
前記抽出工程では、前記特徴量に基づいて、複数の前記推定属性情報の中から、同一人物を重複して表す前記推定属性情報を抽出するデータ処理方法。
8. コンピュータを、
設置装置から所定の距離以内のエリアに位置するユーザ携帯端末各々から、ユーザの属性情報を取得する属性情報取得手段、
前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得手段、
前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理手段、
同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出手段、
として機能させるためのプログラム。
8−2. 8に記載のプログラムにおいて、
前記抽出手段に、互いに異なるタイミングで撮影された複数の前記撮影画像各々を解析することで生成された複数の前記推定属性情報の中から、同一人物を重複して表す前記推定属性情報をさらに抽出させるプログラム。
8−3. 8−2に記載のプログラムにおいて、
前記画像処理手段に、前記撮影画像の解析により認識した人物毎に、前記撮影画像を解析することにより特徴量を抽出させ、
前記抽出手段に、前記特徴量に基づいて、複数の前記推定属性情報の中から、同一人物を重複して表す前記推定属性情報を抽出させるプログラム。
この出願は、2014年9月2日に出願された日本出願特願2014−177858号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (9)

  1. 設置装置から所定の距離以内のエリアに位置し、前記設置装置と通信したユーザ携帯端末各々から、前記設置装置を介さずにユーザの属性情報を取得する属性情報取得手段と、
    前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得手段と、
    前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理手段と、
    同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出手段と、
    を有するデータ処理装置。
  2. 請求項1に記載のデータ処理装置において、
    前記抽出手段は、互いに異なるタイミングで撮影された複数の前記撮影画像各々を解析することで生成された複数の前記推定属性情報の中から、同一人物を重複して表す前記推定属性情報をさらに抽出するデータ処理装置。
  3. 請求項2に記載のデータ処理装置において、
    前記画像処理手段は、前記撮影画像の解析により認識した人物毎に、前記撮影画像を解析することにより特徴量を抽出し、
    前記抽出手段は、前記特徴量に基づいて、複数の前記推定属性情報の中から、同一人物を重複して表す前記推定属性情報を抽出するデータ処理装置。
  4. 所定の場所に設置され、通信距離が所定の距離以内である所定の無線通信規格で通信可能である設置装置と、
    ユーザに携帯され、前記無線通信規格で通信可能であり、前記設置装置から前記所定の距離以内のエリアに入ると、前記無線通信規格で前記設置装置と通信するユーザ携帯端末と、
    前記エリア内を撮影する撮影装置と、
    請求項1から3のいずれか1項に記載のデータ処理装置と、
    を有し、
    前記ユーザ携帯端末は、前記設置装置と前記無線通信規格で通信すると、当該通信に応じて、自端末に予め記憶されているユーザの属性情報を前記設置装置を介さずに前記データ処理装置に送信するデータ処理システム。
  5. 請求項4に記載のデータ処理システムにおいて、
    前記ユーザ携帯端末は、前記設置装置と前記無線通信規格で通信すると、当該通信に応じて、自端末に予め記憶されているユーザの属性情報を前記データ処理装置に送信するデータ処理システム。
  6. 請求項5に記載のデータ処理システムにおいて、
    前記ユーザ携帯端末は、前記設置装置を介して、前記属性情報を前記データ処理装置に送信するデータ処理システム。
  7. 請求項4から6のいずれか1項に記載のデータ処理システムにおいて、
    前記ユーザ携帯端末は、前記設置装置から送信された検知情報を受信すると、それに応じて前記属性情報を前記データ処理装置に送信し、所定の時間よりも短い時間間隔で連続的に前記検知情報を受信した場合、2回目の受信時には前記属性情報を送信しないデータ処理システム。
  8. コンピュータが、
    設置装置から所定の距離以内のエリアに位置し、前記設置装置と通信したユーザ携帯端末各々から、前記設置装置を介さずにユーザの属性情報を取得する属性情報取得工程と、
    前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得工程と、
    前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理工程と、
    同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出工程と、
    を実行するデータ処理方法。
  9. コンピュータを、
    設置装置から所定の距離以内のエリアに位置し、前記設置装置と通信したユーザ携帯端末各々から、前記設置装置を介さずにユーザの属性情報を取得する属性情報取得手段、
    前記エリア内を撮影した撮影画像の画像データを取得する撮影画像取得手段、
    前記撮影画像を解析することにより、前記撮影画像に写っている人物を認識するとともに、認識した人物毎に属性情報を推定して推定属性情報を生成する画像処理手段、
    同一人物を重複して表す前記属性情報及び前記推定属性情報、前記属性情報で表されていない人物を表す前記推定属性情報、及び、前記推定属性情報で表されていない人物を表す前記属性情報の中の少なくとも一つを抽出する抽出手段、
    として機能させるためのプログラム。
JP2016546579A 2014-09-02 2015-08-26 データ処理装置、データ処理システム、データ処理方法及びプログラム Active JP6267350B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014177858 2014-09-02
JP2014177858 2014-09-02
PCT/JP2015/073955 WO2016035632A1 (ja) 2014-09-02 2015-08-26 データ処理装置、データ処理システム、データ処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2016035632A1 JPWO2016035632A1 (ja) 2017-04-27
JP6267350B2 true JP6267350B2 (ja) 2018-01-24

Family

ID=55439697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016546579A Active JP6267350B2 (ja) 2014-09-02 2015-08-26 データ処理装置、データ処理システム、データ処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6267350B2 (ja)
WO (1) WO2016035632A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7377971B2 (ja) 2020-05-22 2023-11-10 富士フイルム株式会社 画像データ処理装置及び画像データ処理システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102342A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 自動計数装置
JP5193215B2 (ja) * 2007-09-28 2013-05-08 Necソフト株式会社 集計システム、集計装置、及び集計方法
JP2010140287A (ja) * 2008-12-12 2010-06-24 Nomura Research Institute Ltd 購買行動分析装置、方法及びコンピュータプログラム
JP2011018300A (ja) * 2009-06-08 2011-01-27 Jr East Mechatronics Co Ltd ゲートシステム、サーバ及びゲートシステムにおける紐付け方法
JP2012113557A (ja) * 2010-11-25 2012-06-14 Nomura Research Institute Ltd 自動改札機および情報処理システム
JP5652273B2 (ja) * 2011-03-15 2015-01-14 オムロン株式会社 ゲート装置

Also Published As

Publication number Publication date
WO2016035632A1 (ja) 2016-03-10
JPWO2016035632A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6814673B2 (ja) 移動経路予測装置、及び移動経路予測方法
JP5730518B2 (ja) 特定人物検知システムおよび特定人物検知方法
WO2018198373A1 (ja) 映像監視システム
JP7405200B2 (ja) 人物検出システム
JP6573311B2 (ja) 顔認識システム、顔認識サーバ及び顔認識方法
JP2015072578A (ja) 人物特定装置、人物特定方法及びプログラム
JP2017220085A (ja) 画像検索装置、画像検索システム及び画像検索方法
JP7238902B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5699802B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2019049786A (ja) 人識別システム及び人識別方法
US20190147251A1 (en) Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium
US10984249B2 (en) Information processing apparatus, system, control method for information processing apparatus, and non-transitory computer readable storage medium
JP2024045460A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP6267350B2 (ja) データ処理装置、データ処理システム、データ処理方法及びプログラム
US10219127B2 (en) Information processing apparatus and information processing method
JP6702402B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2014215747A (ja) 追跡装置、追跡システム、及び、追跡方法
US9076031B2 (en) Image capture apparatus, control method of image capture apparatus, and recording medium
JP2008134868A (ja) 画像認識装置、電子機器、画像認識方法、および、制御プログラム
JP2010170212A (ja) 行動推定装置および方法
JP2018074317A (ja) 人物特定支援装置
JP7102859B2 (ja) ビデオ会議システム、ビデオ会議方法、およびプログラム
JP6112346B2 (ja) 情報収集システム、プログラムおよび情報収集方法
US20160088261A1 (en) System and a method for specifying an image capturing unit, and a non-transitory computer readable medium thereof
JP2010161732A (ja) 人物監視装置、人物監視方法、及び、人物監視システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171128

R150 Certificate of patent or registration of utility model

Ref document number: 6267350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150