JP2021002105A - 情報処理装置及び組合せ特定方法 - Google Patents

情報処理装置及び組合せ特定方法 Download PDF

Info

Publication number
JP2021002105A
JP2021002105A JP2019114262A JP2019114262A JP2021002105A JP 2021002105 A JP2021002105 A JP 2021002105A JP 2019114262 A JP2019114262 A JP 2019114262A JP 2019114262 A JP2019114262 A JP 2019114262A JP 2021002105 A JP2021002105 A JP 2021002105A
Authority
JP
Japan
Prior art keywords
image group
distance
objects
object image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019114262A
Other languages
English (en)
Other versions
JP7083788B2 (ja
Inventor
有哉 巻渕
Yuya Makibuchi
有哉 巻渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019114262A priority Critical patent/JP7083788B2/ja
Publication of JP2021002105A publication Critical patent/JP2021002105A/ja
Application granted granted Critical
Publication of JP7083788B2 publication Critical patent/JP7083788B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】オブジェクトの向きに関係なく同一のオブジェクトを特定する。【解決手段】情報処理装置1は、第1の所定エリアを通過する第1オブジェクトを含む複数の画像である第1オブジェクト画像群を、複数の第1オブジェクトのそれぞれに対して取得するとともに、第2の所定エリアを通過する第2オブジェクトを含む複数の画像である第2オブジェクト画像群を、複数の第2オブジェクトのそれぞれに対して取得する画像群取得部122と、複数の第1オブジェクト画像群に含まれる複数の画像と、複数の第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の第1オブジェクトのそれぞれに対する複数の第2オブジェクトの特徴量の距離であるオブジェクト間距離を特定する距離特定部123と、特定されたオブジェクト間距離の和が相対的に小さい第1オブジェクトと第2オブジェクトとの複数の組合せを特定する組合せ特定部124と、を備える。【選択図】図2

Description

本発明は、第1の所定エリアを通過するオブジェクトと第2の所定エリアを通過するオブジェクトとの組合せを特定する情報処理装置及び組合せ特定方法に関する。
従来、異なるタイミングで撮像された画像に含まれる人物等のオブジェクトが、同一のオブジェクトであるか否かを判定することが行われている。例えば、特許文献1には、オブジェクトとしての顧客の入店時に顧客の正面方向を撮像するとともに、顧客の退店時に顧客の正面方向を撮像し、入店時の複数の顔画像と退店時の複数の顔画像とのうち、類似度が所定の閾値以上となる二つの顔画像を同一人物と判断する技術が開示されている。
特許第6241666号公報
ところで、特許文献1に開示されている技術は、入店時と退店時とでオブジェクトの正面方向を撮影することを前提としている。このため、入口と出口とが共通の場合、オブジェクトの正面方向を撮像するために撮像装置を少なくとも2台設置する必要があり、コストが増加するという問題がある。そこで、オブジェクトの向きに関わらず精度良く同一のオブジェクトを特定できるようにすることが求められている。
そこで、本発明はこれらの点に鑑みてなされたものであり、オブジェクトの向きに関わらず精度良く同一のオブジェクトを特定することができる情報処理装置及び組合せ特定方法を提供することを目的とする。
本発明の第1の態様に係る情報処理装置は、第1の所定エリアを通過する第1オブジェクトを含む複数の画像である第1オブジェクト画像群を、複数の前記第1オブジェクトのそれぞれに対して取得するとともに、前記第1オブジェクトが前記第1の所定エリアを通過する時よりも後に第2の所定エリアを通過する第2オブジェクトを含む複数の画像である第2オブジェクト画像群を、複数の前記第2オブジェクトのそれぞれに対して取得する画像群取得部と、前記画像群取得部が複数の前記第1オブジェクトのそれぞれに対して取得した複数の前記第1オブジェクト画像群に含まれる複数の画像と、複数の前記第2オブジェクトのそれぞれに対して取得した複数の前記第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の前記第1オブジェクトのそれぞれに対する複数の前記第2オブジェクトの特徴量の距離であるオブジェクト間距離を特定する距離特定部と、前記距離特定部が特定した前記オブジェクト間距離の和が相対的に小さい前記第1オブジェクトと前記第2オブジェクトとの複数の組合せを特定する組合せ特定部と、を備える。
前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、前記第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの距離に基づいて、当該第1オブジェクト画像群に対応する前記第1オブジェクトと、当該第2オブジェクト画像群に対応する前記第2オブジェクトとの前記オブジェクト間距離を特定してもよい。
前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、前記第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの距離のうち、相対的に小さい距離に基づいて、前記オブジェクト間距離を特定してもよい。
前記情報処理装置は、前記第1オブジェクト画像群に含まれる複数の画像のそれぞれに対応する前記第1オブジェクトの向きを示す第1向き情報を特定するとともに、前記第2オブジェクト画像群に含まれる複数の画像のそれぞれに対応する前記第2オブジェクトの向きを示す第2向き情報を特定するオブジェクト向き特定部を備え、前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像に対応する前記第1向き情報のそれぞれと、前記第2オブジェクト画像群に含まれる複数の画像に対応する前記第2向き情報のそれぞれとの関係にさらに基づいて、前記オブジェクト間距離を特定してもよい。
前記距離特定部は、前記第1向き情報が示す向きと、前記第2向き情報が示す向きとが相対的に近い向きである前記第1オブジェクト画像群に含まれる複数の画像と、前記第2オブジェクト画像群に含まれる複数の画像との組合せのみに基づいて、前記オブジェクト間距離を特定してもよい。
前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像のそれぞれに対応する前記第1向き情報と、前記第2オブジェクト画像群に含まれる複数の画像のそれぞれに対応する前記第2向き情報との近さの少なくともいずれかが所定の近さを有している場合のみ、当該第1オブジェクト画像群に含まれる複数の画像と、当該第2オブジェクト画像群に含まれる複数の画像とに基づいて前記特徴量を特定してもよい。
前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、前記第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの距離に、前記第1向き情報が示す向きと、前記第2向き情報が示す向きとの近さに基づく重み付けを行い、重み付けされた複数の距離の統計値に基づいて前記オブジェクト間距離を特定してもよい。
前記第1オブジェクト画像群に含まれている画像及び前記第2オブジェクト画像群に含まれている画像には、当該画像の撮像時刻が関連付けられており、前記距離特定部は、前記第2オブジェクト画像群に含まれている画像の撮像時刻が、前記第1オブジェクト画像群に含まれている画像の撮像時刻よりも後のものである場合のみ、当該第1オブジェクト画像群に含まれる複数の画像と、当該第2オブジェクト画像群に含まれる複数の画像とに基づいて前記オブジェクト間距離を特定してもよい。
前記組合せ特定部は、前記距離特定部が特定した複数の前記第1オブジェクトのそれぞれに対する複数の前記第2オブジェクトの前記オブジェクト間距離を要素として含む距離行列を構成し、当該距離行列に対してハンガリアン法を用いることにより、前記オブジェクト間距離の和が相対的に小さくなる前記第1オブジェクトと前記第2オブジェクトとの複数の組合せを特定してもよい。
前記組合せ特定部は、前記オブジェクト間距離が特定されていない前記第1オブジェクトと前記第2オブジェクトとの組合せが存在する場合、当該組合せに対応する前記距離行列の要素に、所定距離以上の距離を設定してもよい。
前記第1オブジェクト画像群に含まれている画像及び前記第2オブジェクト画像群に含まれている画像には、当該画像の撮像時刻が関連付けられており、前記情報処理装置は、前記組合せ特定部が特定した組合せのそれぞれについて、当該組合せを構成する前記第1オブジェクトに対応する前記第1オブジェクト画像群に含まれている画像に関連付けられている撮像時刻のいずれかと、当該組合せを構成する前記第2オブジェクトに対応する前記第2オブジェクト画像群に含まれている画像に関連付けられている撮像時刻のいずれかとに基づいて当該組合せに対応するオブジェクトが前記第1の所定エリアを通過してから前記第2の所定エリアを通過するまでの通過時間を特定する通過時間特定部をさらに備えてもよい。
前記通過時間特定部は、前記組合せ特定部が特定した組合せのうち、所定の値よりも小さいオブジェクト間距離を有する組合せのみ、前記通過時間を特定してもよい。
前記情報処理装置は、前記第1の所定エリアを撮像する撮像装置が第1の時刻に撮像した第1の動画像と、当該第1の動画像に基づいて特定された前記第1オブジェクトの位置を示す第1の位置情報とを関連付けた第1動線情報と、前記第2の所定エリアを撮像する撮像装置が前記第1の時刻とは異なる第2の時刻に撮像した第2の動画像と、当該第2の動画像に基づいて特定された前記第2オブジェクトの位置を示す第2の位置情報とを関連付けた第2動線情報とを取得する動線情報取得部を備え、前記画像群取得部は、前記第1動線情報に含まれる前記第1の動画像に基づいて前記第1オブジェクト画像群を取得するとともに、前記第2動線情報に含まれる前記第2の動画像に基づいて前記第2オブジェクト画像群を取得してもよい。
前記画像群取得部は、前記第1動線情報に含まれる前記第1の動画像に基づいてそれぞれ異なる位置に対応する複数の画像を含む前記第1オブジェクト画像群を取得するとともに、前記第2動線情報に含まれる前記第2の動画像に基づいてそれぞれ異なる位置に対応する複数の画像を含む前記第2オブジェクト画像群を取得してもよい。
本発明の第2の態様に係る組合せ特定方法は、コンピュータが実行する、第1の所定エリアを通過する第1オブジェクトを含む複数の画像である第1オブジェクト画像群を、複数の前記第1オブジェクトのそれぞれに対して取得するとともに、前記第1オブジェクトが前記第1の所定エリアを通過する時よりも後に第2の所定エリアを通過する第2オブジェクトを含む複数の画像である第2オブジェクト画像群を、複数の前記第2オブジェクトのそれぞれに対して取得するステップと、複数の前記第1オブジェクトのそれぞれに対して取得された複数の前記第1オブジェクト画像群に含まれる複数の画像と、複数の前記第2オブジェクトのそれぞれに対して取得された複数の前記第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の前記第1オブジェクトのそれぞれに対する複数の前記第2オブジェクトの特徴量の距離であるオブジェクト間距離を特定するステップと、特定された前記オブジェクト間距離の和が相対的に小さい前記第1オブジェクトと前記第2オブジェクトとの複数の組合せを特定するステップと、を備える。
本発明によれば、オブジェクトの向きに関わらず精度良く同一のオブジェクトを特定することができるという効果を奏する。
第1実施形態に係る情報処理装置の概要を示す図である。 第1実施形態に係る情報処理装置の構成を示す図である。 第1実施形態に係る動線情報に対応する動線の一例を示す図である。 第1実施形態に係る第1オブジェクト画像群の取得方法を説明するための図である。 第1実施形態に係るオブジェクト画像群に含まれるオブジェクトの画像の一例を示す図である。 第1実施形態に係る情報処理装置がオブジェクト間距離を特定する例を示す図である。 第1実施形態に係る距離行列の例を示す図である。 第1実施形態に係る情報処理装置における処理の流れを示す図である。 第2実施形態に係る情報処理装置の構成を示す図である。 第2実施形態に係るオブジェクトの向きを特定する例を示す図である。 第2実施形態に係る情報処理装置がオブジェクト間距離を特定する例を示す図である。
<第1実施形態>
[情報処理装置1の概要]
図1は、第1実施形態に係る情報処理装置1の概要を示す図である。本実施形態に係る情報処理装置1は、所定エリアを通過する複数の第1オブジェクトと、第1オブジェクトが通過した後に当該所定エリアを通過する複数の第2オブジェクトとについて、同一のオブジェクトを示す第1オブジェクトと第2オブジェクトとの組合せを特定するコンピュータである。
本実施形態において、所定エリアは、例えば店舗の内部における出入口を含む出入口エリアEである。ここで、店舗における出入口は1つであるものとする。また、オブジェクトは、店舗に来店する顧客である。また、出入口エリアEを含む店舗の天井には、真下方向を撮像することにより、出入口エリアEを含む撮像エリアAを撮像する撮像装置としての1台の全方位カメラが設置されている。全方位カメラは、撮像エリアAを撮像することにより、出入口エリアEを通過するオブジェクトを撮像する。
なお、本実施形態では、所定エリアは出入口エリアEであり、1台の全方位カメラにより、出入口エリアEを通過するオブジェクトを撮像することとしたが、これに限らない。例えば、所定エリアは、第1の所定エリアと、第2の所定エリアとに分かれ、それぞれのエリアに対応して撮像装置が設置されていてもよい。この場合、第1の所定エリアは、例えば店舗の入口を含む入口領域であり、第2の所定エリアは、例えば、店舗の入口とは異なる店舗の出口を含む出口領域である。第1の所定エリアを通過したオブジェクトは、その後、第2の所定エリアを必ず通過するものとする。また、本実施形態では、撮像装置として全方位カメラを用いることとしたが、これに限らない。撮像装置は、例えば、一般的なカメラ等、全方位カメラとは異なるカメラであってもよい。
本実施形態において、情報処理装置1は、撮像装置が撮像した動画像と、動画像におけるオブジェクトの位置を示す位置情報とを関連付けた動線情報を取得する(図1の(1))。情報処理装置1は、取得した動線情報に基づいて、出入口エリアEを通過する一つのオブジェクトを含む複数の画像であるオブジェクト画像群を、複数のオブジェクトのそれぞれに対して取得する(図1の(2))。オブジェクト画像群には、出入口エリアEを通過して店舗内に侵入するオブジェクトである第1オブジェクトを含む複数の画像である第1オブジェクト画像群と、出入口エリアEを通過して店舗内から退出する複数の第2オブジェクトを含む複数の画像である第2オブジェクト画像群とが存在する。
図1において、撮像エリアAに示されるFV1、FV2は、第1オブジェクトの動線を示しており、TE1、TE2は、第2オブジェクトの動線を示している。また、各動線に示される複数の×印は、撮像装置が撮像した撮像画像におけるオブジェクトの位置を示している。例えば、情報処理装置1は、動線FV1に対して、第1オブジェクトの画像を4つ含む第1オブジェクト画像群を取得し、動線FV2に対して、第1オブジェクトの画像を3つ含む第1オブジェクト画像群を取得する。
情報処理装置1は、複数の第1オブジェクト画像群に含まれる複数の画像と、複数の第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の第1オブジェクトのそれぞれに対する複数の第2オブジェクトの特徴量の距離であるオブジェクト間距離を特定する(図1の(3))。ここで、情報処理装置1は、オブジェクト画像群に含まれる複数の画像同士の距離に基づいてオブジェクト間距離を特定する。第1のオブジェクト画像群に含まれる複数の画像と、第2のオブジェクト画像群に含まれる複数の画像とには、一つの第1のオブジェクト画像と、一つの第2のオブジェクト画像とを比較する場合に比べて、同じ向きのオブジェクトが含まれている可能性が高い。したがって、情報処理装置1は、オブジェクト画像群に含まれる複数の画像同士の距離に基づいてオブジェクト間距離を特定することにより、オブジェクト間距離を精度良く特定することができる。
情報処理装置1は、特定したオブジェクト間距離の和が相対的に小さくなる第1オブジェクトと第2オブジェクトとの複数の組合せを特定する(図1の(4))。このようにすることで、情報処理装置1は、オブジェクトの向きに関わらず精度良く同一のオブジェクトを特定することができる。
[情報処理装置1の構成]
続いて、情報処理装置1の構成を説明する。図2は、第1実施形態に係る情報処理装置1の構成を示す図である。図2に示すように、情報処理装置1は、記憶部11と、制御部12とを備える。
記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、情報処理装置1を、動線情報取得部121、画像群取得部122、距離特定部123、組合せ特定部124、及び通過時間特定部125として機能させるプログラムを記憶している。
制御部12は、例えばCPU(Central Processing Unit)である。制御部12は、記憶部11に記憶されたプログラムを実行することにより、動線情報取得部121、画像群取得部122、距離特定部123、組合せ特定部124、及び通過時間特定部125として機能する。
動線情報取得部121は、動画像と、当該動画像において特定されたオブジェクトの位置を示す位置情報とを関連付けた動線情報を取得する。例えば、動線情報取得部121は、動画像に基づいて動線情報を生成する装置から、撮像エリアAの動画像に対応する動線情報を取得する。
図3は、第1実施形態に係る動線情報に対応する動線の一例を示す図である。図3において、FV1、FV2、TE1、TE2は、動線を示している。図3において、動線の終端の矢印は、オブジェクトが動線に沿って移動する方向を示しており、動線に示される×印は、撮像時刻を示している。図3に示すように、動線には、動画像の開始時におけるオブジェクトの位置が出入口エリアEの内部の位置である動線としての第1動線FV1、FV2と、動画像の開始時におけるオブジェクトの位置が出入口エリアEの外部の位置である動線としての第2動線TE1、TE2とが含まれている。以下の説明において、第1動線FV1、FV2を示す動線情報を第1動線情報、第2動線TE1、TE2を示す動線情報を第2動線情報という。
第1動線情報は、出入口エリアEを含む撮像エリアAを撮像する撮像装置が第1の時刻に撮像した第1の動画像と、当該第1の動画像に基づいて特定された第1オブジェクトの位置を示す第1の位置情報とを関連付けた動線情報である。ここで、第1の時刻は、例えば動画像の開始時刻である。
第2動線情報は、出入口エリアEを撮像する撮像装置が第1の時刻とは異なる第2の時刻に撮像した第2の動画像と、当該第2の動画像に基づいて特定された第2オブジェクトの位置を示す第2の位置情報とを関連付けた動線情報である。ここで、第2の時刻は、例えば動画像の終了時刻である。
また、動画像には、複数の画像が含まれており、複数の画像のそれぞれに対して、画像に含まれるオブジェクトの位置を示す位置情報と、画像の撮像時刻とが関連付けられている。オブジェクトの位置を示す位置情報は、例えば、オブジェクトの中心位置を示す座標情報と、オブジェクトを囲む矩形の横方向及び縦方向の大きさ(w,h)と、基準となる座標系における当該矩形の回転角aとを含む。
なお、本実施形態において、動線情報取得部121は、動線情報を生成する装置から動線情報を取得するものとするが、これに限らない。例えば、動線情報取得部121は、予め記憶部に記憶されている動線情報を取得したり、撮像装置から取得した動画像に基づいて動線情報を生成したりしてもよい。この場合、動線情報取得部121は、まず、動画像に含まれる複数の画像のそれぞれを解析することにより、複数の画像のそれぞれに含まれるオブジェクトを特定するとともに、当該オブジェクトの位置を特定する。そして、動線情報取得部121は、動画像に含まれる複数の画像の撮像時刻と、当該画像において特定されたオブジェクトの位置を示す位置情報とを関連付けた動線情報を生成する。
ここで、動線情報取得部121は、動線情報に含まれる動画像から、一以上の画像を間引いてもよい。例えば、動線情報に含まれる動画像から、一定時間毎に画像を抽出することにより一以上の画像を間引いたり、オブジェクトの位置が連続して同じ位置を示している複数の画像のうちの一部の画像を間引いたりしてもよい。このようにすることで、情報処理装置1は、動線情報取得部121よりも後段における処理時間を短縮することができる。
画像群取得部122は、出入口エリアEを通過する第1オブジェクトを含む複数の画像である第1オブジェクト画像群を、複数の第1オブジェクトのそれぞれに対して取得する。画像群取得部122は、動線情報取得部121が取得した第1動線情報に含まれる第1の動画像に基づいて、第1オブジェクト画像群を取得する。
図4は、第1実施形態に係る第1オブジェクト画像群の取得方法を説明するための図である。具体的には、画像群取得部122は、第1の動画像に含まれる複数の画像のそれぞれについて、当該画像に関連付けられているオブジェクトの位置を示す位置情報に基づいて、図4に示されるようにオブジェクトを囲む矩形領域と、当該矩形領域の回転角とを特定する。そして、画像群取得部122は、第1の動画像に含まれる複数の画像のそれぞれから、矩形領域の画像を抽出するとともに、特定した矩形領域の回転角に基づいて、基準となる座標系において矩形の回転角(0時方向を0度とする)が0度となるように、矩形領域を回転させることにより、第1オブジェクト画像群を取得する。このようにすることで、情報処理装置1は、第1オブジェクト画像群が示す第1オブジェクトの回転角度を一定にして、オブジェクトを直立状態に統一することができる。
また、画像群取得部122は、第1オブジェクトが出入口エリアEを通過する時よりも後に当該出入口エリアEを通過する第2オブジェクトを含む複数の画像である第2オブジェクト画像群を、複数の第2オブジェクトのそれぞれに対して取得する。画像群取得部122は、第1の動画像から第1オブジェクト画像群を取得する方法と同様の方法を用いて、動線情報取得部121が取得した第2動線情報に含まれる第2の動画像に基づいて第2オブジェクト画像群を取得する。
ここで、オブジェクト画像群に含まれるオブジェクトは、直立状態に統一されるものの、オブジェクトが写る向きについては統一されない。図5は、第1実施形態に係るオブジェクト画像群に含まれるオブジェクトの画像の一例を示す図である。図5では、オブジェクトが画像に写る向きが、正面、背面、左側面、及び右側面等のように統一されていないことが確認できる。
なお、画像群取得部122は、第1動線情報に含まれる第1の動画像に基づいてそれぞれ異なる位置に対応する複数の画像を含む第1オブジェクト画像群を取得するとともに、第2動線情報に含まれる第2の動画像に基づいてそれぞれ異なる位置に対応する複数の画像を含む第2オブジェクト画像群を取得するようにしてもよい。動線情報に含まれる、同じ位置に対応する複数のオブジェクトの画像は、同様の画像であることが多い。これに対し、画像群取得部122は、異なる位置に対応する複数の画像を含むオブジェクト画像群を取得し、同様の画像が含まれないようにするので、同様の画像が含まれることによって処理負荷が増加することを抑制することができる。
距離特定部123は、画像群取得部122が複数の第1オブジェクトのそれぞれに対して取得した複数の第1オブジェクト画像群に含まれる複数の画像と、複数の第2オブジェクトのそれぞれに対して取得した複数の第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の第1オブジェクトのそれぞれに対する複数の第2オブジェクトの特徴量の距離であるオブジェクト間距離を特定する。
具体的には、まず、距離特定部123は、第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとを特定する。ここで、特徴量は、例えば、複数次元の特徴ベクトルである。例えば、距離特定部123は、オブジェクト画像群に含まれる画像から特徴量を特定するために、ResNet50等の深層学習モデルを用いてもよい。
続いて、距離特定部123は、第1オブジェクト画像群に含まれる画像の特徴量と、第2オブジェクト画像群に含まれる画像の特徴量との距離を特定する。例えば、距離特定部123は、ユークリッド距離やコサイン距離等の関数を用いて画像の特徴量の距離を特定する。以下の説明において、第1オブジェクト画像群に含まれる画像の特徴量と、第2オブジェクト画像群に含まれる画像の特徴量との距離を画像間距離ともいう。
続いて、距離特定部123は、特定した画像間距離に基づいて、当該第1オブジェクト画像群に対応する第1オブジェクトと、当該第2オブジェクト画像群に対応する第2オブジェクトとのオブジェクト間距離を特定する。
例えば、距離特定部123は、オブジェクト間距離を特定する場合に、第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの画像間距離のうち、相対的に小さい距離に基づいて、オブジェクト間距離を特定する。
図6は、第1実施形態に係る情報処理装置1がオブジェクト間距離を特定する例を示す図である。図6は、第1オブジェクト画像群ISV1に対応する第1オブジェクトと、第2オブジェクト画像群ISE1に対応する第2オブジェクトとのオブジェクト間距離を特定する例を示している。
図6に示されるように、第1オブジェクト画像群ISV1には、4つの第1オブジェクトの画像が含まれており、第2オブジェクト画像群ISE1には、5つの第2オブジェクトの画像が含まれている。このため、第1オブジェクトの画像と第2オブジェクトの画像との組合せは、20通り存在する。
二つの画像に写るオブジェクトが同一のオブジェクトであっても、画像に写るオブジェクトの向きが異なる場合は、画像間距離が大きくなる傾向にある。このため、画像に写るオブジェクトの向きが異なっている場合に、第1オブジェクトの画像と第2オブジェクトの画像との全ての組合せに対応する画像間距離を用いてオブジェクト間距離を特定すると、当該オブジェクト間距離と、異なるオブジェクトが写る場合におけるオブジェクト間距離との差が小さくなる場合がある。
そこで、距離特定部123は、第1オブジェクトの画像と第2オブジェクトの画像との全ての組合せについて、画像間距離を算出した後、全ての組合せの画像間距離のうち、最小の画像間距離をオブジェクト間距離として特定する。図6に示す例では、第1オブジェクト画像群ISV1に含まれる正面を向いている第1オブジェクトの画像と、第2オブジェクト画像群ISE1に含まれる正面を向いている第2オブジェクトの画像との画像間距離が最小であり、当該最小の画像間距離がオブジェクト間距離として特定される。このようにすることで、画像に写るオブジェクトの向きが類似している画像間で算出された画像間距離がオブジェクト間距離に選択されやすくなり、後段の処理で正しく同一人物をマッチングすることが可能となる。
なお、オブジェクトの組合せを特定するにあたり、第1オブジェクトが出入口エリアEを通過する時刻は、第2オブジェクトが出入口エリアEを通過する時刻よりも前の時刻とすべきである。したがって、距離特定部123は、第2オブジェクト画像群に含まれている画像の撮像時刻(例えば、第2時刻)が、第1オブジェクト画像群に含まれている画像の撮像時刻(例えば、第1時刻)よりも後のものである場合のみ、当該第1オブジェクト画像群に含まれる複数の画像と、当該第2オブジェクト画像群に含まれる複数の画像とに基づいてオブジェクト間距離を特定するようにしてもよい。このようにすることで、後述する組合せ特定部124において、異なるオブジェクトを示す第1オブジェクトと第2オブジェクトとが、同一のオブジェクトを示す第1オブジェクトと第2オブジェクトとの組合せとして特定されることを抑制することができる。
また、距離特定部123は、オブジェクト画像群に含まれる複数の画像の特徴量を特定し、特定した複数の画像の特徴量に基づいて画像間距離を算出したが、これに限らない。例えば、距離特定部123は、シャムネットワーク(Siamese Network)等の深層学習モデルを用いて、特徴量計算を行うことなく、二つの画像間の画像間距離を一つのネットワークで判定してもよい。
組合せ特定部124は、距離特定部123が特定したオブジェクト間距離の和が相対的に小さい第1オブジェクトと第2オブジェクトとの複数の組合せを特定する。具体的には、組合せ特定部124は、距離特定部123が特定した複数の第1オブジェクトのそれぞれに対する複数の第2オブジェクトのオブジェクト間距離を要素として含む距離行列を構成し、当該距離行列に対してハンガリアン法を用いることにより、オブジェクト間距離の和が相対的に小さくなる第1オブジェクトと第2オブジェクトとの複数の組合せを特定する。
図7は、第1実施形態に係る距離行列の例を示す図である。図7は、図3に示す第1動線FV1、FV2に対応する第1オブジェクト画像群ISV1、ISV2と、第2動線TE1、TE2に対応する第2オブジェクト画像群ISE1、ISE2とに基づいて構成した2×2の距離行列を示している。距離行列におけるd11、d12、d21、d22は、それぞれ、距離特定部123が特定したオブジェクト間距離を示している。例えば、d11は、第1オブジェクト画像群ISV1に対応する第1オブジェクトと、第2オブジェクト画像群ISE2に対応する第2オブジェクトとのオブジェクト間距離である。組合せ特定部124は、当該距離行列に対してハンガリアン法を用いることにより、オブジェクト間距離の総和が最小となる組合せを特定する。
図7に示す例では、ハンガリアン法によりd11及びd22が特定されたものとする。この場合、組合せ特定部124は、第1オブジェクトと第2オブジェクトとの複数の組合せとして、第1オブジェクト画像群ISV1に対応する第1オブジェクトと、第2オブジェクト画像群ISE1に対応する第2オブジェクトとの組合せ、及び第1オブジェクト画像群ISV2に対応する第1オブジェクトと、第2オブジェクト画像群ISE2に対応する第2オブジェクトとの組合せとを特定する。
なお、上述したように、第1オブジェクト画像群及び第2オブジェクト画像群に含まれている画像の撮像時刻の前後関係によっては、距離特定部123によりオブジェクト間距離が特定されない第1オブジェクト画像群と、第2オブジェクト画像群との組合せが存在することがある。そこで、組合せ特定部124は、オブジェクト間距離が特定されていない第1オブジェクトと第2オブジェクトとの組合せが存在する場合、当該組合せに対応する距離行列の要素に、所定距離以上の距離を設定するようにしてもよい。例えば、所定距離は、オブジェクト間距離が取り得る範囲の上限値を上回る値である。このようにすることで、情報処理装置1は、距離行列に含まれる各要素の値を確定させ、当該距離行列にハンガリアン法を適用することができると共に、ハンガリアン法により特定した組合せに対応するオブジェクト間距離が所定値を上回る場合に通過時間を特定しないように制御することができる。
通過時間特定部125は、組合せ特定部124が特定した組合せに対応するオブジェクトが出入口エリアEを通過してから、出入口エリアEを再び通過するまでの通過時間を特定することにより、当該オブジェクトの店舗における滞在時間を特定する。
具体的には、通過時間特定部125は、組合せ特定部124が特定した組合せのそれぞれについて、当該組合せを構成する第1オブジェクトに対応する第1オブジェクト画像群に含まれている画像に関連付けられている撮像時刻のいずれかと、当該組合せを構成する第2オブジェクトに対応する第2オブジェクト画像群に含まれている画像に関連付けられている撮像時刻のいずれかとに基づいて当該組合せに対応するオブジェクトが出入口エリアEを通過してから出入口エリアEを再び通過するまでの通過時間を特定する。
図7に示す、第1オブジェクト画像群ISV1に対応する第1オブジェクトと、第2オブジェクト画像群ISE1に対応する第2オブジェクトとの組合せが特定された場合について説明する。この場合、通過時間特定部125は、第1オブジェクト画像群ISV1に対応する第1時刻としての動画像の開始時刻から、第2オブジェクト画像群ISE1に対応する第2時刻としての動画像の終了時刻までの時間を特定することにより、当該オブジェクトが出入口エリアEを通過してから出入口エリアEを再び通過するまでの通過時間、すなわち、オブジェクトの店舗における滞在時間を特定する。例えば、オブジェクトとしての顧客の来店時刻と、滞在時間との相関を分析することにより、来店時間帯別の顧客の滞在時間の傾向を把握することができる。
なお、通過時間特定部125は、組合せ特定部124が特定した組合せのうち、所定の値よりも小さいオブジェクト間距離を有する組合せのみ、通過時間を特定してもよい。このようにすることで、情報処理装置1は、オブジェクト間距離が大きく、同一のオブジェクトである蓋然性が低いオブジェクトの組合せについては通過時間を特定しないようにすることができる。これにより、情報処理装置1は、通過時間の特定に関する再現率(Recall)が低下するものの、適合率(Precision)を向上させることができる。
[情報処理装置1における処理の流れ]
続いて、情報処理装置1における処理の流れについて説明する。図8は、第1実施形態に係る情報処理装置1における処理の流れを示すフローチャートである。
まず、動線情報取得部121は、第1動線情報及び第2動線情報を取得する(S1)。
続いて、画像群取得部122は、S1において取得された第1動線情報に基づいて複数の第1オブジェクトのそれぞれに対応する複数の第1オブジェクト画像群を取得するとともに、第2動線情報に基づいて複数の第2オブジェクトのそれぞれに対応する複数の第2オブジェクト画像群を取得する(S2)。
続いて、距離特定部123は、複数の第1オブジェクトのそれぞれに対して取得した第1オブジェクト画像群に含まれる複数の画像と、複数の第2オブジェクトのそれぞれに対して取得した複数の第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の第1オブジェクトのそれぞれに対する複数の第2オブジェクトのオブジェクト間距離を特定する(S3)。
続いて、組合せ特定部124は、S3において特定されたオブジェクト間距離に基づいて、第1オブジェクトと第2オブジェクトとの複数の組合せを特定する(S4)。
続いて、通過時間特定部125は、S4において特定された複数の組合せのそれぞれに対して、オブジェクトが出入口エリアEを通過してから出入口エリアEを再び通過するまでの通過時間を特定する(S5)。
[第1実施形態における効果]
以上説明したように、第1実施形態に係る情報処理装置1は、第1の所定エリアを通過する第1オブジェクトを含む複数の画像である第1オブジェクト画像群を、複数の第1オブジェクトのそれぞれに対して取得するとともに、第1オブジェクトが第1の所定エリアを通過する時よりも後に第2の所定エリアを通過する第2オブジェクトを含む複数の画像である第2オブジェクト画像群を、複数の第2オブジェクトのそれぞれに対して取得する。情報処理装置1は、複数の第1オブジェクト画像群に含まれる複数の画像と、複数の第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の第1オブジェクトのそれぞれに対する複数の第2オブジェクトの特徴量の距離であるオブジェクト間距離を特定し、当該オブジェクト間距離の和が相対的に小さい第1オブジェクトと第2オブジェクトとの複数の組合せを特定する。このようにすることで、情報処理装置1は、オブジェクトの向きに関わらず精度良く同一のオブジェクトを特定することができる。
<第2実施形態>
[画像に写るオブジェクトの向きを考慮してオブジェクト間距離を特定する]
続いて、第2実施形態について説明する。第2実施形態に係る情報処理装置1は、画像に写るオブジェクトの向きを特定し、特定したオブジェクトの向きを考慮してオブジェクト間距離を特定する点で第1実施形態と異なる。以下、第2実施形態に係る情報処理装置1について説明する。なお、第1実施形態と同じ部分については適宜説明を省略する。
図9は、第2実施形態に係る情報処理装置1の構成を示す図である。図9に示すように、第2実施形態に係る情報処理装置1は、オブジェクト向き特定部126をさらに備える。
オブジェクト向き特定部126は、第1オブジェクト画像群に含まれる複数の画像のそれぞれに対応する第1オブジェクトの向きを示す第1向き情報を特定するとともに、第2オブジェクト画像群に含まれる複数の画像のそれぞれに対応する第2オブジェクトの向きを示す第2向き情報を特定する。
例えば、オブジェクト向き特定部126は、ResNet50等の深層学習モデルを用いてオブジェクト画像の向きを特定する。ここで、第1向き情報及び第2向き情報は、例えばオブジェクトの向きを示す2次元ベクトルであってもよく、正面、背面、右側面及び左側面のように量子化された4クラスの向きラベルであってもよい。
また、オブジェクト向き特定部126は、動線情報に基づいてオブジェクトの移動方向を特定し、当該移動方向に基づいて画像に写るオブジェクトの向きを特定してもよい。図10は、第2実施形態に係るオブジェクトの向きを特定する例を示す図である。図10は、真下方向を撮像するように天井に設置された撮像装置の撮像エリアAを示している。また、図10の撮像エリアAに示される矢印は、動線情報に基づくオブジェクトの移動方向を示している。
オブジェクト向き特定部126は、図10に示すように、オブジェクトの移動方向が画像中心に近づく方向の場合、オブジェクトの向きを正面と判定する。また、オブジェクト向き特定部126は、オブジェクトの移動方向が画像中心から離れる方向の場合、オブジェクトの向きを背面と判定し、画像内で時計回りに移動している場合、オブジェクトの向きを右側面と判定し、画像内で反時計回りに移動している場合、オブジェクトの向きを左側面と判定する。
距離特定部123は、第1オブジェクト画像群に含まれる複数の画像に対応する第1向き情報のそれぞれと、第2オブジェクト画像群に含まれる複数の画像に対応する第2向き情報のそれぞれとの関係にさらに基づいて、オブジェクト間距離を特定する。例えば、距離特定部123は、第1オブジェクトの画像と第2オブジェクトの画像との全ての組合せのそれぞれについて、第1オブジェクトと第2オブジェクトとの向きの距離と、特徴量との距離に基づいて、以下の式(1)に示すように画像間距離を算出する。
画像間距離=α・向きの距離+β・特徴量の距離・・・(1)
ここで、αは第1の重み係数、βは第2の重み係数である。また、向きの距離は、第1向き情報及び第2向き情報がベクトルによって定義される場合、ベクトル間の成す角度である。また、第1向き情報及び第2向き情報が4クラスの向きを示すラベル(正面、背面、右側面及び左側面)によって定義される場合、距離特定部123は、二つの画像のラベルが同一であるときには向きの距離をゼロとし、異なるときには向きの距離を無限大としてもよい。
そして、距離特定部123は、以下の式(2)に示すように、第1オブジェクトの画像と第2オブジェクトの画像との全ての組合せの画像間距離のうち、最小の画像間距離に基づいてオブジェクト間距離を特定する。
オブジェクト間距離=min(画像間距離の集合)・・・(2)
また、距離特定部123は、第1向き情報が示す向きと、第2向き情報が示す向きとが相対的に近い向きである第1オブジェクト画像群に含まれる複数の画像と、前記第2オブジェクト画像群に含まれる複数の画像との組合せのみに基づいて、オブジェクト間距離を特定してもよい。
具体的には、距離特定部123は、第1オブジェクト画像群に含まれる複数の画像のそれぞれに対応する第1向き情報と、第2オブジェクト画像群に含まれる複数の画像のそれぞれに対応する第2向き情報との近さの少なくともいずれかが所定の近さを有している場合のみ、当該第1オブジェクト画像群に含まれる複数の画像と、当該第2オブジェクト画像群に含まれる複数の画像とに基づいて特徴量を特定する。
例えば、距離特定部123は、第1オブジェクト画像群に含まれる一つの画像に対応する第1向き情報と、第2オブジェクト画像群に含まれる一つの画像に対応する第2向き情報との向き距離が所定の閾値以下である場合に、これらの二つの画像の特徴量の距離を特定して、画像間距離を特定する。距離特定部123は、所定の閾値よりも大きい向き距離を有する二つの画像については、特徴量の距離の特定を省略し、画像間距離の特定を省略する。
そして、距離特定部123は、特定した画像間距離のみに基づいて、第1オブジェクト画像群に対応する第1オブジェクトと、第2オブジェクト画像群に対応する第2オブジェクトとのオブジェクト間距離を特定する。
図11は、第2実施形態に係る情報処理装置1がオブジェクト間距離を特定する例を示す図である。図11に示される第1オブジェクト画像群ISV1及び第2オブジェクト画像群ISE1は、図6に示される第1オブジェクト画像群ISV1及び第2オブジェクト画像群ISE1と同じであるものとする。図6に示す例では、20通りの全てについて画像間距離を計算する必要がある一方で、第2実施形態に係る距離特定部123は、第1向き情報及び第2向き情報を用いることにより、図11に示すように5通りの画像間距離のみを特定する。類似した向きのオブジェクト画像間の画像間距離が最小値として選択されやすい傾向にあることから、向き距離が大きい二つの画像は選択されない確率が高い。したがって、向き距離が大きい二つの画像について画像間距離を特定しないようにしても、最終的なマッチングの精度を低下させるおそれが少ない。
なお、距離特定部123は、第1オブジェクトの画像と第2オブジェクトの画像との組合せについて、画像間距離を算出した後、これらの組合せの画像間距離のうち、最小の画像間距離をオブジェクト間距離として特定するが、最小の画像間距離のみを用いるのではなく、複数の画像間距離を用いるようにしてもよい。
この場合、距離特定部123は、第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの距離としての画像間距離に、第1向き情報が示す向きと、第2向き情報が示す向きとの近さに基づく重み付けを行い、重み付けされた複数の画像間距離の統計値に基づいてオブジェクト間距離を特定する。例えば、距離特定部123は、第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの画像間距離に、第1向き情報と第2向き情報とに対応する向き距離に基づく重み係数を用いて、重み付けを行う。例えば、距離特定部123は、向き距離が小さければ小さいほど、画像間距離が小さくなるように画像間距離の重み付けを行う。
距離特定部123は、以下の式(3)に示すように、向き距離の総和で正規化した向き距離を重み係数とする。
重み係数=向き距離/Σ(各画像間距離に対応する向き距離)・・・(3)
距離特定部123は、式(3)に示す重み係数を用いて、以下の式(4)に示すように、一以上の画像間距離の加重平均を算出し、当該加重平均をオブジェクト間距離として特定する。
オブジェクト間距離=Σ(重み係数・画像間距離)・・・(4)
画像間距離の最小値を用いてオブジェクト間距離を特定する場合、第1オブジェクト画像群と第2オブジェクト画像群とのそれぞれに含まれる画像の組合せにおいて、異なる人物同士にも関わらず偶然的に小さい画像間距離が算出される組合せが一つでも含まれていると、当該画像間距離に基づいて同一人物として判定されてしまうおそれがある。これに対して、距離特定部123は、向き距離に基づく重み係数を用いた加重平均を用いることで、向きが類似した画像間の画像間距離の信頼度を高め、向きが離れた画像間距離の信頼度を下げることができる。これにより、情報処理装置1は、オブジェクト間距離の特定精度を高めることが可能となる。
また、距離特定部123は、第1オブジェクト画像群に含まれる複数の画像のうち、向き距離が所定の閾値以下となる第2オブジェクト画像群に含まれる画像が一つ以上存在する画像についてのみ、画像の特徴量を特定するようにしてもよい。同様に、第2オブジェクト画像群に含まれる複数の画像のうち、向き距離が所定の閾値以下となる第1オブジェクト画像群に含まれる画像が一つ以上存在する画像についてのみ、画像の特徴量を特定するようにしてもよい。このようにすることで、特徴量を比較する対象である全ての画像のそれぞれとの向き距離が所定の閾値以下とならない画像については特徴量を特定する処理が省略されるので、処理負荷を軽減することができる。例えば、図11に示される第2オブジェクト画像群ISE1に含まれる画像のうち、一番上に示される画像は、第1オブジェクト画像群ISV1に含まれる全ての画像のそれぞれとの向き距離が所定の閾値よりも大きいため、距離特定部123は、当該画像の特徴量を特定しなくてもよい。
[第2実施形態における効果]
以上説明したように、第1実施形態に係る情報処理装置1は、第1オブジェクト画像群に含まれる複数の画像のそれぞれに対応する第1向き情報を特定するとともに、第2オブジェクト画像群に含まれる複数の画像のそれぞれに対応する第2向き情報を特定する。そして、情報処理装置1は、第1オブジェクト画像群に含まれる複数の画像に対応する第1向き情報のそれぞれと、第2オブジェクト画像群に含まれる複数の画像に対応する第2向き情報のそれぞれとの関係にさらに基づいて、オブジェクト間距離を特定する。このようにすることで、情報処理装置1は、第1オブジェクトと、第2オブジェクトとの組合せの精度を向上することができるとともに、処理負荷を適宜軽減することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組合せによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組合せによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1・・・情報処理装置、11・・・記憶部、12・・・制御部、121・・・動線情報取得部、122・・・画像群取得部、123・・・距離特定部、124・・・組合せ特定部、125・・・通過時間特定部、126・・・オブジェクト向き特定部

Claims (15)

  1. 第1の所定エリアを通過する第1オブジェクトを含む複数の画像である第1オブジェクト画像群を、複数の前記第1オブジェクトのそれぞれに対して取得するとともに、前記第1オブジェクトが前記第1の所定エリアを通過する時よりも後に第2の所定エリアを通過する第2オブジェクトを含む複数の画像である第2オブジェクト画像群を、複数の前記第2オブジェクトのそれぞれに対して取得する画像群取得部と、
    前記画像群取得部が複数の前記第1オブジェクトのそれぞれに対して取得した複数の前記第1オブジェクト画像群に含まれる複数の画像と、複数の前記第2オブジェクトのそれぞれに対して取得した複数の前記第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の前記第1オブジェクトのそれぞれに対する複数の前記第2オブジェクトの特徴量の距離であるオブジェクト間距離を特定する距離特定部と、
    前記距離特定部が特定した前記オブジェクト間距離の和が相対的に小さい前記第1オブジェクトと前記第2オブジェクトとの複数の組合せを特定する組合せ特定部と、
    を備える情報処理装置。
  2. 前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、前記第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの距離に基づいて、当該第1オブジェクト画像群に対応する前記第1オブジェクトと、当該第2オブジェクト画像群に対応する前記第2オブジェクトとの前記オブジェクト間距離を特定する、
    請求項1に記載の情報処理装置。
  3. 前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、前記第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの距離のうち、相対的に小さい距離に基づいて、前記オブジェクト間距離を特定する、
    請求項2に記載の情報処理装置。
  4. 前記第1オブジェクト画像群に含まれる複数の画像のそれぞれに対応する前記第1オブジェクトの向きを示す第1向き情報を特定するとともに、前記第2オブジェクト画像群に含まれる複数の画像のそれぞれに対応する前記第2オブジェクトの向きを示す第2向き情報を特定するオブジェクト向き特定部を備え、
    前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像に対応する前記第1向き情報のそれぞれと、前記第2オブジェクト画像群に含まれる複数の画像に対応する前記第2向き情報のそれぞれとの関係にさらに基づいて、前記オブジェクト間距離を特定する、
    請求項2又は3に記載の情報処理装置。
  5. 前記距離特定部は、前記第1向き情報が示す向きと、前記第2向き情報が示す向きとが相対的に近い向きである前記第1オブジェクト画像群に含まれる複数の画像と、前記第2オブジェクト画像群に含まれる複数の画像との組合せのみに基づいて、前記オブジェクト間距離を特定する、
    請求項4に記載の情報処理装置。
  6. 前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像のそれぞれに対応する前記第1向き情報と、前記第2オブジェクト画像群に含まれる複数の画像のそれぞれに対応する前記第2向き情報との近さの少なくともいずれかが所定の近さを有している場合のみ、当該第1オブジェクト画像群に含まれる複数の画像と、当該第2オブジェクト画像群に含まれる複数の画像とに基づいて前記特徴量を特定する、
    請求項4又は5に記載の情報処理装置。
  7. 前記距離特定部は、前記第1オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれと、前記第2オブジェクト画像群に含まれる複数の画像の特徴量のそれぞれとの距離に、前記第1向き情報が示す向きと、前記第2向き情報が示す向きとの近さに基づく重み付けを行い、重み付けされた複数の距離の統計値に基づいて前記オブジェクト間距離を特定する、
    請求項4から6のいずれか1項に記載の情報処理装置。
  8. 前記第1オブジェクト画像群に含まれている画像及び前記第2オブジェクト画像群に含まれている画像には、当該画像の撮像時刻が関連付けられており、
    前記距離特定部は、前記第2オブジェクト画像群に含まれている画像の撮像時刻が、前記第1オブジェクト画像群に含まれている画像の撮像時刻よりも後のものである場合のみ、当該第1オブジェクト画像群に含まれる複数の画像と、当該第2オブジェクト画像群に含まれる複数の画像とに基づいて前記オブジェクト間距離を特定する、
    請求項2から7のいずれか1項に記載の情報処理装置。
  9. 前記組合せ特定部は、前記距離特定部が特定した複数の前記第1オブジェクトのそれぞれに対する複数の前記第2オブジェクトの前記オブジェクト間距離を要素として含む距離行列を構成し、当該距離行列に対してハンガリアン法を用いることにより、前記オブジェクト間距離の和が相対的に小さくなる前記第1オブジェクトと前記第2オブジェクトとの複数の組合せを特定する、
    請求項1から8のいずれか1項に記載の情報処理装置。
  10. 前記組合せ特定部は、前記オブジェクト間距離が特定されていない前記第1オブジェクトと前記第2オブジェクトとの組合せが存在する場合、当該組合せに対応する前記距離行列の要素に、所定距離以上の距離を設定する、
    請求項9に記載の情報処理装置。
  11. 前記第1オブジェクト画像群に含まれている画像及び前記第2オブジェクト画像群に含まれている画像には、当該画像の撮像時刻が関連付けられており、
    前記組合せ特定部が特定した組合せのそれぞれについて、当該組合せを構成する前記第1オブジェクトに対応する前記第1オブジェクト画像群に含まれている画像に関連付けられている撮像時刻のいずれかと、当該組合せを構成する前記第2オブジェクトに対応する前記第2オブジェクト画像群に含まれている画像に関連付けられている撮像時刻のいずれかとに基づいて当該組合せに対応するオブジェクトが前記第1の所定エリアを通過してから前記第2の所定エリアを通過するまでの通過時間を特定する通過時間特定部をさらに備える、
    請求項1から10のいずれか1項に記載の情報処理装置。
  12. 前記通過時間特定部は、前記組合せ特定部が特定した組合せのうち、所定の値よりも小さいオブジェクト間距離を有する組合せのみ、前記通過時間を特定する、
    請求項11に記載の情報処理装置。
  13. 前記第1の所定エリアを撮像する撮像装置が第1の時刻に撮像した第1の動画像と、当該第1の動画像に基づいて特定された前記第1オブジェクトの位置を示す第1の位置情報とを関連付けた第1動線情報と、前記第2の所定エリアを撮像する撮像装置が前記第1の時刻とは異なる第2の時刻に撮像した第2の動画像と、当該第2の動画像に基づいて特定された前記第2オブジェクトの位置を示す第2の位置情報とを関連付けた第2動線情報とを取得する動線情報取得部を備え、
    前記画像群取得部は、前記第1動線情報に含まれる前記第1の動画像に基づいて前記第1オブジェクト画像群を取得するとともに、前記第2動線情報に含まれる前記第2の動画像に基づいて前記第2オブジェクト画像群を取得する、
    請求項1から12のいずれか1項に記載の情報処理装置。
  14. 前記画像群取得部は、前記第1動線情報に含まれる前記第1の動画像に基づいてそれぞれ異なる位置に対応する複数の画像を含む前記第1オブジェクト画像群を取得するとともに、前記第2動線情報に含まれる前記第2の動画像に基づいてそれぞれ異なる位置に対応する複数の画像を含む前記第2オブジェクト画像群を取得する、
    請求項13に記載の情報処理装置。
  15. コンピュータが実行する、
    第1の所定エリアを通過する第1オブジェクトを含む複数の画像である第1オブジェクト画像群を、複数の前記第1オブジェクトのそれぞれに対して取得するとともに、前記第1オブジェクトが前記第1の所定エリアを通過する時よりも後に第2の所定エリアを通過する第2オブジェクトを含む複数の画像である第2オブジェクト画像群を、複数の前記第2オブジェクトのそれぞれに対して取得するステップと、
    複数の前記第1オブジェクトのそれぞれに対して取得された複数の前記第1オブジェクト画像群に含まれる複数の画像と、複数の前記第2オブジェクトのそれぞれに対して取得された複数の前記第2オブジェクト画像群に含まれる複数の画像とに基づいて、複数の前記第1オブジェクトのそれぞれに対する複数の前記第2オブジェクトの特徴量の距離であるオブジェクト間距離を特定するステップと、
    特定された前記オブジェクト間距離の和が相対的に小さい前記第1オブジェクトと前記第2オブジェクトとの複数の組合せを特定するステップと、
    を備える組合せ特定方法。
JP2019114262A 2019-06-20 2019-06-20 情報処理装置及び組合せ特定方法 Active JP7083788B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019114262A JP7083788B2 (ja) 2019-06-20 2019-06-20 情報処理装置及び組合せ特定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019114262A JP7083788B2 (ja) 2019-06-20 2019-06-20 情報処理装置及び組合せ特定方法

Publications (2)

Publication Number Publication Date
JP2021002105A true JP2021002105A (ja) 2021-01-07
JP7083788B2 JP7083788B2 (ja) 2022-06-13

Family

ID=73994963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019114262A Active JP7083788B2 (ja) 2019-06-20 2019-06-20 情報処理装置及び組合せ特定方法

Country Status (1)

Country Link
JP (1) JP7083788B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021197094A (ja) * 2020-06-18 2021-12-27 株式会社東芝 人物識別装置、人物識別システム、人物識別方法、及びプログラム
JP2022134143A (ja) * 2021-03-03 2022-09-15 三菱電機インフォメーションシステムズ株式会社 検知装置、検知方法、検知プログラム及び検知システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6241666B2 (ja) * 2014-06-10 2017-12-06 パナソニックIpマネジメント株式会社 利用者管理装置、利用者管理システムおよび利用者管理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6241666B2 (ja) * 2014-06-10 2017-12-06 パナソニックIpマネジメント株式会社 利用者管理装置、利用者管理システムおよび利用者管理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021197094A (ja) * 2020-06-18 2021-12-27 株式会社東芝 人物識別装置、人物識別システム、人物識別方法、及びプログラム
JP7374855B2 (ja) 2020-06-18 2023-11-07 株式会社東芝 人物識別装置、人物識別システム、人物識別方法、及びプログラム
JP2022134143A (ja) * 2021-03-03 2022-09-15 三菱電機インフォメーションシステムズ株式会社 検知装置、検知方法、検知プログラム及び検知システム
JP7200279B2 (ja) 2021-03-03 2023-01-06 三菱電機インフォメーションシステムズ株式会社 検知装置、検知方法、検知プログラム及び検知システム

Also Published As

Publication number Publication date
JP7083788B2 (ja) 2022-06-13

Similar Documents

Publication Publication Date Title
US11055569B2 (en) Systems and methods for detecting a point of interest change using a convolutional neural network
US7986828B2 (en) People detection in video and image data
JP4739355B2 (ja) 統計的テンプレートマッチングによる高速な物体検出方法
KR101184097B1 (ko) 얼굴 정면포즈 판단 방법
JP4241763B2 (ja) 人物認識装置及びその方法
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US20090296989A1 (en) Method for Automatic Detection and Tracking of Multiple Objects
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP6590609B2 (ja) 画像解析装置及び画像解析方法
US9934585B2 (en) Apparatus and method for registering images
WO2019057197A1 (zh) 运动目标的视觉跟踪方法、装置、电子设备及存储介质
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP7083788B2 (ja) 情報処理装置及び組合せ特定方法
US11657592B2 (en) Systems and methods for object recognition
KR101326691B1 (ko) 지역적 특징의 통계적 학습을 통한 강건한 얼굴인식방법
US20120076368A1 (en) Face identification based on facial feature changes
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
CN111027434B (zh) 一种行人识别模型的训练方法、装置及电子设备
Liu et al. Estimation of sunlight direction using 3D object models
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
CN115471863A (zh) 三维姿态的获取方法、模型训练方法和相关设备
JP2006510985A (ja) 照明不変条件での顔認識
JP2008009745A (ja) 顔検出装置
CN112464699A (zh) 用于面部分析的图像归一化方法、系统和可读介质
JP2016162234A (ja) 注目領域検出装置、注目領域検出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220601

R150 Certificate of patent or registration of utility model

Ref document number: 7083788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150