JP7327923B2 - 情報処理装置、情報処理方法、システムおよびプログラム - Google Patents

情報処理装置、情報処理方法、システムおよびプログラム Download PDF

Info

Publication number
JP7327923B2
JP7327923B2 JP2018197020A JP2018197020A JP7327923B2 JP 7327923 B2 JP7327923 B2 JP 7327923B2 JP 2018197020 A JP2018197020 A JP 2018197020A JP 2018197020 A JP2018197020 A JP 2018197020A JP 7327923 B2 JP7327923 B2 JP 7327923B2
Authority
JP
Japan
Prior art keywords
person
image
tracking
time
tracked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018197020A
Other languages
English (en)
Other versions
JP2020064531A5 (ja
JP2020064531A (ja
Inventor
裕 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018197020A priority Critical patent/JP7327923B2/ja
Priority to US16/592,686 priority patent/US11210528B2/en
Publication of JP2020064531A publication Critical patent/JP2020064531A/ja
Publication of JP2020064531A5 publication Critical patent/JP2020064531A5/ja
Application granted granted Critical
Publication of JP7327923B2 publication Critical patent/JP7327923B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/10Movable barriers with registering means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C1/10Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity
    • G07C1/12Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity wherein the time is indicated in figures
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00896Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys specially adapted for particular uses
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/38Individual registration on entry or exit not involving the use of a pass with central registration
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C11/00Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
    • G07C2011/02Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere related to amusement parks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理技術に関する。
従来技術として、店舗やテーマパーク等の施設に入場した人物の各々について、当該施設に滞留する時間である滞留時間を導出する技術がある。そして、施設に入場した人物の各々に対して導出された滞留時間はマーケティング用途などに活用されることがある。
特開平07-249138号公報
特許文献1では、入室者用と退室者用のカメラで撮像した2種類の画像から個々の人物の照合を取り、照合が取れた2枚の画像の取得時刻の差分から滞留時間を導出する旨の記載が開示されている。
しかしながら、特許文献1では、人物が所定の位置(ゲート)を通過した時点での時刻を検知していない。そのため、所定の領域へ入場するためのゲートから離れた位置での人物を含む画像が撮像された時刻を当該人物の入場時刻と判定してしまい、滞留時間の精度が低くなることがあった。
そこで、本発明は、撮像された画像から所定の領域における人物の滞留時間を導出する精度を向上させることを目的としている。
上記課題を解決するために、本発明の情報処理装置は以下の構成を備える。すなわち、所定領域に入場または退場するためのゲートを含む画像から人物を検出する検出手段と、前記検出手段により検出される人物を追尾する追尾手段と、前記追尾手段により追尾される人物が前記所定領域の外から内へ向かう方向である第1方向にゲートを通過したことを判定する第1判定手段と、前記第1判定手段により追尾される人物が前記第1方向にゲートを通過したことが判定された場合に、当該人物を撮像した画像の撮像時刻を第1時刻として取得する第1取得手段と、前記追尾手段により前記所定領域の外にいる状態から追尾される人物を含む複数の画像から、所定の条件を満たす画像を当該人物の登録画像として抽出する抽出手段と、前記登録画像と、当該登録画像に対応する人物が前記第1方向にゲートを通過した前記第1時刻と、を前記追尾手段による当該人物の追尾により関連付ける関連付け手段と、前記追尾手段により前記所定領域の内にいる状態から追尾される人物が撮像された複数の画像のうち少なくとも1つの画像と、前記登録画像と、に基づいて、当該人物と前記登録画像に対応する人物とが同一人物かを照合する照合手段と、前記追尾手段により追尾される人物が前記所定領域の内から外へ向かう方向である第2方向にゲートを通過したことを判定する第2判定手段と、記第2判定手段によって前記追尾手段により追尾される人物が前記第2方向にゲートを通過したことが判定された場合に、当該人物を撮像した画像の撮像時刻を2時刻として取得する第2取得手段と、前記第1時刻と、前記第2時刻と、に基づいて、前記照合手段により照合された人物が前記所定領域に滞留した時間である滞留時間を導出する導出手段と、を有し、前記関連付け手段は、前記第2判定手段の判定結果に基づいて、前記追尾手段により追尾される人物が前記第2方向にゲートを通過したことを示す退場フラグ、を前記追尾手段により追尾される人物に対して関連付けし、前記導出手段は、前記退場フラグが関連付けられた人物のうち、前記照合手段によって照合された人物がいる場合は前記滞留時間を導出し、前記退場フラグが関連付けられた人物のうち、前記照合手段によって照合された人物がいない場合は前記滞留時間を導出しないことを特徴とする。
本発明によれば、撮像された画像から所定の領域における人物の滞留時間を導出する精度を向上させることができる。
システム構成を示す図である。 滞留時間を導出するための情報処理を説明するための図である。 情報処理装置の機能ブロックを示す図である。 滞留時間を導出するための情報処理の流れを示すフローチャートである。 滞留時間を導出するための情報処理にて用いられるテーブルの一例を示す図である。 滞留時間を導出するための情報処理にて用いられるテーブルの一例を示す図である。 滞留時間を導出するための情報処理にて用いられるテーブルの一例を示す図である。 照合処理に適した顔画像を抽出する処理を説明するための図である。 情報処理の結果を表示する表示処理を説明するための図である。 滞留時間を導出するための情報処理を説明するための図である。 各装置のハードウェア構成を示す図である。
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、情報処理装置100、撮像装置111~114、記録装置120、およびディスプレイ130を有している。
情報処理装置100、撮像装置111~114、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
なお、ネットワーク140は、インターネットや有線LAN(LOCAL AREA NETWORK)、無線LAN(WIRELESS LAN)、WAN(WIDE AREA NETWORK)等により実現されてもよい。
情報処理装置100は、撮像装置111~114の各々が撮像した画像に対して後述する滞留時間を導出するための情報処理を実行する装置である。なお、情報処理装置100は、例えば、後述する情報処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。
撮像装置111~114は、画像を撮像する装置である。例えば、撮像装置111は、撮像した画像に基づく画像データと、撮像装置111を識別する識別情報(ID)と、当該画像を撮像した時刻に関する情報と、を関連付けて、ネットワーク140を介して、情報処理装置100や記録装置120へ送信する。撮像装置112~114も同様に、撮像した画像データと、撮像装置の識別情報と、当該画像を撮像した時刻に関する情報と、を関連付けて情報処理装置100や記録装置120へ送信する。
記録装置120は、撮像装置111~114の各々が撮像した画像の画像データと、撮像装置の識別情報と、当該画像を撮像した時刻とを関連付けて記録する。そして、情報処理装置100からの要求に従って、記録装置120は、記録したデータ(画像、ID、時刻等)を情報処理装置100へ送信する。
ディスプレイ130は、LCD(liquid crystal display)等により構成されている。また、ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して情報処理装置100と接続されている。
また、ディスプレイ130は、表示手段として機能し、撮像装置111~114の各々が撮像した画像や、後述する情報処理に係る設定画面等を表示する。なお、ディスプレイ130、情報処理装置100および記録装置120の少なくともいずれか2つは、単一の筐体に設けられてもよい。
次に、図2を参照して、本実施形態における情報処理について説明する。図2は、本実施形態における情報処理装置100による情報処理を説明するための図である。
図2において、ゲート210およびゲート211は、店舗やテーマパーク等の施設である所定領域200に人物が入場または退場するための通過地点である。なお、本実施形態において、所定領域200におけるゲートは2つであるが、1つでもよいし、3つ以上であってもよい。なお、所定領域200は、屋内でもいいし、屋外でもよい。また、入場方向230は、所定領域200の外側から内側へ向かう方向を示す。一方、退場方向231は、所定領域200の内側から外側へ向かう方向を示している。
図2において、撮像装置111は、ゲート210にて入場方向230(第1方向)を通過する人物を撮像するように設置され、撮像装置112は、ゲート210にて退場方向230(第2方向)を通過する人物を撮像するように設置されているものとする。また、撮像装置113は、ゲート211にて入場方向230を通過する人物を撮像するように設置され、撮像装置114は、ゲート211にて退場方向230を通過する人物を撮像するように設置されているものとする。
本実施形態における情報処理装置100は、所定領域200に入場した人物が所定領域200に入場してから退場するまでの時間、言い換えれば、当該人物が所定領域200に滞留した時間である滞留時間の導出を行う。
次に、図3に示す情報処理装置100の機能ブロックを参照して、本実施形態における情報処理装置100の滞留時間を導出する情報処理について説明する。なお、図3に示す各機能は、本実施形態の場合、情報処理装置100のROM1120に格納されたコンピュータプログラムを情報処理装置100のCPU1100が実行することにより実現される。
通信部300は、図11を参照して後述するI/F1140によって実現でき、ネットワーク140を介して、撮像装置111~114や記録装置120と通信を行う。通信部300は、例えば、撮像装置111が撮像した画像の画像データを受信したり、撮像装置111を制御するための制御コマンドを撮像装置111へ送信したりする。なお、制御コマンドは、例えば、撮像装置111~114に対して撮像指示を行うコマンドなどを含む。
記憶部301は、図11を参照して後述するRAM1110やHDD1130等によって実現でき、情報処理装置100による情報処理に関わる情報やデータを記憶する。例えば、記憶部301は、撮像装置111~114の各々の設置状況に関する情報である設置情報を記憶する。図7に示すテーブル700は、設置情報の一例である。テーブル700は、所定領域を識別する情報である所定領域ID701と、撮像装置を識別する情報である撮像装置ID702と、所定領域に対応するゲートを識別する情報であるゲートID703と、撮像装置の撮像対象の情報を示す撮像対象704と、を含む。なお、撮像対象704は、撮像装置の各々が、入場方向230にゲートを通過する人物を撮像するのか、もしくは、退場方向231にゲートを通過する人物を撮像するのかを示している。
例えば、テーブル700にて、撮像装置111は、図2に示す所定領域200のゲート210にて入場方向230を通過する人物を撮像するように設置されていることを示している。
表示制御部302は、撮像装置111~114が撮像した画像や、滞留時間を導出するための情報処理に関する設定を行う設定画面、情報処理の結果を示す情報などをディスプレイ130に表示させる。
操作受付部303は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作に関する情報を受け付ける。操作受付部303は、例えば、判定部307により人物がゲートを通過したかを判定するために用いられる通過線を示すユーザの操作などを受け付ける。
設定部304は、情報処理装置100による情報処理に関する設定を行う。例えば、設定部304は、操作受付部303が受け付けたユーザによる操作に基づき、ユーザによる操作によって指定された通過線の設定を行う。
検出部305は、画像における人物を検出する検出処理を実行する。本実施形態における検出部305は、照合パターン(辞書)を使用して、パターンマッチング等を行うことにより画像に含まれる人物を検出する検出処理を行う。
追尾部306は、検出部305により検出された人物を追尾する。本実施形態における追尾部306は、例えば、撮像装置111が撮像した画像のフレームを対象にして次のような処理を行う。追尾部306は、現在のフレームよりも1つ以上前のフレームの画像から検出部305により検出された人物と同じ人物が現在のフレームの画像に存在する場合、それぞれのフレームにおける人物同士を対応づける。すなわち、時間的に近い複数のフレームについて画像間で人物を追尾する。なお、追尾部306による追尾処理の詳細な説明については後述する。
判定部307は、追尾部306により追尾される人物が画像における検知線を通過したこと及びその通過方向を判定する。
なお、本実施形態において、撮像装置の設置情報を示すテーブル700にあるように、撮像装置111、113は、入場方向230にゲート210または211を通過する人物を撮像する。そして、撮像装置112、撮像装置114は、退場方向231にゲート210または211を通過する人物を撮像する。
そこで、本実施形態における判定部307は、撮像装置111、113が撮像した画像から、ゲート210または211を入場方向230に人物が通過したかを判定する。また、判定部307は、撮像装置112、114が撮像した画像から、ゲート210または211を退場方向231に人物が通過したかを判定する。
抽出部308は、追尾部306により所定領域の外にいる状態から追尾される人物を含む複数の画像から、所定の条件を満たす画像を当該人物の登録画像として抽出する。
なお、本実施形態において、抽出部308は、追尾部306により所定領域200の外にいる状態から追尾される人物を含む複数の画像から、当該人物の顔を含む画像(顔画像)を抽出する。そして、抽出部308は、抽出した当該人物の顔画像のうち、所定の条件を満たす画像を当該人物の登録画像として抽出する。なお、所定の条件を満たす画像とは、後述する照合部310による照合処理に適した画像である。なお、抽出部308による処理の詳しい説明については後述する。
関連付け部309は、抽出部308により抽出された登録画像と、当該登録画像の人物が入場方向230にゲート210、211を通過した入場時刻と、を追尾部306による当該人物の追尾により関連付ける。なお、関連付け部309による処理の詳しい説明については後述する。
照合部310は、追尾部306により所定領域の内にいる状態から追尾される人物が撮像された複数の画像のうち少なくとも1つの画像と、記憶部301が記憶する登録画像と、に基づき、当該人物と登録画像の人物とが同一人物かを照合する。
そして、関連付け部309は、登録画像の人物と同一人物であると照合部310により照合された人物と、当該人物が退場方向231にゲート210または211を通過した退場時刻と、が追尾部306による追尾により関連付けられる。
導出部311は、ゲートを退場方向231に通過し、登録画像の人物と同一人物であると照合部310により照合された人物を対象に、当該人物に関連付けられた入場時刻と、退場時刻と、に基づいて、当該人物が所定領域200に滞留した滞留時間を導出する。
次に図4~図8を参照して本実施形態における情報処理装置100の情報処理について更に詳細に説明する。図4は、本実施形態における情報処理装置100の情報処理の流れを示すフローチャートである。
図4(a)に示すフローチャートが実行されることで、ゲート210または211を入場方向230に通過する人物の入場時刻と、照合処理に適した当該人物の登録画像とを関連付けることができる。また、図4(b)に示すフローチャートを実行することで、情報処理装置100は、所定領域200に入場した人物が所定領域200に滞留する時間を導出することができる。
なお、図4(a)および図4(b)に示すフローチャートの処理は、ユーザによる操作に従って開始または終了するものとする。
なお、図4(a)および図4(b)に示すフローチャートの処理は、情報処理装置100のROM1120に格納されたコンピュータプログラムを情報処理装置100のCPU1100が実行して実現される図3に示す各機能ブロックにより実行されるものとする。
まず、図4(a)について説明する。なお、本実施形態において、図4(a)に示すフローチャートは、所定領域200のゲートであるゲート210または211を入場方向230に通過する人物を含む画像に対して行われる処理である。したがって、図2に示す例の場合において、図4(a)に示す処理は、テーブル700の撮像対象704が“入場”を示す撮像装置である撮像装置111および撮像装置113が撮像した画像に対して行われる処理である。
図4(a)に示すS401にて、通信部300は、撮像装置111、113が撮像した画像を取得する。
次に、S402にて、検出部305は、S401にて取得した画像に対して人物を検出する検出処理を実行する。このとき、画像から人物が検出された場合、S403に遷移する。一方、画像から人物が検出されなかった場合、S401へ戻り、S401にて、通信部300は、次の画像を取得する。
なお、画像から人物を検出する場合において、人物が正面向きである場合と横向きである場合とで使用する照合パターンを両方使うことで検出精度の向上が期待できる。例えば、正面(背面)向きの人体の画像と照合させるための照合パターンと、横向きの人物の画像と照合させるための照合パターンとを保持し、撮像装置の設置状態やユーザの指定に基づいて両方使うことができる。
また、照合パターンは、斜め方向からや上方向からなど他の角度からのものを用意しておいてもよい。また、人物を検出する場合、必ずしも全身の特徴を示す照合パターン(辞書)を用意しておく必要はなく、上半身、下半身、頭部、顔、足などの人物の一部について照合パターンを用意してもよい。
なお、検出部305は、画像から人物を検出する機能を有していればよく、既知の動体検出や肌色検出などでもよく、パターンマッチング処理にのみ限定されるものではない。
S403にて、通信部300は、撮像装置111、113が撮像した画像であって、S401で取得された画像より時間的に後に撮像された画像を取得する。例えば、S403にて、通信部300は、S401で取得された画像の次のフレームの画像を取得する。
次に、S404にて、検出部305は、S403にて取得した画像に対して人物を検出する検出処理を実行する。このとき、画像から人物が検出された場合、S405に遷移する。一方、画像から人物が検出されなかった場合、S403へ戻り、S403にて、通信部300は、次のフレームの画像を取得する。
次に、S405にて、追尾部306は、検出部305により検出された人物を追尾する。なお、追尾部306は、追尾する対象となる人物ごとにIDを付与する。例えば、追尾部306は、現在のフレームよりも1つ以上前のフレームの画像から検出部305が検出した人物に対してID“1a”を付与したとする。その場合において、検出部305が現在のフレームの画像からも当該人物を検出した場合、追尾部306は、当該人物にもID“1a”を付与する。
このように、複数のフレームの画像にわたって同じ人物が検出された場合には、それぞれの人物に同じIDを付与する。なお、記憶部301は、人物IDを付与した人物の各々に対して、人物の移動した軌跡の情報である軌跡情報をテーブルに格納する。
図5に示すテーブル500は、追尾部306による処理に基づいて記憶部301により生成され、記憶部301に記憶される軌跡情報を含むデータ構造の一例を示すテーブルである。テーブル500は、人物ID501に示すように追尾部306により“1a”が付与された人物について、追尾部306による処理に基づき、次のような情報が格納されている。テーブル500は、撮像装置を識別する情報である撮像装置ID502と、画像を識別する情報である画像ID503と、ゲートを識別する情報であるゲートID504と、画像の撮像時刻を示す時刻505と、画像内での人物の位置を示す位置506と、を含む。このようなテーブル500は、追尾部306により追尾される人物ID毎、すなわち、人物毎に存在し、それらのテーブルは記憶部301にて記憶される。なお、人物の位置は、画像の左上の端点を原点とした画像における当該人物の領域の重心点の座標を示す。なお、顔画像情報506、登録画像508は抽出部308の処理に基づき格納される情報であり、入場フラグ509は判定部307の処理に基づき格納される情報であるが、これらについての説明は後述する。
なお、追尾部306が複数のフレームの画像にわたって同じ人物であると判断する方法として次のような方法を用いることができる。例えば、検出された人物の移動ベクトルを用いて人物の移動予測位置と検出した人物の位置とが一定距離内であれば同一の人物であると判定する方法である。また、追尾部306は、人物の色、形状、大きさ(画素数)等を用いて、複数のフレームの画像間で相関の高い人物を対応付けてもよい。このように、追尾部306は、複数のフレームの画像にわたって同じ人物であると判断し追尾する処理を実行できればよく、特定の方法に限定されるものではない。
次に、S406にて、抽出部308は、追尾部306により所定領域200の外にいる状態から追尾される人物を含む画像から、当該人物の顔を含む画像(顔画像)を抽出する。
図2に示す例の場合、抽出部308は、撮像装置111(または撮像装置113)が撮像した画像のうち、追尾部306により所定領域200の外にいる状態から追尾される人物の顔画像を抽出する。このとき、抽出部308は、さらに、抽出した顔画像について、人物の顔の特徴を示す情報である特徴量を抽出する。なお、人物の特徴量としては、色・エッジ・テクスチャ、髪の色、顔の器官の形状、サングラスの有無、髭の有無等といった情報がある。また、このとき、検出部305は、抽出部308により抽出された顔画像と、人物の正面顔の照合パターン(辞書)とを比較することで、人物の顔の映り度合を示す情報である顔尤度を判定する。
なお、顔画像に含まれる人物の顔が正面顔に近いほど顔尤度は大きくなり、当該人物の顔が横顔に近くなると顔尤度は小さくなり、当該人物が後ろ向きになると更に顔尤度は小さくなる。なお、抽出された顔画像のサイズが大きいほど、当該顔画像の顔尤度を大きくしてもよい。
記憶部301は、抽出部308による処理によって抽出された顔画像に関する情報である登録情報をテーブルに格納する。本実施形態において、抽出部308の処理に基づき記憶部301により生成された登録情報はテーブル500に格納される。テーブル500に示すように、追尾部306により人物ID“1a”と付与された人物について、次のような情報が格納される。軌跡情報(撮像装置ID502、画像ID503、ゲートID504、時刻505、位置506)に加え、抽出部308によって抽出された顔画像に関する情報である顔画像情報507がテーブル500に格納される。
顔画像情報は、テーブル500の場合、撮像された画像における人物の顔画像の位置と、当該顔画像の大きさと、当該顔画像から抽出部308により抽出された特徴量と、当該顔画像から検出部305により判定された顔尤度とを含む。
次に、S407にて、判定部307は、追尾部306により追尾される人物が所定領域200のゲートを入場方向230に通過したかを判定する。図2に示す例にて、判定部307は、撮像装置111、113が撮像した画像から、ゲート210または211を入場方向230に人物が通過したかを判定する。
なお、本実施形態における判定部307は、記憶部301が記憶する人物ごとの軌跡情報が示す軌跡と、検知線の位置とが交差するかを判定し、人物が検知線を通過したかを判定する。またこのとき、判定部307は、さらに人物の通過方向を判定する。
記憶部301は、判定部307により通過を判定された情報に基づいて、入場情報を生成してテーブルに格納する。本実施形態において、判定部307により通過を判定された情報に基づいて記憶部301により生成された入場情報はテーブル500に格納される。このとき、追尾部306により人物ID“1a”が付与された人物について、テーブル500に示すように、当該人物が入場したか否かを示す入場フラグ509の情報がテーブル500に格納される。本実施形態において、テーブル500の入場フラグ509として、“0”は入場していないことを示し、“1”は入場したことを示す。
なお判定部307は、入場方向230に人物がゲートを通過したことを判定するとともに、そのとき撮像された画像の撮像時刻を入場時刻とする。換言すると、判定部307により、入場方向230に人物がゲートを通過したことを判定されると、記憶部301によって、入場したことを示す“1”がテーブル500に格納されるとともに、取得された画像が撮像された時刻が入場時刻として記録される。
テーブル500の場合、画像ID“3a”にて判定部307は、人物がゲート210を入場方向230に向かって、時刻“13:00:02“にて通過したことを判定したことを示す。
テーブル500に示すように、判定部307により入場方向230へ通過を判定された人物については入場したこと(入場済みであること)を示す“1”のフラグが入場フラグ509に格納される。
次に、S408にて、追尾部306により追尾されている人物のうち、ゲート210または211を通過して所定領域200に入場している人物がいる場合、S409へ遷移し、入場している人物がいなければS403へ戻る。S403に戻った場合、S403にて、通信部300は、次のフレームの画像を取得する。
なお、判定部307は、記憶部301が記憶するテーブル500における入場フラグ509が“1”の人物がいた場合に、入場している人物がいると判定する。例えば、現在時刻が“13:00:03”の場合、テーブル500に基づいて、判定部307は、画像ID“4a”が撮像された時刻において、人物ID“1a”の人物が所定領域200に入場していると判定する。
次に、S409にて、判定部307は、入場済みの人物のうち、フレームアウトした人物がいる場合、S410へ遷移し、フレームアウトした人物がいない場合、S403へ戻る。S403に戻った場合、S403にて、通信部300は、次のフレームの画像を取得する。
例えば、S409にて、判定部307は、S408にて所定領域200に入場したと判定された人物である人物ID“1a”の人物に対して追尾部306の追尾処理が継続しているかを判定する。例えば、人物ID“1a”の人物が追尾部306により現在のフレームにて見つけられていない場合、判定部307は、当該人物に対して追尾処理が終了していると判定する。なお、当該人物が物陰に隠れてしまい、追尾処理が終了した場合も、当該人物に対して追尾処理が終了していると判定する。
このとき、判定部307は、人物ID“1a”の人物に対して追尾処理が終了していると判定した場合、当該人物はフレームアウトしたとみなして、S410へ遷移する。一方、判定部307は、人物ID“1a”の人物に対して追尾処理が継続されていると判定した場合、S403へ戻る。S403に戻った場合、S403にて、通信部300は、次の画像を取得する。
なお、S408やS409にてNoとなった場合に、S406の処理は再度行われる。よって、S406の処理は複数行われるため、抽出部308は、撮像装置111(または撮像装置113)が撮像した複数の画像のうち、追尾部306により所定領域200の外にいる状態から追尾される人物について複数の顔画像を抽出することになる。
次に、S410にて、抽出部308は、追尾が開始されてからフレームアウトするまでにS406にて抽出部308により抽出された人物の複数の顔画像のうち、所定の条件を満たす画像を当該人物の登録画像として抽出する。
なお、本実施形態における所定の条件を満たす画像は、追尾部306により追尾される人物を含む画像のうち、当該人物の顔の映り度合を示す顔尤度が第1閾値以上かつ顔尤度が最も高い顔画像とする。
ここで図8を参照して、S410における抽出部308による処理について説明する。図8にて人物801と人物802の各々を撮像装置800が撮像している図である。なお、図8に示す矢印は人物801および人物802の進行方向を示し、点線で示される範囲803は、撮像装置800が撮像する範囲を示している。
図8に示すように、人物801を撮像した画像にて人物801の正面の顔を撮像できる。一方で、人物802を撮像した場合、撮像装置800と人物802との位置関係から、人物802を上から見下ろしたような画像が撮像される。つまり、撮像装置800の設置状況や、撮像された画像における人物の位置などに応じて、同一人物であるかを照合する照合処理にて用いる登録画像に適した正面顔の画像が撮像されたり、登録画像に適さない画像が撮像されたりすることがある。
そこで、S410にて、抽出部308は、特定の人物について、抽出部308により抽出された複数の顔画像のうち、顔尤度が第1閾値以上かつ顔尤度が最も高い顔画像を登録画像として抽出する。なお、第1閾値は、ユーザにより設定されたものでもよいし、予め登録されたものでもよい。
なお記憶部301は、抽出部308による処理に基づく情報である登録情報を生成してテーブルに格納する。具体的には、テーブル500に示すように、追尾部306により人物ID“1a”が付与された人物について、記憶部301により、照合処理に適した登録画像かを示すフラグである登録画像508がテーブル500に格納される。
テーブル500に示すように、登録画像508にて、“1”は対応する顔画像が照合処理に適していることを示し、“0”は対応する顔画像が照合処理に適さないことを示す。なお、本実施形態において抽出部308は、抽出した各顔画像のうち、顔尤度が第1閾値以上かつ顔尤度が最も高い顔画像についてフラグ情報“1”を付与する。
次に、S411にて、関連付け部309は、抽出部308により抽出された登録画像と、当該登録画像の人物が入場方向230にゲート210、211を通過した入場時刻と、を追尾部306による当該人物の追尾により関連付ける。
本実施形態において、関連付け部309は、追尾部306による追尾の処理に基づいて記憶部301により生成されたテーブル500に基づき、登録画像と、当該登録画像の人物の入場時刻とを関連付けた関連情報を生成する。このとき生成された関連情報は、記憶部301によって記憶される。
図5に示すテーブル550は、S410における関連付け部309の処理に基づいて関連付け部309により生成される関連情報の一例を示すデータ構成である。テーブル550は、追尾部306により付与された人物を識別する人物ID551と、当該人物の各々の登録画像に紐づく画像ID552と、登録画像の顔画像情報である登録顔画像553と、当該人物の各々の入場時刻554とを含む。
テーブル550に示すように、関連付け部309は、例えば、人物ID“1a”の人物について、登録画像として抽出された顔画像に対応する画像ID“1a”と、当該顔画像の顔画像情報と、当該人物の入場時刻“13:00:02”とを関連付ける。
以上説明したように、ゲート210または211を入場方向210に通過する人物の入場時刻と、照合処理に適した当該人物の登録画像とを関連付けることができる。つまり、ゲートを入場方向230に人物が通過した時点の当該人物を含む画像に限らず、追尾される過程で撮像される画像のうち照合処理に適した画像を当該人物の登録画像として抽出することができる。そして、当該登録画像と、当該登録画像の人物の入場時刻と、を追尾によって関連付けることができる。
次に、図4(b)に示すフローチャートについて説明する。なお、本実施形態において、図4(b)に示すフローチャートは、所定領域200のゲートであるゲート210または211を退場方向231に通過する人物を含む画像に対して行われる処理である。したがって、図2に示す例の場合において、図4(b)に示す処理は、テーブル700の撮像対象704が“退場”を示す撮像装置である撮像装置112、114が撮像した画像に対して行われる処理である。
まず、S441にて、通信部300は、撮像装置112、114が撮像した画像を取得する。
次に、S442にて、検出部305は、S441にて取得した画像に対して人物を検出する検出処理を実行する。このとき、画像から人物が検出された場合、S443に遷移する。一方、画像から人物が検出されなかった場合、S441へ戻り、S441にて、通信部300は、次のフレームの画像を取得する。
S443にて、通信部300は、撮像装置112、114が撮像した画像であって、S441で取得された画像より時間的に後に撮像された画像を取得する。例えば、S443にて、通信部300は、S441で取得された画像の次のフレームである画像を取得する。
次に、S444にて、検出部305は、S443にて取得した画像に対して人物を検出する検出処理を実行する。このとき、画像から人物が検出された場合、S445に遷移する。一方、画像から人物が検出されなかった場合、S443へ戻り、S443にて、通信部300は、次のフレームの画像を取得する。
次に、S445にて、追尾部306は、検出部305により検出された人物を追尾する。このときS405と同様、追尾部306の処理に基づき、記憶部301は軌跡情報を生成する。図6に示すテーブル600は、S445における追尾部306による処理に基づいて記憶部301により生成された軌跡情報を含むデータ構造の一例である。テーブル600は、人物ID601に示すように追尾部306により“6d”が付与された人物について、追尾部306による処理に基づき、次のような情報が格納されている。テーブル600は、撮像装置を識別する情報である撮像装置ID602と、画像を識別する情報である画像ID603と、ゲートを識別する情報であるゲートID604と、画像の撮像時刻を示す時刻605と、画像内での人物の位置を示す位置606と、を含む。
なお、テーブル600は、追尾部306により人物IDが付与された人物の各々について生成される。テーブル600の例においては、人物ID“6d”に対して生成されている。なお、テーブル600における顔画像情報607、照合608、退場フラグ609についての詳しい説明は後述する。
次に、S446にて、抽出部308は、追尾部306により所定領域200の内にいる状態から追尾される人物を含む画像から、当該人物の顔を含む画像(顔画像)を抽出する。なお、このとき、抽出部308は、S406と同様、抽出した顔画像から特徴量を抽出する。また、このとき、検出部305は、S406と同様、抽出した顔画像から顔尤度を判定してもよい。
抽出部308の処理に基づき、記憶部301は、抽出情報を生成しテーブルに格納する。このとき、例えば、人物ID“6d”の人物について、テーブル600に示すように、顔画像情報607がテーブル600に格納される。顔画像情報607は、顔画像情報507と同様、撮像された画像における人物の顔画像の位置と、当該顔画像の大きさと、当該顔画像から抽出された特徴量と、当該顔画像から検出部305により判定された顔尤度とを含む。
次に、S447にて、照合部310は、次のような照合処理を行う。照合部310は、追尾部306により所定領域200の内にいる状態から追尾される人物が撮像された画像と、記憶部301が記憶する登録画像と、に基づき、当該人物と登録画像に対応する人物とが同一人物かを照合する。
本実施形態において、照合部310は、S446にて抽出部308により抽出された顔画像の特徴量と、登録画像の特徴量とを比較し、顔画像に対応する人物と、登録画像の人物との一致度を示す認証スコアを算出する。なお、認証スコアが高いほど、一致度が高いことを示す。
そして、照合部310は、顔画像の特徴量と、登録画像の特徴量とを比較して算出した認証スコアが第2閾値を超えた場合、顔画像の人物と登録画像の人物とが同一人物であると判定する。
なお、照合部310による照合処理に基づいて記憶部301により生成される照合情報はテーブルに格納される。追尾部306により人物IDとして“6d”を付与された人物について、テーブル600に示すように、照合結果を示す情報である照合608がテーブル600に格納される。テーブル600の例において、画像ID“1d”に対応する顔画像の人物(人物ID“6d”)に対して、人物ID”1a”の人物が同一人物であることを示している。なお、本実施形態において、照合608における“0”は、照合処理により算出された認証スコアが第2閾値を超えずに、同一とみなせる人物がいないことを示している。
次に、S448にて、判定部307は、追尾部306により追尾される人物が所定領域200のゲートを退場方向231に通過したかを判定する。図2に示す例にて、S448における判定部307は、撮像装置112、114が撮像した画像から、ゲート210または211を退場方向231に人物が通過したかを判定する。
判定部307により通過を判定された情報に基づいて、記憶部301は、退場情報を生成してテーブルに格納する。例えば、追尾部306により人物ID“6d”が付与された人物について、テーブル600に示すように、当該人物が所定領域200を退場したか否かを示すフラグである退場フラグ609の情報がテーブル600に格納される。本実施形態において、退場フラグ609として、“0”は退場していないことを示し、“1”は退場済みであることを示す。
なお判定部307は、退場方向231に人物がゲートを通過したことを判定するとともに、そのとき撮像された画像の撮像時刻を退場時刻とする。換言すると、退場方向231に人物がゲートを通過したことを判定部307により判定されると、退場済みであることを示す“1”が記憶部301により退場フラグ609に格納されるとともに、そのとき取得された画像の撮像時刻が退場時刻として記憶される。
テーブル600の場合、画像ID“3d”にて判定部307は、人物がゲート211を退場方向231に向かって、時刻“14:00:02“にて通過を判定し、退場済みであることを示す”1“が退場フラグ609に格納される。このとき、時刻“14:00:02“が退場時刻として記憶部301により記憶される。
次に、S449にて、追尾部306により追尾されている人物のうち、ゲート210または211を介して所定領域200から退場している人物がいる場合、S450へ遷移する。一方、退場している人物がいなければS443へ戻り、S443にて、通信部300は次のフレームの画像を取得する。なおこのとき、記憶部301が記憶する退場フラグ609の情報に基づいて、退場している人物がいるか否かを判定部307により判定される。
例えば、現在時刻が“14:00:03”である場合、テーブル600の退場フラグ609に基づいて、判定部307は、ID“6d”の人物は所定領域200から退場済みであると判定する。
次に、S450にて、退場済みの人物のうち、照合部310により登録画像の人物と一致すると照合された人物がいる場合、S451へ遷移する。一方、照合された人物がいない場合、S443へ戻り、S443にて、通信部300は次のフレームの画像を取得する。
例えば、S450にて、判定部307は、S449にて所定領域200から退場済みであると判定された人物である人物ID“6d”の人物に対して、照合部310により登録画像の人物と一致すると照合されたかを判定する。仮に、現在時刻が“14:00:03”である場合、判定部307は、テーブル600に基づき、人物ID“6d”の人物に対して、画像ID“1d”にて登録画像の人物“1a”と一致すると照合されたと判定する。この場合、S451へ遷移する。
一方、ID“6d”の人物に対して登録画像の人物と一致すると照合されていない場合、S443へ戻り、S443にて、通信部300は次のフレームの画像を取得する。
次に、S451にて、関連付け部309は、照合部310により登録画像の人物と一致すると照合された人物と、当該人物が退場方向231にゲートを通過した退場時刻と、を追尾部306による追尾により関連付ける。
本実施形態において、関連付け部309は、追尾部306による追尾の処理に基づいて記憶部301により生成されたテーブル600に基づき、次のような処理を行う。関連付け部309は、照合部310により登録画像の人物と一致すると照合された人物と、当該人物の退場時刻とを関連付けた関連情報を生成する。
例えば、関連付け部309は、テーブル600に基づき、照合処理により人物ID“1a”の人物と一致すると照合された人物ID“6d”の人物と、画像ID“3d”に紐づく退場時刻“14:00:02”とを特定し、関連付ける。このような関連付け処理により、関連情報を生成する。
図6に示すテーブル660は、S451における関連付け部309の処理に基づいて関連付け部309により生成される関連情報の一例を示すデータ構成である。テーブル660は、追尾部306により付与された人物を識別する人物ID661と、当該人物に対して同一人物と照合された人物の人物ID663と、同一人物と照合したときの画像を識別する画像ID662と、当該人物の退場時刻664とを含む。
次に、S452にて、導出部311は、ゲート210または211を退場方向231に通過し、照合部310により登録画像と同一人物であると照合された人物を対象にして、次のような処理を行う。導出部311は、関連付け部309により生成された関連情報に基づき、当該人物に関連付けられた入場時刻と、退場時刻とから、当該人物が所定領域200に滞留した滞留時間を導出する。
本実施形態において、導出部311は、S410およびS451にて関連付け部309により生成された関連情報であるテーブル550および660に基づき、所定領域200における人物ごとの滞留時間を導出する。
例えば、導出部311は、テーブル550および660に基づき、人物ID“1a”に関連付けられた入場時刻と、人物ID“1a”と同一の人物である人物ID“6d”に関連付けられた退場時刻とを特定する。そして、人物ID“1a”の退場時刻と入場時刻との差分に基づいて、当該人物の所定領域200における滞留時間を導出する。
テーブル550および660に示す例の場合、導出部311は、人物ID“1a”(=人物ID“6d”)の人物の所定領域200における滞留時間は、1時間であると導出する。
次に、S453にて、表示制御部302は、導出部311にて導出された滞留時間を示す情報をディスプレイ130に表示させる。
なお、本実施形態における表示制御部302は、本実施形態における情報処理の結果に基づいて得られた情報を撮像装置111~114に撮像された画像に重畳させディスプレイ130に表示させてもよい。
図9は、本実施形態における表示制御部302の処理に基づいて、ディスプレイ130に表示される画像の一例を示す図である。
図9(a)は、ゲート210に入場方向230に通過する人物を撮像するよう設置された撮像装置111が撮像した画像の一例を示す図である。図9(a)において、枠901は、人物900に対して抽出部308が抽出した顔の位置を示す枠である。また、ラベル902は、人物900に対して追尾部306が付与した人物IDを示している。また、ラベル903は、人物904に対して、追尾部306が付与した人物IDを示している。また、ラベル903は、更に、人物903がゲート210を入場方向230に通過した入場時刻の情報も示している。
図9(b)は、ゲート211に退場方向231に通過する人物を撮像するよう設置された撮像装置114が撮像した画像の一例を示す図である。図9(b)において、枠991は、人物990に対して抽出部308が抽出した顔の位置を示す枠である。また、人物990には、人物900に対して付与された人物ID“6d”を示すラベルが重畳されている。また、ラベル993は、人物904に対して、追尾部306が付与した人物IDを示している。また、ラベル993は、更に、人物904がゲート211を退場方向230に通過した退場時刻の情報も示している。
なお、表示制御部302は、ゲート211を退場方向230に通過し、かつ、導出部311により滞留時間の導出が行われた人物については、当該人物の人物IDと滞留時間とを含むラベルを画像における当該人物に重畳して表示させてもよい。
また、本実施形態において、照合部310は、S446にて抽出部308により抽出された顔画像の特徴量と、登録画像の特徴量とを比較し、認証スコアを導出して、当該認証スコアと第2閾値とを比較する。そして、照合部310は、当該認証スコアが第2閾値を超えた場合、顔画像の人物と登録画像の人物とが同一人物であると判定する。このように、本実施形態においては、照合部310によって、認証スコアの比較対象とする閾値は一定としているが、これに限らない。例えば、抽出部308により抽出される顔画像の人物の位置に応じて、閾値を変更するようにしてもよい。
具体的には、S446にて抽出部308は、判定部307による処理に基づき生成された退場フラグ609の情報に基づいて閾値の変更を行うようにしてもよい。この場合、抽出部308は、テーブル600に示すように、退場済みであることを示す退場フラグ“1”が付与された人物について、照合処理をする場合、認証スコアの比較対象となる閾値を第2閾値より小さい第3閾値に変更するようにしてもよい。このようにすることで、所定領域200から退場済みの人物について登録画像を用いた照合処理のとりこぼしを低減することが可能となる。
また、本実施形態において、S446にて抽出部308により顔画像が抽出されるたびに、照合部310は、当該顔画像と登録画像とで照合処理を行うが、これに限らない。S49やS450にてNoとなり、S446における抽出部308の処理が繰り返し行われた場合、抽出部308は、抽出した複数の顔画像のうち、顔尤度が第1閾値以上の顔画像を抽出する。そして、照合部310は、顔尤度が第1閾値以上の顔画像と、登録画像とで照合処理を行うようにしてもよい。なお、抽出部308は、抽出した複数の顔画像のうち、顔尤度が第1閾値以上かつ顔尤度が最も高い顔画像を抽出し、照合部は、当該顔画像と、登録画像とで照合処理を行うようにしてもよい。
また、本実施形態において、S446で抽出部308は、顔画像の抽出を行い、照合部310は抽出された顔画像に対して、図4(a)に示すフローを実行して抽出された登録画像を用いて照合処理が行われる。このとき、第1の人物について照合処理により登録画像と同一であると照合されたのち、第2の人物に対して、当該登録画像と同一であると照合された場合を想定する。このとき、第1の人物および第2の人物に対する当該登録画像の認証スコアを比較して、第2の人物に対する当該登録画像の認証スコアの方が高い場合、第2の人物について当該登録画像を用いた滞留時間の導出するようにする。
具体的には、図6に示す照合情報の一例であるテーブル600に示すように人物ID“6d”の人物に対して、人物ID“1a”の人物が同一人物であると照合部310の照合処理により照合されている。このとき、一例として、認証スコアが“70”であるとする。
この場合、人物ID“6d”の人物に対する照合処理ののち、例えば、当該人物よりも後に検出された人物ID“15d”の人物に対して、人物ID“1a”の人物が同一人物であると照合部310の照合処理により照合されたとする。このとき、認証スコアが“80”であるとする。
このとき、判定部307は、人物ID“6d”に対する認証スコア“70”と、人物ID“15d”に対する認証スコア“80”とを比較し、人物ID“15d”の人物の認証スコアが高いと判定する。
これより、記憶部301は、人物ID“15d”に対して生成されたテーブル600において、人物ID“1a”の人物と同一人物であるという情報を照合608に格納する。そして、導出部311は、人物ID“15d”の人物の退場時刻と、人物ID“1a”の入場時刻と、から当該人物の滞留時間を導出する。
このように、第1の人物および第2の人物に対する当該登録画像の認証スコアを比較して、第2の人物に対する当該登録画像の認証スコアの方が高い場合、第2の人物について当該登録画像を用いた滞留時間の導出するようにするようにしてもよい。
また、本実施形態にかかるユースケースにて、一度所定領域200に入場した人物が、所定領域200から退場したのち、当該人物が再度所定領域200に入場することが考えられる。このとき、入場方向230へ当該人物が所定領域200に入場する際の入場時刻を、当該人物が2度目に入場した場合における滞留時間の導出に用いると、誤った滞留時間が導出されてしまう。
そこで、照合部310により、所定領域200から退場方向231にゲート210または211を通過する人物に対して同一人物と照合された登録画像は、記憶部301が記憶する登録情報から除外する。これより、所定領域200に再入場した人物に対して、誤った滞留時間を導出してしまうことを抑制できる。
なお、実施形態1における情報処理装置100の1以上の機能を、撮像装置や記録装置等の他の装置が有していてもよい。例えば、情報処理装置100の検出部305は撮像装置が有していてもよい。
以上説明したように、図4(a)および図4(b)に示すフローチャートが実行されることで、情報処理装置100は、所定領域200に入場した人物が所定領域200に滞留する時間を導出することができる。
従来、所定領域における人物の滞留時間を導出するにあたって、所定領域に入退場するためのゲートを人物が通過した時の画像は人物の照合に適していないことがあり、所定領域における人物の滞留時間を導出する精度が低くなることがあった。
そこで、本実施形態における情報処理装置100は、人物がゲートを入場方向230に通過した入場時刻と、照合処理に適した登録画像とを追尾により関連付ける。情報処理装置100は、さらに、人物がゲートを退場方向に退場した退場時刻と、登録画像の人物と同一人物であると照合された人物とを追尾により関連付ける。
そして、人物に関連付けられた入場時刻と、退場時刻とから所定領域における当該人物の滞留時間を導出する。こうすることにより、所定領域における人物の滞留時間を導出する精度を向上させることができる。
(実施形態2)
実施形態1にて、所定領域200のゲート210およびゲート211の各々に対して、撮像装置を2台ずつ設置した実施形態について説明したが、これに限らない。実施形態2では、複数台の撮像装置を用いてゲートを入場方向(または退場方向)に通過する人物を撮像する場合について説明する。
また、実施形態1では、一つの所定領域における人物の滞留時間を導出する実施形態について説明したが、これに限らない。そこで実施形態2では、さらに、複数の所定領域の各々について、人物の滞留時間を導出する場合について説明する。
図10は、実施形態2における情報処理装置100の情報処理を説明するための模式図である。図10に示すように、撮像装置1021、1022は、所定領域200のゲート211を入場方向230に通過する人物を撮像するよう設置されている。なお、撮像装置1021の撮像範囲と、撮像装置1022の撮像範囲は重複しない方が望ましい。本実施形態では、撮像装置1021、1022の各々の撮像範囲は重複しないものとして説明する。
また、撮像装置1023、1024は、所定領域200のゲート211を退場方向231に通過する人物を撮像するよう設置されている。なお、撮像装置1023の撮像範囲と、撮像装置1024の撮像範囲は重複しない方が望ましい。本実施形態では、撮像装置1023、1024の各々の撮像範囲は重複しないものとして説明する。
また、図10に示すように、撮像装置1011は、所定領域1000へ入場または退場するための仮想的なゲートである仮想ゲート1020にて、入場方向1030を通過する人物を撮像するように設置されている。一方、撮像装置1012は、所定領域1000に対応する仮想ゲート1020にて、退場方向1031を通過する人物を撮像するように設置されている。なお、図10において、所定領域1000は、所定領域200内において市松模様で示された領域であり、エリアAの領域を含んでいる。
なお、仮想ゲート1020は、撮像装置1011、1022が撮像した画像が情報処理装置100の表示制御部302によりディスプレイ130に表示され、ユーザが表示された画像に対して通過線を指定することで設定される。なお、図10において、ドア1050またはドア1051を介して、人物は、エリアAやエリアBへ移動できるものとする。
記憶部301は、撮像装置の各々の設置状況に関するテーブルである設置テーブルを記憶する。図7に示すテーブル770は、テーブル700と同様、実施形態2に係る設置テーブルの一例である。テーブル770は、所定領域を識別する情報である所定領域ID771と、撮像装置を識別する情報である撮像装置ID702と、所定領域に対応するゲートを識別する情報であるゲートID773と、撮像装置の撮像対象の情報を示す撮像対象704と、を含む。
例えば、テーブル770にて、撮像装置1011は、所定領域1000のゲート1020にて入場方向1030を通過する人物を撮像するように設置されていることを示している。
本実施形態における情報処理装置100は、所定領域200において人物が滞留した滞留時間、そして、所定領域1000において人物が滞留した滞留時間を導出する。
本実施形態において、図4(a)および図4(b)に示す処理は、所定領域200および所定領域1000の各々について行われる。
所定領域200について処理が行われる場合、図4(a)の処理は、テーブル770に基づき、撮像装置111、1021、1022が撮像した画像に対して行われる。また、所定領域200について処理が行われる場合、図4(b)の処理は、テーブル770に基づき、撮像装置112、1023、1024が撮像した画像に対して行われる。
このようにすることで、所定領域200における人物の滞留時間を導出することができる。
一方、所定領域1000について処理が行われる場合、図4(a)の処理は、テーブル770に基づき、撮像装置1011が撮像した画像に対して行われる。また、所定領域1000について処理が行われる場合、図4(b)の処理は、テーブル770に基づき、撮像装置1012が撮像した画像に対して行われる。
このようにすることで、所定領域1000における人物の滞留時間を導出することができる。
なお、実施形態2における情報処理装置100の1以上の機能を、撮像装置や記録装置等の他の装置が有していてもよい。例えば、情報処理装置100の検出部305は撮像装置が有していてもよい。
以上説明したように、複数台の撮像装置を用いてゲートを入場方向(または退場方向)に通過する人物を撮像した場合や、滞留時間を導出する領域である所定領域が複数あった場合でも、所定領域における人物の滞留時間を導出することができる。
(その他の実施形態)
次に図11を参照して、各実施形態の各機能を実現するための情報処理装置100のハードウェア構成を説明する。なお、以降の説明において情報処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置111~114も同様のハードウェア構成によって実現される。
本実施形態における情報処理装置100は、CPU1100と、RAM1110と、ROM1120、HDD1130と、I/F1140と、を有している。
CPU(CENTRAL PROCESSING UNIT)1100は情報処理装置100を統括制御する中央処理装置である。
RAM(RANDOM ACCESS MEMORY)1110は、CPU1100が実行するコンピュータプログラムを一時的に記憶する。また、RAM1110は、CPU1100が処理を実行する際に用いるワークエリアを提供する。また、RAM1110は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
ROM(READ ONLY MEMORY)1120は、CPU1100が情報処理装置100を制御するためのプログラムなどを記憶する。HDD(HARD DISK DRIVE)1130は、画像データ等を記録する記憶装置である。
I/F(Interface)1140は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
なお、上述した各実施形態の説明では、CPU1100が処理を実行する例について説明するが、CPU1100の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM1120からプログラムコードを読み出してRAM1501に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、情報処理装置100の各部は、図11に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。
100 情報処理装置
300 通信部
301 記憶部
302 表示制御部
303 操作受付部
304 設定部
305 検出部
306 追尾部
307 判定部
308 抽出部
309 関連付け部
310 照合部
311 導出部

Claims (11)

  1. 所定領域に入場または退場するためのゲートを含む画像から人物を検出する検出手段と、
    前記検出手段により検出される人物を追尾する追尾手段と、
    前記追尾手段により追尾される人物が前記所定領域の外から内へ向かう方向である第1方向にゲートを通過したことを判定する第1判定手段と、
    前記第1判定手段により追尾される人物が前記第1方向にゲートを通過したことが判定された場合に、当該人物を撮像した画像の撮像時刻を第1時刻として取得する第1取得手段と、
    前記追尾手段により前記所定領域の外にいる状態から追尾される人物を含む複数の画像から、所定の条件を満たす画像を当該人物の登録画像として抽出する抽出手段と、
    前記登録画像と、当該登録画像に対応する人物が前記第1方向にゲートを通過した前記第1時刻と、を前記追尾手段による当該人物の追尾により関連付ける関連付け手段と、
    前記追尾手段により前記所定領域の内にいる状態から追尾される人物が撮像された複数の画像のうち少なくとも1つの画像と、前記登録画像と、に基づいて、当該人物と前記登録画像に対応する人物とが同一人物かを照合する照合手段と、
    前記追尾手段により追尾される人物が前記所定領域の内から外へ向かう方向である第2方向にゲートを通過したことを判定する第2判定手段と、
    記第2判定手段によって前記追尾手段により追尾される人物が前記第2方向にゲートを通過したことが判定された場合に、当該人物を撮像した画像の撮像時刻を2時刻として取得する第2取得手段と、
    前記第1時刻と、前記第2時刻と、に基づいて、前記照合手段により照合された人物が前記所定領域に滞留した時間である滞留時間を導出する導出手段と、を有し、
    前記関連付け手段は、前記第2判定手段の判定結果に基づいて、前記追尾手段により追尾される人物が前記第2方向にゲートを通過したことを示す退場フラグ、を前記追尾手段により追尾される人物に対して関連付けし、
    前記導出手段は、前記退場フラグが関連付けられた人物のうち、前記照合手段によって照合された人物がいる場合は前記滞留時間を導出し、前記退場フラグが関連付けられた人物のうち、前記照合手段によって照合された人物がいない場合は前記滞留時間を導出しないことを特徴とする情報処理装置。
  2. 前記所定の条件を満たす画像は、前記追尾手段により追尾される人物を含む画像のうち、当該人物の顔の映り度合を示す情報である顔尤度が第1閾値以上の画像であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記所定の条件を満たす画像は、前記追尾手段により追尾される人物を含む画像のうち、当該人物の顔の映り度合を示す情報である顔尤度が第1閾値以上かつ顔尤度が最も高い画像であることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記照合手段は、前記追尾手段により前記所定領域の内にいる状態から追尾される人物が撮像された複数の画像のうち少なくとも1つの画像から抽出された当該人物の特徴量と、前記登録画像に対応する人物の特徴量と、に基づいて、前記抽出された人物と前記登録画像に対応する人物とが同一人物かを照合することを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
  5. 前記照合手段は、前記追尾手段により前記所定領域の内にいる状態から追尾される人物が撮像された複数の画像のうち少なくとも1つの画像から抽出された当該人物の特徴量と、前記登録画像に対応する人物の特徴量とを比較して算出された人物の一致度を示す認証スコアが第2閾値より大きい場合に、当該人物と前記登録画像に対応する人物とが同一人物であると照合することを特徴とする請求項4に記載の情報処理装置。
  6. 前記抽出手段は、さらに、前記追尾手段により前記所定領域の内にいる状態から追尾される人物を含む複数の画像から、所定の条件を満たす画像を抽出し、
    前記照合手段は、前記抽出手段により抽出された当該画像から抽出された当該人物の特徴量と、前記登録画像に対応する人物の特徴量と、に基づいて、当該人物と前記登録画像に対応する人物とが同一人物かを照合することを特徴とする請求項4または5に記載の情報処理装置。
  7. 前記照合手段は、前記追尾手段により前記所定領域の内にいる状態から追尾される人物が所定の位置を通過した場合に、認証スコアとの比較に用いる閾値を前記第2閾値より小さい第3閾値に変更し、前記追尾手段により前記所定領域の内にいる状態から追尾される人物が撮像された複数の画像のうち少なくとも1つの画像から抽出された当該人物の特徴量と、前記登録画像に対応する人物の特徴量とを比較して算出された人物の一致度を示す認証スコアが前記第3閾値より大きい場合に、当該人物と前記登録画像に対応する人物とが同一人物であると照合することを特徴とする請求項5に記載の情報処理装置。
  8. 前記照合手段により照合された人物を含む画像に前記滞留時間を重畳して表示させる制御手段を更に有することを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。
  9. 所定領域に入場または退場するためのゲートを含む画像を撮像する撮像手段と、
    前記撮像手段により撮像された画像から人物を検出する検出手段と、
    前記検出手段により検出される人物を追尾する追尾手段と、
    前記追尾手段により追尾される人物が前記所定領域の外から内へ向かう方向である第1方向にゲートを通過したことを判定する第1判定手段と、
    前記第1判定手段により追尾される人物が前記第1方向にゲートを通過したことが判定された場合に、当該人物を撮像した画像の撮像時刻を第1時刻として取得する第1取得手段と、
    前記追尾手段により前記所定領域の外にいる状態から追尾される人物を含む複数の画像から、所定の条件を満たす画像を当該人物の登録画像として抽出する抽出手段と、
    前記登録画像と、当該登録画像に対応する人物が前記第1方向にゲートを通過した前記第1時刻と、を前記追尾手段による当該人物の追尾により関連付ける関連付け手段と、
    前記追尾手段により前記所定領域の内にいる状態から追尾される人物が撮像された複数の画像のうち少なくとも1つの画像と、前記登録画像と、に基づいて、当該人物と前記登録画像に対応する人物とが同一人物かを照合する照合手段と、
    前記追尾手段により追尾される人物が前記所定領域の内から外へ向かう方向である第2方向にゲートを通過したことを判定する第2判定手段と、
    記第2判定手段によって前記追尾手段により追尾される人物が前記第2方向にゲートを通過したことが判定された場合に、当該人物を撮像した画像の撮像時刻を2時刻として取得する第2取得手段と、
    前記第1時刻と、前記第2時刻と、に基づいて、前記照合手段により照合された人物が前記所定領域に滞留した時間である滞留時間を導出する導出手段と、を有し、
    前記関連付け手段は、前記第2判定手段の判定結果に基づいて、前記追尾手段により追尾される人物が前記第2方向にゲートを通過したことを示す退場フラグ、を前記追尾手段により追尾される人物に対して関連付けし、
    前記導出手段は、前記退場フラグが関連付けられた人物のうち、前記照合手段によって照合された人物がいる場合は前記滞留時間を導出し、前記退場フラグが関連付けられた人物のうち、前記照合手段によって照合された人物がいない場合は前記滞留時間を導出しないことを特徴とするシステム。
  10. 所定領域に入場または退場するためのゲートを含む画像から人物を検出する検出工程と、
    前記検出工程により検出される人物を追尾する追尾工程と、
    前記追尾工程により追尾される人物が前記所定領域の外から内へ向かう方向である第1方向にゲートを通過したことを判定する第1判定工程と、
    前記第1判定工程により追尾される人物が前記第1方向にゲートを通過したことが判定された場合に、当該人物を撮像した画像の撮像時刻を第1時刻として取得する第1取得工程と、
    前記追尾工程により前記所定領域の外にいる状態から追尾される人物を含む複数の画像から、所定の条件を満たす画像を当該人物の登録画像として抽出する抽出工程と、
    前記登録画像と、当該登録画像に対応する人物が前記第1方向にゲートを通過した前記第1時刻と、を前記追尾工程による当該人物の追尾により関連付ける第1関連付け工程と、
    前記所定領域の内にいる状態から追尾される人物が撮像された複数の画像のうち少なくとも1つの画像と、前記登録画像と、に基づいて、当該人物と前記登録画像に対応する人物とが同一人物かを照合する照合工程と、
    前記追尾工程により追尾される人物が前記所定領域の内から外へ向かう方向である第2方向にゲートを通過したことを判定する第2判定工程と、
    記第2判定工程によって前記追尾工程により追尾される人物が前記第2方向にゲートを通過したことが判定された場合に、当該人物を撮像した画像の撮像時刻を2時刻として取得する第2取得工程と、
    前記照合工程により照合された人物と、当該人物が前記第2方向にゲートを通過した前記第2時刻と、を前記追尾工程による追尾により関連付ける第2関連付け工程と、
    前記第1時刻と、前記第2時刻と、に基づいて、前記照合工程により照合された人物が前記所定領域に滞留した時間である滞留時間を導出する導出工程とを有し、
    前記関連付け工程は、前記第2判定工程の判定結果に基づいて、前記追尾工程により追尾される人物が前記第2方向にゲートを通過したことを示す退場フラグ、を前記追尾工程により追尾される人物に対して関連付けし、
    前記導出工程は、前記退場フラグが関連付けられた人物のうち、前記照合工程によって照合された人物がいる場合は前記滞留時間を導出し、前記退場フラグが関連付けられた人物のうち、前記照合工程によって照合された人物がいない場合は前記滞留時間を導出しないことを特徴とする情報処理方法。
  11. コンピュータを、請求項1乃至8のいずれか一項に記載された情報処理装置の各手段として機能させるためのプログラム。
JP2018197020A 2018-10-18 2018-10-18 情報処理装置、情報処理方法、システムおよびプログラム Active JP7327923B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018197020A JP7327923B2 (ja) 2018-10-18 2018-10-18 情報処理装置、情報処理方法、システムおよびプログラム
US16/592,686 US11210528B2 (en) 2018-10-18 2019-10-03 Information processing apparatus, information processing method, system, and storage medium to determine staying time of a person in predetermined region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018197020A JP7327923B2 (ja) 2018-10-18 2018-10-18 情報処理装置、情報処理方法、システムおよびプログラム

Publications (3)

Publication Number Publication Date
JP2020064531A JP2020064531A (ja) 2020-04-23
JP2020064531A5 JP2020064531A5 (ja) 2021-11-25
JP7327923B2 true JP7327923B2 (ja) 2023-08-16

Family

ID=70279286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018197020A Active JP7327923B2 (ja) 2018-10-18 2018-10-18 情報処理装置、情報処理方法、システムおよびプログラム

Country Status (2)

Country Link
US (1) US11210528B2 (ja)
JP (1) JP7327923B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111565300B (zh) * 2020-05-22 2020-12-22 深圳市百川安防科技有限公司 基于对象的视频文件处理方法、设备及系统
WO2021247004A1 (en) * 2020-06-02 2021-12-09 Hewlett-Packard Development Company, L.P. Data extraction from identification badges

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003659A (ja) 2007-06-21 2009-01-08 Sony Corp 認証装置、入場管理装置、入退場管理装置、入場管理システム、入退場管理システム、これらの処理方法およびプログラム
JP2010061465A (ja) 2008-09-04 2010-03-18 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2012208610A (ja) 2011-03-29 2012-10-25 Secom Co Ltd 顔画像認証装置
JP2018036788A (ja) 2016-08-30 2018-03-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018074446A (ja) 2016-10-31 2018-05-10 パナソニックIpマネジメント株式会社 集合住宅用インターホンシステム
WO2018180588A1 (ja) 2017-03-27 2018-10-04 株式会社日立国際電気 顔画像照合システムおよび顔画像検索システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249138A (ja) 1994-03-09 1995-09-26 Nippon Telegr & Teleph Corp <Ntt> 滞留時間計測方法
JP6555481B2 (ja) 2016-06-14 2019-08-07 パナソニックIpマネジメント株式会社 映像監視システム
US10089521B2 (en) * 2016-09-02 2018-10-02 VeriHelp, Inc. Identity verification via validated facial recognition and graph database
EP3557525B1 (en) * 2016-12-16 2021-04-07 Panasonic Intellectual Property Management Co., Ltd. Face image processing method and face image processing device
JP2018120644A (ja) 2018-05-10 2018-08-02 シャープ株式会社 識別装置、識別方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003659A (ja) 2007-06-21 2009-01-08 Sony Corp 認証装置、入場管理装置、入退場管理装置、入場管理システム、入退場管理システム、これらの処理方法およびプログラム
JP2010061465A (ja) 2008-09-04 2010-03-18 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2012208610A (ja) 2011-03-29 2012-10-25 Secom Co Ltd 顔画像認証装置
JP2018036788A (ja) 2016-08-30 2018-03-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018074446A (ja) 2016-10-31 2018-05-10 パナソニックIpマネジメント株式会社 集合住宅用インターホンシステム
WO2018180588A1 (ja) 2017-03-27 2018-10-04 株式会社日立国際電気 顔画像照合システムおよび顔画像検索システム

Also Published As

Publication number Publication date
US20200125855A1 (en) 2020-04-23
US11210528B2 (en) 2021-12-28
JP2020064531A (ja) 2020-04-23

Similar Documents

Publication Publication Date Title
US11107225B2 (en) Object recognition device and computer readable storage medium
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
US20150379332A1 (en) Face authentication device and face authentication method
JP6409929B1 (ja) 照合システム
WO2015165365A1 (zh) 一种人脸识别方法及系统
KR20190136349A (ko) 3d 영상 기반의 얼굴 인증 방법 및 장치
JP2010244089A (ja) 人物検出装置、人物検出方法、及び人物検出プログラム
WO2019151117A1 (ja) 情報処理装置
JP2016163328A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6468725B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
US10360441B2 (en) Image processing method and apparatus
JP7484985B2 (ja) 認証システム、認証方法、及び、プログラム
JP2012208610A (ja) 顔画像認証装置
JP7327923B2 (ja) 情報処理装置、情報処理方法、システムおよびプログラム
JP6947202B2 (ja) 照合システム
JP2019053674A (ja) 照合システム
JP2020077399A (ja) 情報処理装置
JP2023537059A (ja) 情報処理装置、情報処理方法、及び記憶媒体
CN111797652A (zh) 对象跟踪方法、设备及存储介质
JP2022550846A (ja) 情報処理装置、情報処理方法および記憶媒体
JP2020063659A (ja) 情報処理システム
JP5871765B2 (ja) 顔画像認証装置
JP5955057B2 (ja) 顔画像認証装置
JP6774036B2 (ja) 照合システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211007

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230803

R151 Written notification of patent or utility model registration

Ref document number: 7327923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151