JP6921694B2 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
JP6921694B2
JP6921694B2 JP2017180836A JP2017180836A JP6921694B2 JP 6921694 B2 JP6921694 B2 JP 6921694B2 JP 2017180836 A JP2017180836 A JP 2017180836A JP 2017180836 A JP2017180836 A JP 2017180836A JP 6921694 B2 JP6921694 B2 JP 6921694B2
Authority
JP
Japan
Prior art keywords
image
best shot
unit
collation
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017180836A
Other languages
English (en)
Other versions
JP2019057815A (ja
Inventor
廣大 齊藤
廣大 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017180836A priority Critical patent/JP6921694B2/ja
Priority to SG10201808156QA priority patent/SG10201808156QA/en
Priority to US16/136,912 priority patent/US10706502B2/en
Publication of JP2019057815A publication Critical patent/JP2019057815A/ja
Application granted granted Critical
Publication of JP6921694B2 publication Critical patent/JP6921694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、監視システムに関する。
所定位置を撮像部により撮像して得られる撮像画像に含まれる対象物(例えば、人物)の画像と、予め設定された対象物の登録画像との照合処理を実行して、予め設定された対象物を検索する監視端末を備えた監視システムが開発されている。
特許第5753966号公報 特許第5454233号公報
ところで、上記の監視システムには、撮像部の撮像により得られる撮像画像から特徴を抽出し、特徴の抽出結果に基づいて、撮像画像からベストショット画像を選択し、当該ベストショット画像を用いて照合処理を実行するものがあるが、全ての撮像画像に対して特徴を抽出する処理を実行するため、監視端末における計算コストが大きくなる。また、上記の監視システムには、撮像部の撮像により得られる全ての撮像画像を用いて、登録画像との照合に適した画像を合成し、当該合成した画像を用いて照合処理を実行するものがあるが、画像の合成により監視端末にかかる計算コストが大きくなる。
実施形態の監視システムは、監視端末とサーバとを有する。監視端末は、検出部と、追跡部と、第1選択部と、送信部と、を備える。検出部は、撮像部によって所定位置を撮像して得られる動画像を構成する各フレームから対象物の画像である対象物画像を検出する。追跡部は、フレーム間において同一の対象物の対象物画像を追跡する。第1選択部は、所定の選択処理のうち一部の選択処理であり、同一の対象物の対象物画像から、所定画像との照合に適した第1ベストショット画像を選択する第1選択処理を実行する。送信部は、第1ベストショット画像をサーバに送信する。サーバは、受信部と、第2選択部と、照合部と、出力部と、を備える。受信部は、監視端末から第1ベストショット画像を受信する。第2選択部は、所定の選択処理のうち第1選択処理以外の選択処理であり、かつ第1ベストショット画像から、所定画像との照合に適した第2ベストショット画像を選択する第2選択処理を実行する。照合部は、第2ベストショット画像と所定画像とを照合する照合処理を実行する。出力部は、照合処理の結果を出力する。
図1は、第1の実施形態にかかる人物検索システムの構成の一例を示す図である。 図2は、第1の実施形態にかかる監視端末による第1ベストショット画像の選択処理の流れの一例を示すフローチャートである。 図3は、第1の実施形態にかかるサーバによる照合処理の流れの一例を示すフローチャートである。 図4は、第1の実施形態にかかる人物検索システムにおける照合結果の表示例を示す図である。 図5は、第2の実施形態にかかる監視システムを適用した本人照合システムの構成の一例を示す図である。
以下、添付の図面を用いて、本実施形態にかかる監視システムを適用した人物検索システムおよび本人照合システムについて説明する。
(第1の実施形態)
図1は、第1の実施形態にかかる人物検索システムの構成の一例を示す図である。本実施形態にかかる人物検索システムは、図1に示すように、監視端末100と、サーバ200と、を有する。監視端末100は、撮像部101と、追跡部102と、第1ベストショット選択部103と、送信部104と、を備える。撮像部101は、道路、駅、空港などの予め設定された位置(以下、所定位置と言う)を撮像可能に設けられる。追跡部102は、撮像部101により所定位置を撮像して得られる動画像を構成する各フレームから対象物(例えば、ブラックリスト等に含まれる人物の顔)の画像(以下、顔画像と言う。対象物画像の一例)を検出する。また、追跡部102は、フレーム間において同一の人物の顔画像を追跡する。本実施形態では、追跡部102は、監視端末100が有する撮像部101の撮像により得られる動画像を構成する各フレームから顔画像を検出しているが、監視端末100の外部の撮像部により所定位置を撮像して得られる動画像のフレームから顔画像を検出しても良い。
第1ベストショット選択部103は、予め設定された選択処理(所定の選択処理)のうち一部の選択処理であり、かつ追跡部102により追跡した同一の人物の顔画像から、予め設定された対象物の画像(以下、登録画像と言う。所定画像の一例)との照合に適した第1ベストショット画像を選択する第1選択処理を実行する。ここで、予め設定された選択処理は、登録画像との照合に適したベストショット画像を選択する処理の候補である。本実施形態では、第1選択処理は、サーバ200において実行される選択処理に要する計算リソースよりも少ない計算リソースで実行可能な処理である。送信部104は、第1ベストショット選択部103により選択される第1ベストショット画像をサーバ200に送信する。本実施形態では、監視端末100の各部(追跡部102、第1ベストショット選択部103、および送信部104は、サーバ200が有する計算機と比較して、性能の低い計算機(プロセッサ)により実現されるものとする。
サーバ200は、受信部201と、第2ベストショット選択部202と、照合部203と、を有する、受信部201は、監視端末100から、第1ベストショット画像を受信する。第2ベストショット選択部202は、予め設定された選択処理のうち第1選択処理以外の選択処理であり、かつ第1ベストショット画像から、登録画像との照合に適した第2ベストショット画像を選択する第2選択処理を実行する。ここで、第2選択処理は、第1選択処理に要する計算リソースより多い計算リソースで実行される処理である。すなわち、本実施形態では、人物検索システムは、照合部203による登録画像との照合に用いるベストショット画像の選択を、監視端末100およびサーバ200において2段階で実行する。
照合部203は、第2ベストショット画像と、登録画像と、を照合する照合処理を実行する。また、照合部203は、照合処理の結果を、監視端末100やサーバ200等が有する表示装置に出力(表示)する。本実施形態では、サーバ200の各部(受信部201、第2ベストショット選択部202、および照合部203は、監視端末100が有する計算機と比較して、性能の高い計算機(プロセッサ)により実現されるものとする。
このように、登録画像との照合に適したベストショット画像の選択処理を、監視端末100およびサーバ200において2段階で行うことにより、登録画像との照合に用いるベストショット画像の選択を監視端末100のみで行う必要が無くなるので、照合処理によって監視端末100にかかる計算リソースおよび計算コストを削減できる。また、フレームから検出される顔画像のうち第1ベストショット画像のみをサーバ200に送るので、監視端末100とサーバ200間における画像等の伝送量を削減できる。
本実施形態では、人物検索システムでは、フレームに含まれる顔画像を対象物の画像として検出しているが、これに限定するものではなく、例えば、自動車の画像(車両本体の画像、ナンバープレートの画像)、真贋を判定するブランド品の画像など、フレームからの検出、追跡、登録画像との照合が可能な画像であれば良い。
次に、監視端末100が有する各部において実行される具体的な処理について説明する。撮像部101は、所定位置を通過する人物の顔を正面から撮像可能に設けられている。図1に示す例では、監視端末100は、1つの撮像部101を有しているが、所定位置を異なる方向から撮像する複数の撮像部101を有していても良い。追跡部102は、撮像部101の撮像により得られる動画像を構成する各フレームから、顔画像を検出する検出部の一例として機能する。具体的には、追跡部102は、フレーム上において、顔画像のテンプレート(以下、顔テンプレートと言う)を平行移動、回転、拡大、または縮小させながら走査する。次いで、追跡部102は、フレーム上において、顔テンプレートとの輝度値の差分が最も小さい位置を顔画像として検出する。ここで、顔テンプレートは、複数の顔画像の平均である矩形の平均画像である。
また、追跡部102は、フレーム内における顔画像の位置およびフレーム間における顔画像の移動量等に基づいて、連続するフレーム間において同一の人物の顔画像を追跡する。具体的には、追跡部102は、連続するフレーム間において検出される矩形の顔画像が重なる面積が予め設定された値以上である場合、当該連続するフレーム間において検出された顔画像が同一の人物の顔画像と判断する。一方、追跡部102は、連続するフレーム間において検出される矩形の顔画像が重なる面積が予め設定された値より小さい場合、当該連続するフレーム間において検出された顔画像が異なる人物の顔画像と判断する。
第1ベストショット選択部103は、予め設定された選択処理のうち一部の選択処理であり、かつ追跡部102により同一の人物の顔画像と判断された顔画像の中から、第1ベストショット画像を選択する第1選択処理を実行する。本実施形態では、第1選択処理は、同一人物の顔画像として追跡された複数の顔画像のうち、フレーム内において占める面積が大きい顔画像、正面向きの顔画像、笑顔などの表情の変化が無い顔画像、または目を閉じていない顔画像を、第1ベストショット画像として選択する。また、本実施形態では、第1選択処理は、第2選択処理に要する計算リソースより少ない計算リソースでベストショット画像を選択する処理である。
例えば、同一人物の顔画像として追跡された複数の顔画像のうちフレーム内において占める面積が大きい顔画像を選択する処理を第1選択処理として実行する場合、第1ベストショット選択部103は、同一人物の顔画像として追跡された顔画像毎に、フレーム内において当該顔画像を構成する画素の数を計数し、計数した数に従って、顔画像の面積を求める。そして、第1ベストショット選択部103は、求めた面積が予め設定された面積以上である場合に、当該顔画像を第1ベストショット画像として選択する。ここで、第1ベストショット選択部103は、追跡部102により同一人物の顔画像として追跡された顔画像のフレーム内における位置情報に基づいて、顔画像を構成する画素の数を計数する。具体的には、第1ベストショット選択部103は、顔画像の特徴部である目、鼻、および口を含む矩形を求め、当該矩形に含まれる画素の数に従って、顔画像の面積を算出する。面積が小さい顔画像は解像度が不十分であるため、登録画像との照合処理の精度が低くなる可能性があるため、面積が大きい顔画像を第1ベストショット画像として選択することで、登録画像との照合処理の精度を向上させることができる。
また、同一人物の顔画像として追跡された複数の顔画像のうち正面向きの顔画像を選択する処理を第1選択処理として実行する場合、第1ベストショット選択部103は、様々な顔の向きの顔画像を用いて、顔画像の角度を識別する識別器を学習する。次いで、第1ベストショット選択部103は、学習した識別器を用いて、同一人物の顔画像として追跡された顔画像毎に、当該顔画像の角度を推定する。そして、第1ベストショット選択部103は、同一人物の顔画像として追跡された複数の顔画像のうち、推定した顔画像の角度が、所定の角度と一致した顔画像を、正面向きの顔画像を第1ベストショット画像として選択する。ここで、所定の角度は、予め設定された顔画像の角度であり、顔画像が正面向きであると判断する角度である。
また、同一人物の顔画像として追跡された複数の顔画像のうち表情の変化が無い素顔の顔画像を選択する処理を第1選択処理として実行する場合、第1ベストショット選択部103は、素顔の顔画像および表情の変化を有する顔画像を用いて、素顔の顔画像か若しくは表情の変化を有する顔画像かを識別する2クラス識別器を学習する。次いで、第1ベストショット選択部103は、学習した2クラス識別器を用いて、同一人物の顔画像として追跡された顔画像毎に、当該顔画像が、素顔の顔画像か若しくは表情の変化を有する顔画像かを推定する。そして、第1ベストショット選択部103は、同一人物の顔画像として追跡された複数の顔画像のうち、素顔の顔画像と推定された顔画像を第1ベストショット画像として選択する。また、第1ベストショット選択部103は、無表情な顔画像、表情がある顔画像(例えば、笑顔の顔画像)と無表情な顔画像との中間の顔画像、笑顔の顔画像それぞれに対応するサンプルの顔画像を収集し、それぞれの笑顔度(例えば、0、0.5、または1)を設定する。次いで、第1ベストショット選択部103は、サポートベクター回帰によって、設定した笑顔度の顔画像を学習する。これにより、第1ベストショット選択部103は、同一人物の顔画像それぞれの笑顔度を求めることが可能となる。そして、第1ベストショット選択部103は、同一人物の顔画像のうち、笑顔度の低い顔画像(例えば、笑顔度が0.5以下の顔画像)を第1ベストショット画像として選択する。これにより、表情の変化に起因する、顔画像と登録画像との類似度の低下を防止できる。
また、同一人物の顔画像として追跡された複数の顔画像のうち目を開いた顔画像を選択する処理を第1選択処理として実行する場合、第1ベストショット選択部103は、目を開いた顔画像および目を閉じた顔画像を用いて、目を開いた顔画像か若しくは目を閉じた顔画像かを識別する2クラス識別器を学習する。次いで、第1ベストショット選択部103は、学習した2クラス識別器を用いて、同一人物の顔画像として追跡された顔画像毎に、目を開いた顔画像か若しくは目を閉じた顔画像かを推定する。そして、第1ベストショット選択部103は、上記の2クラス識別器の出力値(すなわち、目を開いた顔画像か若しくは目を閉じた顔画像か)に基づいて、同一人物の顔画像として追跡された複数の顔画像のうち、目を開いた顔画像と推定された顔画像を第1ベストショット画像として選択する。なお、第1ベストショット選択部103は、顔画像から目を検出する際、顔画像上において、人間の目のテンプレート(以下、目テンプレートと言う)を平行移動、回転、または縮小させながら走査し、顔画像上において、目テンプレートとの輝度値の差分が最も小さい位置を目の画像として検出する。これにより、表情の変化に起因する、顔画像と登録画像との類似度の低下を防止できる。
また、第1ベストショット選択部103は、上述した複数の第1選択処理を用いて、第1ベストショット画像を選択することも可能である。具体的には、第1ベストショット選択部103は、フレームから検出される顔画像に対して複数の第1選択処理を実行し、ベストショット画像として選択される度に、当該顔画像に対して当該各第1選択処理に予め設定された重みを付与する。次いで、第1ベストショット選択部103は、顔画像に付与された重みを加算した値から、回帰分析によって、ベストショットの度合い(以下、ベストショット度と言う)を推定する。ここで、ベストショット度は、登録画像との照合に適する度合いである。本実施形態では、ベストショット度は、登録画像との類似度(以下、本人類似度と言う)が高くなる度合いである。そして、第1ベストショット選択部103は、推定されたベストショット度が予め設定された値以上の顔画像を第1ベストショット画像として選択する。または、第1ベストショット選択部103は、登録画像とフレームから検出した顔画像を学習データとし、かつ顔画像の面積、顔画像の向き、顔画像の笑顔度等を変数として、同一人物の顔画像として追跡された顔画像と登録画像との類似度を回帰する学習(例えば、最小二乗法)を行うことで、上記の各第1選択処理による顔画像の選択結果の付与する重みを求める。そして、第1ベストショット選択部103は、各第1選択処理に付与された重みと、当該第1選択処理により求めた値(例えば、顔画像の面積、顔画像の向き、顔画像の笑顔度)との積の合計が高いものから順に、予め設定された数分の顔画像を第1ベストショット画像として選択する。
また、第1ベストショット選択部103は、登録画像または照合部203における照合処理に用いた第2ベストショット画像の輝度値をベクトル情報として、回帰分析によって、フレームから検出される同一の人物の顔画像から、第1ベストショット画像を選択する処理を第1選択処理として実行しても良い。
また、第1ベストショット選択部103は、同一の人物の顔画像(追跡対象i)から選択しかつ監視端末100内に保存する第1ベストショット画像の枚数N(i)を予め設定しておく。第1ベストショット選択部103は、監視端末100内において第1ベストショット画像を保存可能な枚数の上限および下限を予め設定しておき、その範囲内において、枚数N(i)を設定する。そして、第1ベストショット選択部103は、追跡対象iから、予め設定された枚数N(i)の第1ベストショット画像を選択し、当該選択した第1ベストショット画像を監視端末100が有するメモリに保存する。第1ベストショット選択部103は、監視端末100が有するメモリの容量に応じて、枚数N(i)を設定しても良い。また、第1ベストショット選択部103は、監視端末100が有する計算リソースのうち、第1ベストショット画像の選択に使用可能な計算リソースに応じて、枚数N(i)を設定しても良い。
送信部104は、第1ベストショット選択部103により選択される第1ベストショット画像のうち少なくとも1枚の第1ベストショット画像を、サーバ200に送信する。また、送信部104は、監視端末100とサーバ200との間の通信容量またはサーバ200の処理負荷に応じて、サーバ200に送信する第1ベストショット画像の枚数K(i)を決定する。そして、送信部104は、監視端末100が有するメモリに記憶される同一の人物の第1ベストショット画像から、決定した枚数K(i)の第1ベストショット画像を選択して、サーバ200に送信することも可能である。また、送信部104は、サーバ200における第2ベストショット画像と登録画像との照合結果に基づいて、枚数K(i)の上限および下限を設定し、その範囲内において、枚数K(i)を設定する。例えば、送信部104は、第2ベストショット画像と登録画像との本人類似度が予め設定された類似度より高くなった第2ベストショット画像の枚数が予め設定された枚数より少ない場合、枚数K(i)を増やす。一方、送信部104は、第2ベストショット画像と登録画像との本人類似度が予め設定された類似度より高くなった第2ベストショット画像の枚数が予め設定された枚数より多い場合、枚数K(i)を減らす。
次に、サーバ200が有する各部において実行される具体的な処理について説明する。受信部201は、監視端末100から送信される少なくとも1枚の第1ベストショット画像を受信する。第2ベストショット選択部202は、予め設定された選択処理のうち第1選択処理以外の選択処理であり、かつ受信した第1ベストショット画像から、少なくとも1枚の第2ベストショット画像を選択する第2選択処理を実行する。本実施形態では、第2ベストショット選択部202は、第2ベストショット画像の選択結果、および第2ベストショット画像と登録画像との類似度である本人類似度に基づいて、ディープニューラルネットワーク等によって、受信した第1ベストショット画像のベストショット度を算出する。そして、第2ベストショット選択部202は、受信した第1ベストショット画像のうち、算出したベストショット度が所定値以上の画像を第2ベストショット画像として選択する。これにより、予め設定された複数の選択処理のうち多くの計算リソースを要する第2選択処理をサーバ200において実行することで、監視端末100におけるベストショット画像の選択に要する計算リソースおよび計算コストをより削減できる。
または、第2ベストショット選択部202は、第1ベストショット画像のうちその画質が予め設定された画質より高い第1ベストショット画像を第2ベストショット画像として選択しても良い。その際、第2ベストショット選択部202は、第1ベストショット画像として顔画像の画素値の平均値を明るさの指標(画質の一例)として求め、当該平均値が、予め設定された値より高い第1ベストショット画像を、第2ベストショット画像として選択する。本実施形態では、第2ベストショット選択部202は、監視端末100が有する第1ベストショット選択部103により実行する第1選択処理とは異なる種類の選択処理によって、第2ベストショット画像を選択しているが、第1選択処理と同じ種類の選択処理によって、第2ベストショット画像を選択しても良い。その場合、第2ベストショット選択部202は、第1選択処理とは異なるパラメータを用いて、第2選択処理を実行することも可能である。
照合部203は、登録画像を記憶する記憶部を有する。そして、照合部203は、第2ベストショット画像と当該記憶部に記憶される登録画像とを照合する照合処理を実行する。本実施形態では、照合部203は、第2ベストショット画像と登録画像との類似度である本人類似度を算出する。そして、照合部203は、算出した本人類似度に基づいて、所定位置を通過した人物が予め設定された人物であるか否かを判断する。
また、照合部203は、照合処理の結果を出力する出力部としても機能する。本実施形態では、照合部203は、第2ベストショット画像について算出した本人類似度を照合処理の結果として出力する。例えば、照合部203は、第1ベストショット画像、第2ベストショット画像、登録画像、および本人類似度を、監視端末100またはサーバ200が有する表示部に表示させる。
また、照合部203(学習部の一例)は、第2ベストショット画像と登録画像との照合結果に基づいて、第1ベストショット画像のベストショット度が高くなる第1選択処理のパラメータを学習する。または、照合部203は、サーバ200が有する入力部を介して人物検索システムの管理者等によって入力された第2ベストショット画像のベストショット度、または第2ベストショット画像の本人類似度に基づいて、第1選択処理のパラメータを学習しても良い。そして、照合部203は、学習した第1選択処理のパラメータを、監視端末100に送信する。
本実施形態では、照合部203は、第1ベストショット画像として選択する顔画像を構成する画素の数、第1ベストショット画像として選択する顔画像の角度、第1ベストショット画像として選択する顔画像の表情、第1ベストショット画像として選択する顔画像が含む目の状態(目が開いているか否か)、複数の第1選択処理を用いて第1ベストショット画像を選択する場合において各第1選択処理に設定する重みなどを、第1選択処理のパラメータとして学習する。そして、監視端末100の第1ベストショット選択部103は、サーバ200から受信するパラメータに従って、第1選択処理を実行するものとする。これにより、登録画像との照合により適した第1ベストショット画像を選択可能となるので、フレームから検出される顔画像と登録画像との照合精度を向上させることができる。
また、照合部203は、第2ベストショット画像と登録画像との照合結果に基づいて、第2ベストショット画像のベストショット度が高くなる第2選択処理のパラメータを学習する。そして、第2ベストショット選択部202は、照合部203により学習されたパラメータに従って、第2選択処理を実行しても良い。これにより、登録画像との照合により適した第2ベストショット画像を選択可能となるので、フレームから検出される顔画像と登録画像との照合精度を向上させることができる。
次に、図2を用いて、本実施形態にかかる監視端末100による第1ベストショット画像の選択処理の流れの一例について説明する。図2は、第1の実施形態にかかる監視端末による第1ベストショット画像の選択処理の流れの一例を示すフローチャートである。
追跡部102は、まず、撮像部101から、当該撮像部101によって所定位置を撮像して得られる動画像を構成するフレームを取得する(ステップS301)。次いで、追跡部102は、取得したフレームから顔画像を検出する(ステップS302)。そして、追跡部102は、フレームから顔画像を検出したか否かを判断する(ステップS303)。フレームから顔画像が検出されなかった場合(ステップS303:No)、追跡部102は、ステップS301に戻り、撮像部101から、新たなフレームを取得する。
一方、フレームから顔画像を検出した場合(ステップS303:Yes)、追跡部102は、連続するフレーム間における同一の人物の顔画像を追跡する(ステップS304)。次いで、追跡部102は、同一の人物の顔画像の追跡が終了したか、すなわち、同一の人物の顔画像がフレームから検出されなくなったかを判断する(ステップS305)。同一の人物の顔画像がフレームから検出されなくなり、同一の人物の顔画像の追跡が終了したと判断した場合(ステップS305:Yes)、追跡部102は、同一の人物の顔画像から、第1ベストショット画像を選択する第1選択処理を実行する(ステップS306)。そして、送信部104は、選択された第1ベストショット画像のうち少なくとも1つの第1ベストショット画像を、サーバ200に送信する(ステップS307)。
次に、図3を用いて、本実施形態にかかるサーバ200による照合処理の流れの一例について説明する。図3は、第1の実施形態にかかるサーバによる照合処理の流れの一例を示すフローチャートである。
受信部201は、まず、監視端末100から、第1ベストショット画像を受信する(ステップS401)。第2ベストショット選択部202は、受信した第1ベストショット画像の中から、第2ベストショット画像を選択する第2選択処理を実行する(ステップS402)。照合部203は、選択した第2ベストショット画像の特徴量を抽出する(ステップS403)。そして、照合部203は、第2ベストショット画像の特徴量および登録画像の特徴量との本人類似度を算出し、所定位置を通過した人物が予め設定された人物であるか否かを判断する照合処理を実行する(ステップS404)。例えば、照合部203は、本人類似度が予め設定された値を超えた場合、所定位置を通過した人物が予め設定された人物であると判断する。
次いで、第2ベストショット選択部202は、第2ベストショット画像について算出した本人類似度が予め設定された第1閾値より大きいか否かを判断する(ステップS405)。第2ベストショット画像について算出した本人類似度が第1閾値より大きい場合(ステップS405:Yes)、第2ベストショット選択部202は、ステップS401に戻り、新たな第1ベストショット画像を受信する。一方、第2ベストショット画像について算出した本人類似度が第1閾値以下である場合(ステップS405:No)、第2ベストショット選択部202は、本人類似度が第1閾値より小さい第2ベストショット画像の数である画像数nをインクリメントする(ステップS406)。その後、第2ベストショット選択部202は、画像数nが、第1選択処理のパラメータの更新を要すると判断する第2閾値より多いか否かを判断する(ステップS407)。
画像数nが第2閾値より多いと判断された場合(ステップS407:Yes)、第2ベストショット選択部202は、第2ベストショット画像の照合結果に基づいて、第1ベストショット画像のベストショット度が高くなる第1選択処理のパラメータを学習する(ステップS408)。さらに、第2ベストショット選択部202は、学習したパラメータを監視端末100に送信し、かつ画像数nを0にリセットする(ステップS409)。
次に、図4を用いて、本実施形態にかかる人物検索システムにおける照合結果の表示例について説明する。図4は、第1の実施形態にかかる人物検索システムにおける照合結果の表示例を示す図である。
本実施形態では、照合部203は、図4に示すように、監視端末100から受信した第1ベストショット画像を、人物検索システムが有する監視端末100毎に配置した第1ベストショット画像一覧G1を含む表示画面Gを表示する。その際、照合部203は、図4に示すように、第1ベストショット画像をベストショット度が高い順に並べて表示する。
また、照合部203は、図4に示すように、第2ベストショット選択部202により選択される第2ベストショット画像を、監視端末100毎に配置した第2ベストショット画像一覧G2を含む表示画面Gを表示する。その際、照合部203は、図4に示すように、第2ベストショット画像を、当該第2ベストショット画像について算出される本人類似度が高い順に並べて表示する。さらに、照合部203は、図4に示すように、各第2ベストショット画像について算出される本人類似度を第2ベストショット画像一覧G2に含めても良い。さらに、照合部203は、図4に示すように、登録画像を配置した登録画像一覧G3を含む表示画面Gを表示する。
このように、第1の実施形態にかかる人物検索システムによれば、登録画像との照合に適したベストショット画像の選択処理を、監視端末100およびサーバ200において2段階で行うことにより、登録画像との照合に用いるベストショット画像の選択を監視端末100のみで行う必要が無くなるので、照合処理によって監視端末100にかかる計算リソースおよび計算コストを削減できる。
(第2の実施形態)
本実施形態は、所定位置を通過する人物が所持する記録媒体から、画像を読み取り、当該読み取った画像を登録画像として用いて、第2ベストショット画像と照合する例である。以下の説明では、第1の実施形態と同様の構成については説明を省略する。
図5は、第2の実施形態にかかる監視システムを適用した本人照合システムの構成の一例を示す図である。本実施形態にかかる本人照合システムは、図5に示すように、監視端末600が、撮像部101、追跡部102、第1ベストショット選択部103、および送信部601に加えて、識別情報読取部602を有する。
識別情報読取部602は、所定位置を通過する対象物が所持するIDカード(記録媒体の一例)から、対象物の画像を読み取る。本実施形態では、識別情報読取部602は、所定位置を通過する人物の立ち位置から手の届く範囲に設置される。また、IDカードは、例えば、旅券、運転免許証、マイナンバーカード、その他、対象物の画像を記録可能な媒体であれば良い。識別情報読取部602は、所定位置を通過する人物のみが知り得る識別情報を入力可能とする入力装置や、指紋や静脈などの生体情報を読み取る装置など、登録画像を取得可能とする情報を入力可能な装置であっても良い。
送信部601は、第1ベストショット選択部103により選択される第1ベストショット画像と共に、識別情報読取部602により読み取られる対象物の画像を、サーバ200に送信する。
そして、サーバ200の照合部203は、受信部201により第1ベストショット画像と共に受信する対象物の画像を登録画像として用いて、第2ベストショット画像と当該登録画像とを照合する照合処理を実行する。
このように、第2の実施形態にかかる本人照合システムによれば、所定位置を通過する人物が所持する記録媒体から、対象物の画像を読み取り、当該読み取った対象物の画像を登録画像として用いて、第2ベストショット画像と照合することにより、サーバ200において処理時間のかかる精密なベストショット選択処理を行うことで、本人照合端末(本実施形態では、監視端末600)の計算資源を節約できる。
以上説明したとおり、第1,2の実施形態によれば、照合処理によって監視端末100,600にかかる計算リソースおよび計算コストを削減できる。
なお、本実施形態の監視端末100,600およびサーバ200で実行されるプログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。本実施形態の監視端末100,600およびサーバ200で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、本実施形態の監視端末100,600およびサーバ200で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の監視端末100,600およびサーバ200で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
本実施形態の監視端末100,600で実行されるプログラムは、上述した各部(追跡部102、第1ベストショット選択部103、および送信部104,601)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、追跡部102、第1ベストショット選択部103、および送信部104,601が主記憶装置上に生成されるようになっている。
本実施形態のサーバ200で実行されるプログラムは、上述した各部(受信部201、第2ベストショット選択部202、および照合部203)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、受信部201、第2ベストショット選択部202、および照合部203が主記憶装置上に生成されるようになっている。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100,600 監視端末
101 撮像部
102 追跡部
103 第1ベストショット選択部
104,601 送信部
200 サーバ
201 受信部
202 第2ベストショット選択部
203 照合部
602 識別情報読取部

Claims (5)

  1. 監視端末とサーバとを有する監視システムであって、
    前記監視端末は、
    撮像部によって所定位置を撮像して得られる動画像を構成する各フレームから対象物の画像である対象物画像を検出する検出部と、
    前記フレーム間において同一の対象物の前記対象物画像を追跡する追跡部と、
    所定の選択処理のうち一部の選択処理であり、同一の対象物の前記対象物画像から、所定画像との照合に適した第1ベストショット画像を選択する第1選択処理を実行する第1選択部と、
    前記第1ベストショット画像を前記サーバに送信する送信部と、を備え、
    前記サーバは、
    前記監視端末から前記第1ベストショット画像を受信する受信部と、
    前記所定の選択処理のうち前記第1選択処理以外の選択処理であり、かつ前記第1ベストショット画像から、前記所定画像との照合に適した第2ベストショット画像を選択する第2選択処理を実行する第2選択部と、
    前記第2ベストショット画像と前記所定画像とを照合する照合処理を実行する照合部と、
    前記照合処理の結果を出力する出力部と、を備える監視システム。
  2. 前記照合部は、前記第2ベストショット画像と前記所定画像との類似度を算出し、
    前記出力部は、前記類似度を前記照合処理の結果として出力し、
    前記第2選択処理は、前記第2ベストショット画像の選択結果および前記類似度の算出結果に基づいて、前記第1ベストショット画像に対して、前記類似度が高くなる度合いであるベストショット度を算出し、前記第1ベストショット画像のうち、前記ベストショット度が所定値以上の画像を前記第2ベストショット画像として選択する請求項1に記載の監視システム。
  3. 前記監視端末は、前記所定位置を通過する人物が所持する記録媒体から、画像を読み取る読取部をさらに備え、
    前記送信部は、前記第1ベストショット画像と前記読み取った画像とを前記サーバに送信し、
    前記照合部は、前記読み取った画像を前記所定画像として、前記第2ベストショット画像と照合する請求項1または2に記載の監視システム。
  4. 前記サーバは、前記第2ベストショット画像と前記所定画像との照合結果に基づいて、前記第1ベストショット画像の前記ベストショット度が高くなる前記第1選択処理のパラメータを学習し、前記パラメータを前記監視端末に送信する学習部をさらに備える請求項2に記載の監視システム。
  5. 前記第1選択部は、前記サーバから受信する前記パラメータに従って、前記第1選択処理を実行する請求項4に記載の監視システム。
JP2017180836A 2017-09-21 2017-09-21 監視システム Active JP6921694B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017180836A JP6921694B2 (ja) 2017-09-21 2017-09-21 監視システム
SG10201808156QA SG10201808156QA (en) 2017-09-21 2018-09-19 Monitoring system
US16/136,912 US10706502B2 (en) 2017-09-21 2018-09-20 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017180836A JP6921694B2 (ja) 2017-09-21 2017-09-21 監視システム

Publications (2)

Publication Number Publication Date
JP2019057815A JP2019057815A (ja) 2019-04-11
JP6921694B2 true JP6921694B2 (ja) 2021-08-18

Family

ID=65720503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017180836A Active JP6921694B2 (ja) 2017-09-21 2017-09-21 監視システム

Country Status (3)

Country Link
US (1) US10706502B2 (ja)
JP (1) JP6921694B2 (ja)
SG (1) SG10201808156QA (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110324528A (zh) * 2018-03-28 2019-10-11 富泰华工业(深圳)有限公司 摄像装置、影像处理系统及方法
US11348370B2 (en) 2018-10-16 2022-05-31 Nec Corporation Iris authentication device, iris authentication method, and recording medium
JP2020190861A (ja) * 2019-05-21 2020-11-26 株式会社日立製作所 画像検索装置、画像検索方法
JP2021043914A (ja) * 2019-09-13 2021-03-18 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP7511352B2 (ja) * 2020-02-03 2024-07-05 キヤノン株式会社 情報処理システム、撮像装置及びその制御方法、プログラム
JP7475910B2 (ja) * 2020-03-18 2024-04-30 株式会社東芝 類別装置のための学習済みモデル生成装置、及び類別装置のための学習済みモデル生成方法
JP7129531B2 (ja) * 2020-11-30 2022-09-01 株式会社エクサウィザーズ 情報処理方法及び情報処理システム
JP6998027B1 (ja) 2020-11-30 2022-01-18 株式会社エクサウィザーズ 情報処理方法、情報処理システム、撮影装置、サーバ装置及びコンピュータプログラム
JP6940106B1 (ja) * 2020-11-30 2021-09-22 株式会社エクサウィザーズ 情報処理方法、情報処理システム、撮影装置、サーバ装置及びコンピュータプログラム
CN112818954B (zh) * 2021-03-17 2022-08-26 重庆紫光华山智安科技有限公司 车辆状态识别方法、装置、设备及介质
KR20230121399A (ko) * 2022-02-11 2023-08-18 현대자동차주식회사 차량 및 차량의 제어방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5453254A (en) 1977-10-04 1979-04-26 Chukyo Electric Co Method of takinggup condenser element and device therefor
JP3612220B2 (ja) 1998-09-18 2005-01-19 株式会社東芝 人物監視方法
TWI299471B (en) * 2001-08-24 2008-08-01 Toshiba Kk Person recognition apparatus
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
JP2007190076A (ja) * 2006-01-17 2007-08-02 Mitsubishi Electric Corp 監視支援システム
JP2007226741A (ja) 2006-02-27 2007-09-06 Mitsubishi Electric Corp 顔照合システム
JP4241763B2 (ja) * 2006-05-29 2009-03-18 株式会社東芝 人物認識装置及びその方法
JP5056061B2 (ja) * 2007-02-22 2012-10-24 株式会社ニコン 撮像装置
JP2010136032A (ja) * 2008-12-04 2010-06-17 Hitachi Ltd 映像監視システム
JP5454233B2 (ja) 2010-03-04 2014-03-26 日本電気株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5753966B2 (ja) 2010-08-05 2015-07-22 パナソニックIpマネジメント株式会社 顔画像登録装置および方法
WO2012148000A1 (ja) * 2011-04-28 2012-11-01 九州日本電気ソフトウェア株式会社 画像処理システム、人物同定方法、画像処理装置およびその制御方法と制御プログラム
US9195883B2 (en) * 2012-04-09 2015-11-24 Avigilon Fortress Corporation Object tracking and best shot detection system
US20150278585A1 (en) * 2012-04-18 2015-10-01 Vixs Systems, Inc. Video processing system for video surveillance and methods for use therewith
JP6024952B2 (ja) * 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
JP5962916B2 (ja) * 2012-11-14 2016-08-03 パナソニックIpマネジメント株式会社 映像監視システム
JP5785667B1 (ja) * 2015-02-23 2015-09-30 三菱電機マイコン機器ソフトウエア株式会社 人物特定システム
JP6044911B1 (ja) * 2015-07-24 2016-12-14 パナソニックIpマネジメント株式会社 入退室管理システム

Also Published As

Publication number Publication date
US10706502B2 (en) 2020-07-07
SG10201808156QA (en) 2019-04-29
US20190087937A1 (en) 2019-03-21
JP2019057815A (ja) 2019-04-11

Similar Documents

Publication Publication Date Title
JP6921694B2 (ja) 監視システム
KR102596897B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP5010905B2 (ja) 顔認証装置
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
US9098760B2 (en) Face recognizing apparatus and face recognizing method
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
US8938092B2 (en) Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program
JP6112801B2 (ja) 画像認識装置及び画像認識方法
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
KR102286571B1 (ko) 영상에서 다수의 객체를 인식하는 방법
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
CN111699509B (zh) 物体检测装置、物体检测方法以及记录介质
CN111582027A (zh) 身份认证方法、装置、计算机设备和存储介质
Benlamoudi et al. Face spoofing detection using multi-level local phase quantization (ML-LPQ)
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
US20140169664A1 (en) Apparatus and method for recognizing human in image
WO2021131029A1 (ja) フィルタ生成装置、推定装置、顔認証システム、フィルタ生成方法および記録媒体
JP5025713B2 (ja) 属性識別装置、および属性識別プログラム
CN110569692B (zh) 多车识别方法、装置及设备
JP2019106089A (ja) 情報処理装置、情報処理方法、コンピュータプログラム
JP2018036870A (ja) 画像処理装置及びプログラム
CN111597980B (zh) 一种目标对象聚类方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210728

R150 Certificate of patent or registration of utility model

Ref document number: 6921694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150