JP2017054493A - 情報処理装置及びその制御方法及びプログラム - Google Patents

情報処理装置及びその制御方法及びプログラム Download PDF

Info

Publication number
JP2017054493A
JP2017054493A JP2016144757A JP2016144757A JP2017054493A JP 2017054493 A JP2017054493 A JP 2017054493A JP 2016144757 A JP2016144757 A JP 2016144757A JP 2016144757 A JP2016144757 A JP 2016144757A JP 2017054493 A JP2017054493 A JP 2017054493A
Authority
JP
Japan
Prior art keywords
person
tracking
face
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016144757A
Other languages
English (en)
Other versions
JP2017054493A5 (ja
JP6775343B2 (ja
Inventor
昌弘 松下
Masahiro Matsushita
昌弘 松下
椎山 弘隆
Hirotaka Shiiyama
弘隆 椎山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP16001820.6A priority Critical patent/EP3142040A1/en
Priority to CN201610800799.1A priority patent/CN106529388A/zh
Priority to US15/260,822 priority patent/US10353954B2/en
Publication of JP2017054493A publication Critical patent/JP2017054493A/ja
Priority to US16/421,232 priority patent/US10762133B2/en
Publication of JP2017054493A5 publication Critical patent/JP2017054493A5/ja
Application granted granted Critical
Publication of JP6775343B2 publication Critical patent/JP6775343B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 照合データベースに登録する人物の全体もしくは一部の特徴量を、互いに同じ向きの特徴量となることを抑制することで、照合データベースが肥大することを抑制しつつ、かつ、人物の検出から照合データベースへの登録までに要する遅延時間を短くする。【解決手段】 このため、この発明の情報処理装置は、映像を取得する取得部、前記取得された映像の少なくとも1つのフレームより人物の全体もしくは一部を検出する検出部、前記検出された人物の全体もしくは一部を追尾する追尾部、前記追尾部による前記人物の全体もしくは一部の追尾が開始されてから前記追尾部による追尾が終了する前までの第1の期間に追尾された人物の全体もしくは一部から抽出された特徴量をデータベースに登録する登録部とを有する。【選択図】 図1

Description

本発明は、画像中の人物の照合を行う情報処理装置及びその制御方法、記憶媒体に関するものである。
従来、監視映像の各フレームから人間の全体もしくは一部(顔など)を検出し、その顔から画像特徴量を算出して映像のフレームと対応づけて蓄積しておく装置が知られている。たとえば、特許文献1に開示されている装置では、例えば迷子の子供の顔をクエリとして蓄積した画像特徴量と照合を行い、その子供が映っている映像を表示することが可能である。
しかしながら、文献1の技術は、映像の全てのフレームから検出される顔を全てデータベースに登録しており、蓄積する画像特徴量が膨大となる。そこで、フレームを間引きし、処理するフレームレートを低下させ、登録する顔の画像特徴量を減らすことが考えられるが、この場合、好ましい向き・大きさ・目の写り具体などの顔の特徴量が非登録となることもあり、照合漏れとなる原因になりかねない。
特開2013−153304号公報 特開2002−373332号公報
Erik Muphy−Chutorian, "Head pose estimation for driver assistance systems: A robust algorithm and experimental evaluation," in Proc. IEEE Conf. Intelligent Transportation Systems, 2007, pp. 709−714.
しかしながら、特許文献1の技術は、映像の全てのフレームから検出される顔を全てデータベースに登録しており、蓄積する画像特徴量が膨大となる。そこで、フレームを間引きし、処理するフレームレートを低下させ、登録する顔の画像特徴量を減らすことが考えられるが、この場合、好ましい向き・大きさ・目の写り具体などの顔の特徴量が非登録となることもあり、照合漏れとなる原因になりかねない。
本発明は、上記問題点に鑑みなされたものである。そして、本発明は、照合データベースに人物顔の全体もしくは一部から抽出される特徴量を登録するまでに要する時間の遅延を少なくする技術を提供しようとするものである。
この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、
映像を取得する取得手段と、
前記取得された映像の少なくとも1つのフレームより人物の全体もしくは一部を検出する検出手段と、
前記検出された人物の全体もしくは一部を追尾する追尾手段と、
前記追尾手段による前記人物の全体もしくは一部の追尾が開始されてから前記追尾手段による追尾が終了する前までの第1の期間に追尾された人物の全体もしくは一部から抽出された特徴量をデータベースに登録する登録手段とを有する。
本発明によれば、人物の検出から照合データベースへの人物の全体もしくは一部から抽出される特徴量の登録までに要する遅延時間を短くすることができる。
実施形態の装置のブロック構成図。 実施形態の装置の機能構成図。 実施形態に顔向きに応じた分類を説明するための図。 実施形態におけるオブジェクト追尾情報の内容を示す図。 実施形態における画像特徴量蓄積部の処理を説明するための図。 実施形態におけるオブジェクト追尾が開始と終了するタイミングの例を示す図。 実施形態における照合データベースの構造の例を示す図である。 第1の実施形態における映像蓄積処理を示すフローチャート。 図8におけるDB登録処理を示すフローチャート。 第1の実施形態における照合処理を示すフローチャート。
以下、添付図面に従って本発明に係る実施形態を詳細に説明する。なお、以下で説明する各実施形態は、本発明を具体的に実施した例を示すもので、特許請求の範囲に記載の構成の具体的な実施形態の1つである。
[第1の実施形態]
図1は、本実施形態における画像照合装置100のブロック構成図である。本装置100は、画像検索のサーバ装置、および、クライアント装置の両方として機能するものとして説明するが、サーバ機能、クライアント機能はそれぞれ独立した装置で構成しても構わない。また、サーバ装置は、単独の装置ではなく、複数のコンピュータ装置で処理を分散して実現しても構わない。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続されている。コンピュータ装置は、パーソナルコンピュータ(PC)やワークステーション(WS)等の情報処理装置によって実現することができる。
図1において、CPU101は画像照合装置100全体を制御するCentral Processing Unitである。ROM102は変更を必要としないプログラム(BIOS等)やパラメータを格納するRead Only Memoryである。RAM103は外部装置などから供給されるプログラムやデータを一時記憶するRandom Access Memoryである。外部記憶装置104はコンピュータ装置100に固定して設置されたハードディスク等の大容量の記憶装置である。この外部記憶装置104は、本装置のオペレーティングシステム(OS)、画像照合にかかるアプリケーション、照合する際に参照する照合データベース(以下、照合DBという)が格納されている。また、後述するが、ビデオカメラで撮像した映像データも、この外部記憶装置104に格納されている。
入力デバイスインターフェース105はユーザの操作を受け、データを入力するポインティングデバイスやキーボードなどの入力デバイス109とのインターフェースである。出力デバイスインターフェース106はコンピュータ装置100の保持するデータや供給されたデータを表示するためのモニタ110とのインターフェースである。通信インターフェース107はインターネットなどのネットワーク回線111に接続するための通信インターフェースである。ネットワーク回線111上には、ネットワークカメラ112a乃至112cが接続されている。なお、ネットワークカメラ112a乃至112には、それぞれカメラIDが割り当てられている。ここでは、ネットワークカメラ112a、112b、112cにカメラID1,2,3が割り当てられているものとして説明する。また、接続されているネットワークカメラは1以上であればよく、その数は問わない。システムバス108は上記の各ユニット101〜107を通信可能に接続する伝送路である。
上記構成において、電源がONになると、CPU101はROM102に格納されたBIOSプログラムを実行し、外部記憶装置104からOS(オペレーティングシステム)をRAM103上にロードし、OSを実行する。この結果、本装置が情報処理装置として機能することになる。そして、OSの制御下において、外部記憶装置104から、画像照合にかかるサーバプログラム、および、クライアントプログラムを実行することで、本装置が画像照合装置として機能することになる。
図2は、実施形態における映像照合装置の機能ブロック構成図である。同図は、検索サーバ、クライアントの両機能のプログラムを、CPU101が実行した場合の機能構成図でもある。本実施形態では、画像特徴として顔から得る顔画像特徴を用い、これを利用した画像特徴照合の例を示す。
制御処理部211は、符号201乃至207、209、210で示される各処理部を制御するためのメイン処理を行う。
映像入力部201は、通信インターフェース107を介して、ネットワークカメラ112a乃至112cそれぞれからの映像フレームを受信し、外部記憶装置104にそれぞれ格納していく。入力するフレームレートは例えば30フレーム/秒とする。上記の結果、外部記憶装置104は、ネットワークカメラ112a〜112cそれぞれの動画像ファイルが作成されることになる。また、映像入力部201は、受信した映像フレームを顔検出部206に供給する。
顔検出部206は、顔向き検出部207、顔画像特徴抽出部209を利用して、顔検出を行う。顔画像特徴出部209は、映像フレーム中の顔領域を検出し、その特徴量を抽出し、顔検出部206に返す。本実施形態では、顔画像特徴量として顔器官点のSIFT(Scale Invariant Feature Transform)特徴量を求めるものとする。また、顔画像特徴出部209は、顔特徴量を抽出する際に、その顔領域の外接矩形の左上隅の座標、並びに、その外接矩形のサイズ(幅Wと高さH)も顔検出部206に返す。なお、サイズの代わりに外接矩形の右下隅の座標でも構わない。
顔向き検出部207は、顔検出部206で検出された顔の向きを検出し、その向きを予め設定された向きパターンのいずれに該当するかを分類する。そして、顔向き検出部207は、分類結果である顔向きパターン番号を、顔検出部206に返す。なお、画像中の人物の顔の向きを検出する技術は公知であるのでその詳述は省略する(例えば非特許文献1)。
実施形態における顔向き検出部207は、着目している顔の向きが、図3(a)に示す5×5個のパターンのいずれかに該当するかを判定する。なお、図示では5×5個のパターンで示しているが、この数は特に問わない。ネットワークカメラの解像度が十分に高ければ、特徴量や向きの精度が高くなるので、パターン数を更に増やしても構わない。図示のパターンでは、正面を向いている顔の向きを中心に位置し、上下左右方向へのずれ角が大きくなるほど、中心位置から外れるようにした。換言すれば、5×5個のパターンの中心に近いほど、顔向きが正面に向くように顔向きのパターンを配置した。顔照合では、正面を向いている顔を用いた場合にその精度が高くなる。つまり5×5個の顔向きの中心位置が最も優先順位が高く、その中心位置から外れるにしたがって優先順位が低いものとした。図3(b)はその顔向きパターン番号の一例である。図示の如く、顔の向きが正面を向いている場合の顔向きパターン番号は“1”である。そして、その周りに向き顔向きパターン番号2〜9、さらにその外側に顔向きパターン番号10乃至25を割り当てた。なお、顔向きパターン番号2〜9は、必ずしも図示の通りでなくても構わない。顔向きパターン番号10乃至25も同様である。
以上の説明の通り、顔検出部206は、ネットワークカメラ112a乃至112cそれぞれより受信した各映像フレームから、顔向き検出部207、顔画像特徴抽出部209を利用して、人物の顔の位置、サイズ、特徴量、顔向きパターン番号を得る。
追尾処理部205は、制御処理部211からの追尾開始指示情報を受けると、現在のフレーム内の指示された顔を追尾開始対象の顔とし、それ以降のフレーム画像の該当する顔の追尾処理を行う。ここで追尾開始指示情報には、いずれのネットワークカメラからのフレーム画像かを示す情報(カメラID)、その追尾対象の顔の初期位置を示す情報、追尾する顔を特定するためのオブジェクトIDが含まれる。また、詳細は後述する説明から明らかにするが、追尾開始指示情報には、追尾回数、終了フレームのタイミングを示す情報(実施形態では、Tp1、Tp2のいずれか)も含まれる。オブジェクトIDは、初期値は1であり、追尾すべき顔が発見されるたびに、“1”増加されるものである。なお、画像中の人物を追尾する処理は、例えば、特許文献2に開示された技術を用いればよい。
追尾処理部205は、上記の追尾開始指示情報を受けると、図4に示すようなオブジェクト追尾情報をRAM103上に生成する。1つのオブジェクト追尾情報は、カメラIDとオブジェクトIDで特定される。また、1つのオブジェクト追尾情報には、追尾回数、最終フレーム番号のデータがセットされるが、これらについての詳細は後述することとし、ここでは省略する。
オブジェクト追尾情報に格納される情報には、本装置がその日の撮影記録を開始してから、追尾開始を指示された時のフレーム番号(時刻でも構わない)が含まれる。そして、さらには、該当する映像フレーム内の追尾対象の顔の外接矩形の左上隅の位置とサイズ(幅、高さ)、顔向きパターン番号、および、その顔の特徴量が含まれる。これらの情報は、顔向き検出部207、顔画像特徴抽出部209からの情報を利用する。
そして、追尾処理部205は、映像フレームが順次入力され、該当する顔の追尾が成功しつつある限り、該当するオブジェクト追尾情報に、上記で説明したフレーム番号、位置、サイズ、顔向きパターン番号、特徴量を追記していく。そして、追尾不可となった場合、追尾処理部205は、制御処理部211に対して該当するオブジェクトIDに対する照合DBへの登録要求を行う。なお、追尾不可となるケースは、追尾中の人物(の顔)がカメラの視野範囲外に移動した場合、人物が後ろを向いたなど、顔として認識できなくなった場合がこれに当たる。
制御処理部211は、この登録要求を受けると、該当するオブジェクト追尾情報を、画像特徴蓄積部202に渡し、照合DBへの蓄積処理(登録処理)を行わせる。この画像特徴蓄積部202の詳細は後述するが、登録処理を終えると、制御処理部211は、登録済みのオブジェクト追尾情報をRAM103から消去する。
なお、カメラの視野範囲外に移動した人物が、再度、カメラの視野範囲内に移動することもあり得る。実施形態の装置は、カメラの視野外になった人物と、再度視野内に移動した人物が同一人物か否かは判断しない。それ故、再度、カメラの視野範囲内に移動してきた人物の顔に対しては、新規なオブジェクトIDを発行し、追尾を開始することになる。従って、追尾処理部205は、結局のところ、カメラの撮像視野範囲にて、顔と認識されたオブジェクトの全てについて追尾処理を行う。従って、図4に示すオブジェクト追尾情報は現に追尾中の顔の数だけ生成されることになる。1台のネットワークカメラの視野内に、顔と認識できる程度にサイズの顔領域はせいぜい4,50個程度である。ネットワークカメラが3台であることを考慮しても、最大でも150個の顔が追尾対象となるに留まるので、現在のコンピュータでは十分に対処できる数と言える。
因に、ネットワークカメラからの映像フレームを受信していて、図6における時刻t0にて人物Aの顔が初めて検出された場合、人物Aに対してオブジェクトIDが発行され、人物Aのオブジェクト追尾情報が生成される。これ以降、人物Aの追尾できなくなる時刻t3まで、人物Aの追尾処理が行われる。この間、時刻t1にて、別の人物Bの顔が、同じ撮影視野内に初めて検出された場合には、人物Bに対してオブジェクトIDが発行され、人物Bのオブジェクト追尾情報が生成される。そして人物Bの追尾できなくなる時刻t2まで、人物Bの追尾処理が行われることになる。
次に、画像特徴蓄積部202の蓄積処理を図5を参照して説明する。この蓄積処理は、既に説明したように或る人物の顔を追尾処理が終了した場合に行われる。
図5における符号500はオブジェクト追尾情報に格納された顔向きパターン番号の時間推移を表している。なお、図示では、オブジェクト追尾情報に格納された顔向きパターンの個数は全部で8つの例を示しているが、これは説明を簡単にするためである。
まず、画像特徴蓄積部202は、オブジェクト追尾情報に格納された顔向きパターン番号の出現数の集計処理を行う。図5の符号501が集計結果を示し、顔パターンの右下の数字が、その出現数(累積数)を表している。
顔向きパターン番号は図3(b)に示す如く1乃至25であるので、顔向きIDの集計結果を変数F(顔向きパターン番号)として表す。ここで、実施形態においては、追尾対象の顔につき最大4個の特徴量を照合DBに登録するものとする。もちろん、この数は一例であって、それ以上であっても構わない。
実施形態の場合、顔向きパターン番号は、その番号順に優先順位を設定されている(図3(b)参照)。画像特徴蓄積部202は、集計した変数F(1)乃至F(25)をこの順番に調べ、出現数が非ゼロ(1以上)である最初の4つを見つける。図5の場合、参照符号502で示すように、斜線で示したF(1)、F(2)、F(3)、F(6)がこれに当たる。つまり、オブジェクト追尾情報中の顔向きパターン番号=1,2,3,6となった特徴量が照合DBに登録する候補として決定する。
ここで、顔向きパターン番号“1”の出現数F(1)は“1”である。つまり、オブジェクト追尾情報に顔向きパターン番号“1”の特徴量は1つしか存在しなかったことになる。それ故、画像特徴蓄積部202は、オブジェクト追尾情報内の、顔向きパターン番号“1”となっている特徴量を照合DBに登録する。
また、顔向きパターン番号“2”の出現数F(2)は“2”であるので、いずれか1つを登録するものとして決定する。実施形態では、2つのうち、顔のサイズが大きい方の特徴量を、該当する向きを代表する特徴量として登録する。顔の大きい方が、その人物の顔を撮影した際に、カメラとの距離が短いことになり、高い精度が期待できるからである。また、顔向きパターン番号=3、6の場合も同様である。
以上の結果、実施形態の場合、照合DBに登録するのは、1つのオブジェクトIDにつき、4つの顔の特徴量となり、尚且つ、その顔の特徴量は、顔の向きが重複せず、かつ、正面を向いている程度が高いほど登録される可能性が高くできる。従って、照合DBが肥大化を抑制できる。しかも、登録する特徴量は、顔のサイズが大きいほど優先されることになり、精度の高い整合処理も期待できる。
ここで1つ問題が残る。顔の特徴量の照合DBへの登録するタイミングを、その顔(人物)が追跡できなくなったタイミングとしていることに起因する問題である。例えば現在時刻が図6の時刻t4であり、迷子の人物Aの顔をクエリ画像として入力した場合を考察する。この場合、現在時刻(時刻t4)では、ネットワークカメラのいずれかは、人物Aの顔を撮影しているものの、その顔は追尾中であり、人物Aの顔の特徴量は未だ照合DBに登録されていない。つまり、時刻t4にて、人物Aの顔をクエリ画像として入力して照合処理を開始したとしても、直近の時刻t0乃至t4間の人物Aの顔は、検索対象とはならないことになる。迷子などの人物の検索は、直近の時刻に近い居場所を特定するのが重要なので、この問題は無視できない。
上記の問題に鑑み、本実施形態の特徴とする点は、顔の特徴量の照合DBへの登録するタイミングとして、上記のように顔の追尾不可となったタイミングだけでなく、さらに、時限を設定する点である。例えば、図6の場合、人物Aの追尾の追尾開始時刻t0から予め設定された時間Tp1が経過した時刻t5にて、その人物Aの顔が継続して検出できているとしても、その人物Aの顔の特徴量の照合DBへの登録処理を行うようにした。この結果、追尾処理を介した初期段階で、その人物Aの顔の特徴量の照合DBへの登録処理が開始されるので、照合処理を時刻t4で開始した場合に人物Aを被検索対象とすることが可能になる。時刻t4は一例である。時刻t5の後、人物Aの顔の特徴量が照合DBに登録されれば、人物Aを被検索対象とすることが可能になる。
実施形態では、照合DBへの登録する1つのオブジェクトの顔の特徴量の数は4としている。しかし、登録する特徴量を決定する以前の候補数はより多い方がよい。各顔の向きに、出現する顔の最大サイズが更新される確率が高くなるためである。よって、最初の時間Tp1で照合DBに登録した後の、2回目以降の照合DBへ登録処理を開始するまでの時間は、時間Tp1よりも長いことが望ましい。図6を参照して説明すると、人物Aの最初の照合DBへの登録処理は、その人物Aの追尾開始時刻t0からTp1経過した時刻t5とする。同じ人物Aの2回目以降の照合DBへの登録処理を行うまでの時間をTp2とする。そして、実施形態では、Tp2≧Tp1の関係を持つようにした。具体的には、Tp1は10秒、Tp2は20秒程度としたが、これらの値は適宜設定しても良い。また、同じ値であってもよい。Tp1を短くし、Tp2≧Tp1となる理由の1つは、オブジェクトの顔の特徴量が最初にDBに登録されるまでの時間を短くし、早く被検索対象になるようにしたいからである。
なお、オブジェクトIDは、ユニークでなければならない。実施形態では、同一人物Aを追跡中であっても、時刻t0から時刻t5(最初の追尾)、時刻t5から時刻t6(2回目の継続追尾)、時刻t6から時刻t7(3回目の継続追尾)では、それぞれ別のオブジェクトIDを割り当てるものとした。
追尾開始時刻から時間Tp1、Tp1+Tp2×n(n=1、2…)後の時刻は、各オブジェクト毎に異なる。そして、追尾処理が最初の追尾か、2回目以降の継続追尾かを識別できるようにする必要もある。
上記の通りなので、実施形態の追尾処理部205は、人物を検出してから最初の追尾であることを示すため、図4のオブジェクト追尾情報における参照符号402が示す追尾回数に“1”を設定する。このときの時刻は、オブジェクト追尾情報を新規に作成した際の最初のフレーム番号で特定できる。例えば、図4の例の場合、カメラID=1、オブジェクトID=00001のオブジェクト追尾情報を作成する際の最初のフレーム番号は“12345”である。ネットワークカメラ112a乃至112cの各々が30フレーム/秒のフレームレートで撮影しているとする。今、TP1=10秒とするなら、その期間では300フレームを撮影することになる。つまり、照合DBへの登録する時刻t5は、“12645”(=12345+300)となる。故に、追尾処理部205は、オブジェクト追尾情報を新規に作成する際に、参照符号401が示す終了フレームNoに”12645”をセットする。上記処理は、制御処理部211から設定される追尾開始指示情報に従って、追尾処理部205が行う。
追尾処理部205は、先に説明したように、対象とする顔を追尾しては、フレームNo,位置&サイズ、顔向きNo,特徴量で構成されるレコードをオブジェクト追尾情報に追加していく。そして、追尾処理部205は、追尾中の顔が視野から外れたり後ろを向くなどして追尾不可となった場合には、該当するオブジェクトIDを引数とする、照合DBへの登録要求を制御処理部211に対し送信(発行)する。
また、追尾処理中に、現在のフレーム番号が終了フレーム番号401に到達した場合、追尾処理部205は、該当するオブジェクトID、並びに、現在のフレーム番号が終了フレームに達したことを示す情報を含む登録要求を制御処理部211に対して送信する。
後者の場合、つまり、現在のフレーム番号が終了フレーム番号401に到達した場合、制御処理部211は、継続追尾中であることがわかるので、新規のオブジェクトIDと、終了フレームのタイミングを規定する「Tp2」(継続追尾であるので)を含む追尾開始指示情報を追尾処理部205に通知する。この結果、追尾処理部205は、継続追尾用のオブジェクト追尾情報を作成し、該当する顔の追尾を継続することになる。
図7は実施形態における照合DBの構造例を示している。この照合DBは、外部記憶装置104に確保されるものである。同図に示すように、照合DBの1つのレコードは、オブジェクトID、特徴量(実施形態では最大4つ)、カメラID,登録した顔の特徴量の顔を検出した期間の最初のフレーム番号(時刻)、座標、顔のサイズを格納するフィールドで構成される。このうち、特徴量が検索の際にキーとして利用されることになる。
次に、上記説明を踏まえ、実施形態における映像記録のメイン処理を図8のフローチャートに従って説明する。この処理は制御処理部211が行うものでもある。
制御処理部211は、ステップS81にて、通信インターフェース107を介してネットワークカメラ112a乃至112cそれぞれから映像フレームを受信し、外部記憶装置104に、被照合対象の動画像ファイルとしてそれぞれ記録していく。この際に作成される3つの動画像ファイルのファイル名は、例えばカメラIDを付けて作成する。
次いで、制御処理部211は、現映像フレームを顔検出部206に渡し、ステップS82にて顔検出処理を実行させる。この結果、映像フレーム内に存在する各顔の検出結果を得ることができる。制御処理部211は、ステップS83にて、現映像フレームの検出結果と、1つ前の映像フレームの検出結果から、現映像フレーム中に未追尾の顔が存在するか否かを判定する。未追尾の顔が存在した場合、処理はステップS84に進む。このステップS84にて、制御処理部211は、その新規追尾する顔が存在する位置とサイズ、新規オブジェクトID、カメラID、フレーム番号、追尾回数“1”、終了フレームを規定するための時間“Tp1”を引数にした追尾開始指示情報を、追尾処理部205に送信する。この結果、追尾処理部205は図4に示すようなオブジェクト追尾情報を作成し、その顔の追尾処理を行う。
一方、制御処理部211は、ステップS85にて、追尾処理部205から登録要求を受信したか否かを判定する。登録要求を受信した場合、処理をステップS86に進め、登録要求のあったオブジェクト追尾情報を、画像特徴蓄積部202に渡し、照合DBへの登録処理を行わせる。ステップS87にて、制御処理部211は、ステップS86で受信した登録要求に、現在のフレーム番号が終了フレーム番号401に到達したことを示す情報が含まれているか否か、換言すれば、登録要求が追尾不可となったことに起因するか否かを判定する。追尾不可を起因とする登録要求であると判断した場合には、制御処理部211は、ステップS89にて、照合DBへの登録済みとなったオブジェクト追尾情報を削除し、ステップS81以降の処理を行う。
また登録要求が、現在のフレーム番号が終了フレーム番号401に到達したことに起因する場合、制御処理部211はステップS88にて、新規オブジェクトID,Tp2を含む追尾開始指示情報を追尾処理部205に送信する。この結果、追尾処理部205は、継続追尾処理を行う。次回の最長追尾時刻はTp2で設定されたタイミングとなる。そして、制御処理部211は、ステップS89の処理を行う。
次に、上記のステップS86のDB登録処理(画像特徴蓄積部202の処理)を図9のフローチャートに従って説明する。
画像特徴蓄積部202は、ステップS91にて、制御処理部211からオブジェクト追尾情報を受信する。そして、画像特徴蓄積部202は、受信したオブジェクト追尾情報を解析し、顔向きパターン番号の集計処理を行う。つまり、顔向きパターン番号1乃至25の出現回数F(1)乃至F(25)を求める。
次いで、画像特徴蓄積部202は、ステップS93にて変数iを1に初期化する。そして、ステップS94に進み、変数iが25以下であるか否か、つまり、全出現回数のチェックを終えたか否かを判定する。変数iが25以下である場合(未完)である場合、ステップS95にて、画像特徴蓄積部202は、ステップS93にて変数iを1、変数jを0に初期化する。変数iは出現回数F()を特定するための変数であり、変数jは登録する特徴量の個数をカウントするための変数である。
ステップS94では、画像特徴蓄積部202は変数iと25とを比較する。変数iが25以下である場合、全出現回数F()をチェックしていないことになる。それ故、画像特徴蓄積部202は処理をステップS95に進め、変数jと照合DBに登録するために予め設定された特徴量の上限数N(実施形態ではN=4)とを比較する。j<Nの場合、照合DBに登録する特徴量の数が上限数に達していないので、画像特徴蓄積部202は処理をステップS96に進める。このステップS96では、顔向きパターン番号がiの出現回数F(i)が非ゼロ(1以上)か否かを判定する。非ゼロの場合、画像特徴蓄積部202はステップS97にて、顔向きパターン番号=iの中で最大顔サイズの特徴量を、照合DBへの登録対象として決定する。そして、登録対象が1つ決定したので、ステップS98にて、画像特徴蓄積部202は、変数jを1だけ増加させる処理を行う。そして、ステップS100にて、画像特徴蓄積部202は、変数iを1だけ増加させる処理を行い、ステップS94に処理を戻す。
さて、ステップS94、S95のいずれかの判定結果がNoを示す場合、画像特徴蓄積部202はステップS99に処理を進める。このステップS99には、画像特徴蓄積部202は、登録対象として決定した特徴量を、オブジェクトID,フレーム数、カメラID,位置、サイズ情報とともに、照合DBに登録処理を行い、本処理を終える。なお、変数jがNに到達する以前に、変数iが25となることも起こり得る。この場合、登録する特徴量の個数は4未満の個数となる。
以上が本実施形態における映像データ&特徴量の登録処理である。次に、本実施形態における照合処理を説明する。照合処理は、クエリ映像入力部203、顔検出部206、顔画像特徴照合部210、顔照合結果表示部204、および、それらを制御する制御処理部211により実現される。以下、図10のフローチャートに従い、照合処理を説明する。
まずステップS601にて、制御処理部211はクエリ映像入力部293に対してクエリ映像の入力を指示する。クエリ映像の入力源は特に問わない。例えば、検索依頼人が所有する携帯端末を本装置と接続し、探そうとしている人物の顔が映った画像をクエリ映像として本装置に転送しても構わない。なお、本装置がインターネットに接続されている場合には、メールとして受信しても構わない。いずれにせよ、クエリ映像を入力した場合、クエリ人物の顔を特定する処理を行う。例えば、顔検出部207にてクエリ映像中に存在する全顔を検出し、検出した顔に矩形枠を付加して表示装置に表示し、検索依頼人にその中の1つを検索対象の顔画像(クエリ顔画像)と選択してもらう。なお、検出した顔が1つだけである場合には、無条件にその顔が選択されたものとして扱っても構わない。クエリ顔画像が決定されると、そのクエリ顔画像を検出の際に抽出した特徴量を検出キーとして決定する。
次に、ステップS602にて、制御処理部211は、照合DBに登録されているオブジェクトIDの総個数M(レコード数)を得る。制御処理部211は、取得したM,クエリ顔画像の特徴量を引数にして、顔画像特徴照合部210に照合処理を要求する。
顔画像特徴照合部210は、ステップS603にて、変数iをゼロに初期化する。そして、ステップS604にて、変数iがM以下であるか否かを判定する。i<Mの場合、全レコードとの照合が済んでいないことになるので、処理はステップS606に進む。このステップS606では、顔画像特徴照合部210は、照合DBのi番目のレコードを読み込み、その中に格納されているNi個の特徴量を読み込む。実施形態では、Ni個は最大で4であるのは既に説明した。そして、クエリ顔画像の特徴量と、Niの特徴量それぞれとの距離を計算し、その中の最少距離を、i番目のレコードのオブジェクトIDの人物顔とクエリ顔画像との距離として決定する。顔画像特徴照合部210は、オブジェクトIDと決定した距離とをペアにして、RAM103の所定エリアに記憶する。この後、次のレコードとの照合処理を行うため、変数iを“1”だけ増加させ、ステップS604に処理を戻す。
以上の処理を繰り返していき、全レコードとの比較処理を終えたとき(変数i=Mと判断されたとき)、RAM103には、全ての登録済みのオブジェクトIDに対する距離が格納されていることになる。そこで、顔画像特徴照合部210は、ステップS605にて、RAM103に記憶された距離を小さい順にソートし、本処理を終える。
この後の処理としては、制御処理部211が照合結果を顔照合結果表示部204に渡すことで、照合結果の表示処理を行う。表示の仕方としては、例えば、距離が小さい順の予め定められた個数の顔画像一覧を表示させ、その中の1つが選択された場合には、その顔に対応するフレーム番号とカメラIDとから、動画像の該当する位置から再生を開始するなどを行う。
なお、上記実施形態では、1つのオブジェクト追尾情報中に、同じ顔向きパターン番号が複数存在したとき、その中の最大顔サイズの特徴量を登録対象として決定した。しかし、登録対象の特徴量としてサイズ以外の条件、あるいは、サイズに加えた他の条件を加味して決定してもよい。例えば、映像フレームのブレの度合いが小さいものを優先したり、目つぶりや口開き顔を登録されにくくすることが考えられる。
また、動画を撮影するカメラでも静止画のカメラと同様に、その場所の明るさに従いシャッター速度が変わる場合が有る。従って、暗い場所や被写体の動き速度により、顔画像のブレが生じる事があり、これは直接的に画像特徴量や属性情報の劣化の原因となる。ブレの推定に関しては、顔画像領域の周波数成分を求め、低周波成分と高周波成分との比率を求め、これが低周波成分の比率が所定の値を超えた時にブレを生じていると判断する事が可能となる。更に、眼つぶりや口あき等がると、器官の画像特徴量が変質し、場合によっては属性情報にも誤りを生じる可能性が有る。
更には、上記のサイズや目つぶり、ブレなどの複数のパラメータを用いて登録対象の特徴量を決定する場合には、それらパラメータの種類の座標軸を持つ空間を想定し、その座標空間での距離を求めればよい。
また、顔向きパターン番号が2乃至9は、中心位置を取り囲むように配置されるので、それらは同一レベルと見ることもできる。従って、顔向きパターン番号2乃至9については、その中に集計結果が非ゼロとなっているものが複数存在する場合には、その中の最大サイズの特徴量を決定することを、登録数(実施形態では4)に到達するまで繰り返せばよい。ただし、1つの顔向きパターン番号につき、登録する特徴量は最大でも1つとするのは同じである。上記は顔向きパターン番号10乃至25についても同様である。
以上説明したように、本実施形態によれば、追尾すべき顔を検出してから所定時間(実施形態ではTp1)が経過すると、それまでの期間で検出した顔の特徴量の照合DBへ登録が行われることになる。従って、Tp1を数秒乃至十数秒程度とすることで、実質的に現在の時刻に近い人物を被照合対象とすることができる。
さらに、実施形態によれば、照合DBに登録するのは、1つのオブジェクトIDにつき、互いに異なる向きの顔の特徴量とすることができる。つまり、同じ向きの顔の特徴量が重複して登録されることはなくなるので、照合DBが無駄に肥大化することを抑制できる。しかも、実施形態では、顔向きが正面であること優先順位を高くし、その優先順位の上記の所定数の特徴量を照合DBに登録する。この結果、照合DBの肥大化を更に抑制でき、しかも、精度の高い特徴量を登録することが可能となる。そして、同じ顔向きであっても、顔サイズなどの条件の高い精度が期待できる特徴量を登録するので、照合精度も高くすることができる。
なお、上記実施形態では、追尾処理部205が、追尾ターゲットの顔を追尾している際に、その顔の特徴量、向きを、オブジェクト追尾情報に追記していくものとして説明した。しかし、顔検出では、人間の顔であるか否かが判定できればよいので簡易な顔検出を行い、追尾終了した後に、照合DBに登録するための、より精度の高い特徴量や顔向きを算出しても構わない。
また、上記実施形態では、1つの顔の向きでの登録する特徴量の数を1とした。DBの多少の肥大を許容するのであれば、この数を所定数以下としても良い。この場合の所定数はユーザ(管理者が適宜設定すればよい)設定できるようにしても良い。
なお、上記実施形態では、画像特徴として顔から得る顔画像特徴を用い、これを利用した画像特徴照合の例を示した。しかし、顔よりも広い頭部領域や、足の先まで含む全身領域から得る画像特徴を用いてもよい。これらは、頭部領域、もしくは、全身領域から、例えば、Local Binary Pattern(LBP)特徴量やHistogram of Oriented Gradients(HOG)特徴量を抽出して用いればよい。
また、上記実施形態では、顔検出部206で検出された顔を追尾処理部205で追尾したが、特開2002−373332号公報に記載のように、動きベクトルから物体を検出し、次フレームでの探索位置を推定しテンプレートマッチングにより人物追尾を行うようにしてもよい。その場合は、追尾された人物の位置から顔検出を行い、顔が検出された場合に顔向きで分類する処理を行えばよい。また、顔が検出されなかった場合は、顔が検出されなかった画像をグループとして分類してもよい。
このように、本実施形態は、人物の全体もしくは一部を検出し、検出した人体の全体もしくは一部を追尾する際に、その人物の全体もしくは一部から抽出される特徴量を登録する形態に広く適用できるものである。
また、上記実施形態では、顔向きで分類して登録DBに登録する例を示したが、例えば、表情(笑顔、泣き顔など)に分類して登録するものであってもよい。すなわち、本実施形態は、入力された映像から抽出された顔を、予め定められたグループ(顔向きや表情など)毎に分類して、登録する構成に広く適用できるものである。
[第2の実施形態]
上記第1の実施形態では、図6に示すように、追尾処理部205は人物Aについて時刻t0乃至t3の期間で追尾していても、時刻t0乃至t5、時刻t5乃至t6、時刻t6乃至t7それぞれに対して独立したオブジェクトIDとしてDBに登録した。本第2の実施形態では、時刻t0乃至t3の区間で共通の1つのオブジェクトIDを利用する例を説明する。具体的には、時刻t0にて、追尾処理部205が作成したオブジェクト追尾情報を、時刻t5、時刻t6でも継続して利用する。
第1の実施形態に対して異なるのは、制御処理部211と画像特徴蓄積部202の処理となる。以下、第1の実施形態に対する異なる点について説明する。
制御処理部211は、継続追尾である場合に限ってステップS89を実行しないようにする。換言すれば、追尾不可となった場合に限って、登録済みのオブジェクト追尾情報を削除する。さらに、制御処理部211は、ステップS88に変えて、該当するオブジェクト追尾情報における追尾回数402を“1”だけ増加させ、かつ、終了フレーム番号を、『現在のフレーム番号+F×Tp2』(Fはビデオカメラが撮像するフレームレート)で更新する処理を行う。
画像特徴蓄積部202は、照合DBに既に登録済みとなったオブジェクトIDと同じIDを持つオブジェクト追尾情報の登録要求があった場合は、その要求は該当するオブジェクトIDの登録済みの特徴量の更新の要求として処理を行う。
上記の結果、例えば図6の時刻t5にて、区間「t0−t5」の追尾処理で得られた人物Aの特徴量が照合DBに登録される。従って、第1の実施形態と同様に、人物Aの追捕開始した初期段階(時間Tp1に相当する期間)の特徴量を、被照合対象とすることが可能となる。また、時刻t6では、区間「t0−t6」の追尾処理で得られた人物Aの同一オブジェクトIDの特徴量が更新されることになる。つまり、継続追尾している限りは、登録する特徴量の数が増えることはない。しかも、時間が経過するほど、追尾間隔が長くなっていくので、登録する特徴量の信頼性を高くすることも可能となる。
以上第1、第2の実施形態を説明した。上記の各実施形態では、照合DBに登録する特徴量は、1つの顔の向きに対して1つとしたが、1つの顔の向きに対する登録可能数を設定できるようにしても良い。また、実施形態では、継続追尾する際の時間をTp1,Tp2の2種類としたが、追尾回数に応じて変えていっても構わない。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
201…映像入力部、202…画像特徴蓄積部、203…クエリ映像入力部、204…顔照合結果表示部、205…追尾処理部、206…顔検出部、207…顔向き検出部、209…顔画像特徴抽出部、210…顔画像特徴照合部、211…制御処理部

Claims (12)

  1. 映像を取得する取得手段と、
    前記取得された映像の少なくとも1つのフレームより人物の全体もしくは一部を検出する検出手段と、
    前記検出された人物の全体もしくは一部を追尾する追尾手段と、
    前記追尾手段による前記人物の全体もしくは一部の追尾が開始されてから前記追尾手段による追尾が終了する前までの第1の期間に追尾された人物の全体もしくは一部から抽出された特徴量をデータベースに登録する登録手段と
    を有することを特徴とする情報処理装置。
  2. 前記登録手段は、前記第1の期間が終了してから第2の期間に前記追尾手段により追尾された人物の全体もしくは一部から抽出された特徴量をデータベースに登録し、
    前記第1の期間は、前記第2の期間より短い
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記登録手段は、前記第1の期間が終了してから、第2の期間が経過するごとに前記追尾部により追尾された人物の全体もしくは一部から抽出された特徴量をデータベースに登録する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記追尾された人物の全体もしくは一部を、予め定められた複数のグループに分類する分類手段と、
    前記グループごとに分類された人物の全体もしくは一部の中から、前記グループごとに第1の所定数以下の人物の全体もしくは一部を選択する選択手段とを更に備え、
    前記登録手段は、前記選択した人物の全体もしくは一部の特徴量をデータベースに登録することを特徴とする請求項1に記載の情報処理装置。
  5. 前記グループは人物の全体もしくは一部の向きであることを特徴とする請求項4に記載の情報処理装置。
  6. 前記選択手段は、人物の全体もしくは一部のサイズ、ブレ、目つぶり、口開けの少なくとも1つに基づいて、前記第1の所定数以下の人物の全体もしくは一部を選択することを特徴とする請求項4に記載の情報処理装置。
  7. 前記選択手段は、前記複数のグループに対して予め設定されている優先度に基づいて、前記複数のグループから第2の所定数以下のグループを選択し、当該選択した第2の所定数以下のグループごとに前記第1の所定数以下の人物の全体もしくは一部を選択する
    ことを特徴とする請求項4に記載の情報処理装置。
  8. クエリ映像を入力する入力手段と、
    入力したクエリ映像中の人物の全体もしくは一部画像の特徴量に基づき、前記データベースに登録された特徴量との照合を行う照合手段と
    を更に備えることを特徴とする請求項1に記載の情報処理装置。
  9. 前記人物の一部は、人物の顔、人物の頭部のいずれかであることを特徴とする請求項1に記載の情報処理装置。
  10. 前記人物の一部は、人物の顔であり、
    前記登録手段は、顔器官点に関する特徴量をデータベースに登録し、
    前記照合手段は、前記クエリ画像から抽出された顔器官点に関する特徴量を、前記データベースに登録された顔器官点に関する特徴量と照合する
    ことを特徴とする請求項8に記載の情報処理装置。
  11. 情報処理装置の制御方法であって、
    取得手段が、映像を取得する取得工程と、
    検出手段が、前記取得された映像の少なくとも1つのフレームより人物の全体もしくは一部を検出する検出工程と、
    追尾手段が、前記検出された人物の全体もしくは一部を追尾する追尾工程と、
    登録手段が、前記人物の全体もしくは一部の追尾が開始されてから、追尾が終了する前までの第1の期間に追尾された人物の全体もしくは一部から抽出された特徴量をデータベースに登録する登録工程と
    を有することを特徴とする情報処理装置の制御方法。
  12. コンピュータが読み込み実行することで、前記コンピュータに、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2016144757A 2015-09-11 2016-07-22 情報処理装置及びその制御方法及びプログラム Active JP6775343B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16001820.6A EP3142040A1 (en) 2015-09-11 2016-08-18 Information processing apparatus, method of controlling the same, and program
CN201610800799.1A CN106529388A (zh) 2015-09-11 2016-09-01 信息处理装置及其控制方法
US15/260,822 US10353954B2 (en) 2015-09-11 2016-09-09 Information processing apparatus, method of controlling the same, and storage medium
US16/421,232 US10762133B2 (en) 2015-09-11 2019-05-23 Information processing apparatus, method of controlling the same, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015180116 2015-09-11
JP2015180116 2015-09-11

Publications (3)

Publication Number Publication Date
JP2017054493A true JP2017054493A (ja) 2017-03-16
JP2017054493A5 JP2017054493A5 (ja) 2019-08-29
JP6775343B2 JP6775343B2 (ja) 2020-10-28

Family

ID=58320921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016144757A Active JP6775343B2 (ja) 2015-09-11 2016-07-22 情報処理装置及びその制御方法及びプログラム

Country Status (3)

Country Link
US (1) US10762133B2 (ja)
JP (1) JP6775343B2 (ja)
CN (1) CN106529388A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070825A1 (ja) * 2020-09-30 2022-04-07 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
WO2023281903A1 (ja) * 2021-07-09 2023-01-12 パナソニックIpマネジメント株式会社 画像照合装置、画像照合方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7431563B2 (ja) 2019-11-28 2024-02-15 キヤノン株式会社 画像検索装置、画像検索方法、及びプログラム
CN111565300B (zh) * 2020-05-22 2020-12-22 深圳市百川安防科技有限公司 基于对象的视频文件处理方法、设备及系统
JP2022043631A (ja) * 2020-09-04 2022-03-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001077952A1 (en) 2000-04-06 2001-10-18 Bindler Paul R Automated and intelligent networked-based psychological services
JP4467838B2 (ja) 2001-06-15 2010-05-26 パナソニック株式会社 画像認識装置および画像認識方法
JP4683281B2 (ja) * 2005-08-23 2011-05-18 ソニー株式会社 再生システム、再生装置、再生方法、情報処理装置、情報処理方法、およびプログラム
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
JP2008048279A (ja) * 2006-08-18 2008-02-28 Toshiba Corp 映像再生装置、方法およびプログラム
JP5106271B2 (ja) 2008-06-27 2012-12-26 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
JP5528008B2 (ja) * 2008-07-17 2014-06-25 キヤノン株式会社 再生装置及び再生方法
JP5371083B2 (ja) * 2008-09-16 2013-12-18 Kddi株式会社 顔識別特徴量登録装置、顔識別特徴量登録方法、顔識別特徴量登録プログラム及び記録媒体
JP5476955B2 (ja) * 2009-12-04 2014-04-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5753966B2 (ja) 2010-08-05 2015-07-22 パナソニックIpマネジメント株式会社 顔画像登録装置および方法
JP5894807B2 (ja) 2012-01-25 2016-03-30 株式会社日立国際電気 監視装置及び監視カメラシステム並びに映像送信方法
JP5978639B2 (ja) 2012-02-06 2016-08-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び記録媒体
US20150030260A1 (en) * 2012-03-02 2015-01-29 Nec Corporation Analysis system
JP5995610B2 (ja) 2012-08-24 2016-09-21 キヤノン株式会社 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム
JP6280382B2 (ja) 2013-03-08 2018-02-14 キヤノン株式会社 画像処理装置および画像処理方法
EP3061063A4 (en) 2013-10-22 2017-10-11 Eyenuk, Inc. Systems and methods for automated analysis of retinal images
US9594981B2 (en) 2014-04-14 2017-03-14 Canon Kabushiki Kaisha Image search apparatus and control method thereof
JP6431302B2 (ja) 2014-06-30 2018-11-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9275309B2 (en) 2014-08-01 2016-03-01 TCL Research America Inc. System and method for rapid face recognition
JP6543062B2 (ja) 2015-03-23 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法
JP2017033547A (ja) 2015-08-05 2017-02-09 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
EP3142040A1 (en) * 2015-09-11 2017-03-15 Canon Kabushiki Kaisha Information processing apparatus, method of controlling the same, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070825A1 (ja) * 2020-09-30 2022-04-07 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
WO2023281903A1 (ja) * 2021-07-09 2023-01-12 パナソニックIpマネジメント株式会社 画像照合装置、画像照合方法、及びプログラム

Also Published As

Publication number Publication date
CN106529388A (zh) 2017-03-22
JP6775343B2 (ja) 2020-10-28
US10762133B2 (en) 2020-09-01
US20190278804A1 (en) 2019-09-12

Similar Documents

Publication Publication Date Title
JP2017033547A (ja) 情報処理装置及びその制御方法及びプログラム
US10572724B2 (en) Activity recognition systems and methods
US10353954B2 (en) Information processing apparatus, method of controlling the same, and storage medium
JP7342919B2 (ja) 情報処理システム、制御方法、及びプログラム
JP2023145558A (ja) 外観検索のシステムおよび方法
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
CN109325456B (zh) 目标识别方法、装置、目标识别设备及存储介质
US8416997B2 (en) Method of person identification using social connections
KR20210090139A (ko) 정보처리장치, 정보처리방법 및 기억매체
JP6775343B2 (ja) 情報処理装置及びその制御方法及びプログラム
WO2020017190A1 (ja) 映像解析装置、人物検索システムおよび人物検索方法
Soomro et al. Online localization and prediction of actions and interactions
US20200151441A1 (en) Alias capture to support searching for an object-of-interest
US9721153B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN112651321A (zh) 档案处理方法、装置及服务器
JP2019082959A (ja) 情報処理装置、情報処理方法及びプログラム
JP7409499B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
US10997398B2 (en) Information processing apparatus, authentication system, method of controlling same, and medium
US20230386185A1 (en) Statistical model-based false detection removal algorithm from images
JP2020095757A (ja) 情報処理装置、情報処理方法及びプログラム
US11314968B2 (en) Information processing apparatus, control method, and program
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
JP2022062675A (ja) 類似画像検索による人流分析方法および装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201006

R151 Written notification of patent or utility model registration

Ref document number: 6775343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151