JP2017194798A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2017194798A
JP2017194798A JP2016083882A JP2016083882A JP2017194798A JP 2017194798 A JP2017194798 A JP 2017194798A JP 2016083882 A JP2016083882 A JP 2016083882A JP 2016083882 A JP2016083882 A JP 2016083882A JP 2017194798 A JP2017194798 A JP 2017194798A
Authority
JP
Japan
Prior art keywords
search
person
video
information processing
search process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016083882A
Other languages
Japanese (ja)
Other versions
JP6762754B2 (en
Inventor
椎山 弘隆
Hirotaka Shiiyama
弘隆 椎山
昌弘 松下
Masahiro Matsushita
昌弘 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016083882A priority Critical patent/JP6762754B2/en
Priority to KR1020170045801A priority patent/KR102284448B1/en
Priority to EP17000633.2A priority patent/EP3236366B1/en
Priority to CN201710253807.XA priority patent/CN107305693B/en
Priority to US15/490,345 priority patent/US10664523B2/en
Publication of JP2017194798A publication Critical patent/JP2017194798A/en
Application granted granted Critical
Publication of JP6762754B2 publication Critical patent/JP6762754B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To search for a person continuously from the past, without reducing processing speed.SOLUTION: An information processing apparatus includes: first searching means of executing first search processing which searches for a target person, from a video stored in storage means, on the basis of characteristics of a person extracted from a video input by imaging means before the time when an instruction to search for a person is received, and stored in the storage means, and characteristics extracted from a target person relating to the search instruction; and second searching means of executing second search processing which searches for the target person from a video input after the receiving time, on the basis of the characteristics of the person extracted from the video input by the imaging means after the receiving time, and the characteristics of the target person extracted from a query image relating to the search instruction. The first searching means executes first search processing on a video which has been input during a period from the receiving time to the time when the second search processing is ready and started.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

従来、監視映像の各フレームから、人物の顔を検索することで、迷子や列車等への乗り遅れ客を検出する技術が知られている。特許文献1には、監視映像の各フレームから人物の顔を検出し、その顔から画像特徴を算出して映像のフレームと対応付けてデータベース(DB)に蓄積し、例えば迷子の子供の顔をクエリとして、DBから迷子の子供の映像を検索する技術が開示されている。また、特許文献2には、予め検出すべき人物の顔を登録しておき、入力された映像からリアルタイムに人物を検出する技術が開示されている。   2. Description of the Related Art Conventionally, a technique for detecting a lost child or a passenger who misses a train by searching a person's face from each frame of a monitoring video is known. In Patent Document 1, a human face is detected from each frame of a monitoring video, an image feature is calculated from the face, and is stored in a database (DB) in association with a video frame. As a query, a technique for retrieving a video of a lost child from a DB is disclosed. Patent Document 2 discloses a technique for registering a person's face to be detected in advance and detecting the person in real time from an input video.

特開2013−153304号公報JP 2013-153304 A 特開2014−215747号公報JP 2014-215747 A

しかしながら、特許文献1の技術では、クエリが発行された時点でDBに蓄積された映像を検索対象とするものの、その後に得られた映像から対象人物を検索することができない。このため、迷子や乗り遅れ客の現時点の居場所を知らせ確保することができない。一方で、特許文献2の技術では、クエリが発行された時点よりも前の映像に遡及して人物検索を行う場合には、処理速度が遅くなってしまう。このため、迷子や乗り遅れ客を確保する目的においては、特許文献2の技術では十分でない。   However, in the technique of Patent Document 1, although the video stored in the DB at the time when the query is issued is the search target, the target person cannot be searched from the video obtained thereafter. For this reason, it is impossible to inform and secure the current location of lost children or late passengers. On the other hand, in the technique of Patent Document 2, when performing a person search retroactively to a video before the time when a query is issued, the processing speed is slowed down. For this reason, the technique of Patent Document 2 is not sufficient for the purpose of securing lost children and late passengers.

本発明はこのような問題点に鑑みなされたもので、処理速度の低下を招くことなく、過去から継続的に、人物を検索することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to search for a person continuously from the past without causing a reduction in processing speed.

そこで、本発明は、情報処理装置であって、人物の検索指示を受け付ける受付手段と、前記検索指示を受け付けた受付時点より前に撮像手段から入力され、記憶手段に記憶された映像から抽出された人物の特徴と、前記検索指示に係る対象人物から抽出された特徴と、に基づいて、前記記憶手段に記憶されている映像から、前記対象人物を検索する第1の検索処理を行う第1の検索手段と、前記受付時点の後に前記撮像手段から入力された映像から抽出された人物の特徴と、前記検索指示に係るクエリ画像から抽出された前記対象人物の特徴と、に基づいて、前記受付時点の後に入力された映像から前記対象人物を検索する第2の検索処理を行う第2の検索手段とを有し、前記第1の検索手段は、前記受付時点から前記第2の検索手段による前記第2の検索処理の準備が完了し、前記第2の検索処理を開始するまでの間に入力された映像に対して、前記第1の検索処理を行うことを特徴とする。   Therefore, the present invention is an information processing apparatus, which is a receiving unit that receives a search instruction for a person, and is extracted from an image that is input from an imaging unit and stored in a storage unit before the reception point when the search instruction is received. A first search process for searching for the target person from the video stored in the storage unit based on the characteristics of the selected person and the characteristics extracted from the target person related to the search instruction. Based on the search means, the characteristics of the person extracted from the video input from the imaging means after the reception time point, and the characteristics of the target person extracted from the query image related to the search instruction, Second search means for performing a second search process for searching for the target person from a video input after the reception time point, wherein the first search means starts the second search means from the reception time point. by Serial are ready for the second search processing, the relative input image until starting the second search processing, and performs the first search process.

本発明によれば、処理速度の低下を招くことなく、過去から継続的に、人物を検索することができる。   According to the present invention, it is possible to search for a person continuously from the past without causing a decrease in processing speed.

第1の実施形態に係る監視システムを示す図である。1 is a diagram illustrating a monitoring system according to a first embodiment. 情報処理装置のソフトウェア構成を示す図である。It is a figure which shows the software structure of information processing apparatus. 映像記録処理を示すフローチャートである。It is a flowchart which shows a video recording process. 第1の検索処理及び第2の検索処理の説明図である。It is explanatory drawing of a 1st search process and a 2nd search process. 検索処理を示すフローチャートである。It is a flowchart which shows a search process. 第2の実施形態に係る検索処理を示すフローチャートである。It is a flowchart which shows the search process which concerns on 2nd Embodiment.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る監視システムを示す図である。監視システムは、情報処理装置100と、撮像部としてのカメラ112とを有し、クエリとして指定された人物の検索を行う。図1においては、人物検出システムが3台のカメラ112を有する場合を例示しているが、カメラ112の数は実施形態に限定されるものではない。情報処理装置100とカメラ112は、ネットワーク111を介して接続している。
(First embodiment)
FIG. 1 is a diagram illustrating a monitoring system according to the first embodiment. The monitoring system includes the information processing apparatus 100 and a camera 112 as an imaging unit, and searches for a person specified as a query. Although FIG. 1 illustrates a case where the person detection system includes three cameras 112, the number of cameras 112 is not limited to the embodiment. The information processing apparatus 100 and the camera 112 are connected via a network 111.

CPU101は、情報処理装置100全体を制御するCentral Processing Unitである。ROM102は、変更を必要としないプログラムやパラメータを格納するRead Only Memoryである。RAM103は、外部装置などから供給されるプログラムやデータを一時記憶するRandom Access Memoryである。外部記憶装置104は、情報処理装置100に固定して設置されたハードディスクやメモリカードなどの記憶装置である。なお、外部記憶装置104は、情報処理装置100から着脱可能なフレキシブルディスク(FD)やCompact Disk(CD)等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含んでもよい。なお、後述する情報処理装置100の機能や処理は、CPU101がROM102や外部記憶装置104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。   The CPU 101 is a central processing unit that controls the entire information processing apparatus 100. The ROM 102 is a Read Only Memory that stores programs and parameters that do not need to be changed. The RAM 103 is a Random Access Memory that temporarily stores programs and data supplied from an external device. The external storage device 104 is a storage device such as a hard disk or a memory card that is fixedly installed in the information processing apparatus 100. The external storage device 104 may include an optical disk such as a flexible disk (FD) and a Compact Disk (CD) that can be detached from the information processing apparatus 100, a magnetic or optical card, an IC card, a memory card, and the like. Note that the functions and processing of the information processing apparatus 100 described later are realized by the CPU 101 reading a program stored in the ROM 102 or the external storage device 104 and executing the program.

入力I/F105は、ユーザの操作を受け、データを入力するポインティングデバイスやキーボードなどの入力部109とのインターフェースである。出力デバイスI/F106は、情報処理装置100の保持するデータや供給されたデータを表示するためのモニタ110とのインターフェースである。通信I/F107は、インターネットなどのネットワーク111に接続する。カメラ112は、監視カメラなどの映像の撮像装置であり、ネットワーク111を介して情報処理装置100に接続されている。システムバス108は、101〜107の各ユニットを通信可能に接続する伝送路である。   The input I / F 105 is an interface with an input unit 109 such as a pointing device or a keyboard that receives data from a user and inputs data. The output device I / F 106 is an interface with the monitor 110 for displaying data held by the information processing apparatus 100 and supplied data. The communication I / F 107 is connected to a network 111 such as the Internet. The camera 112 is a video imaging device such as a surveillance camera, and is connected to the information processing apparatus 100 via the network 111. The system bus 108 is a transmission path that connects the units 101 to 107 so that they can communicate with each other.

図2は、情報処理装置100のソフトウェア構成を示す図である。情報処理装置100は、画像特徴として顔から得る顔画像特徴を用い、これを利用した画像特徴検索を行う。映像受付部201は、カメラ112により撮影され、カメラ112から情報処理装置100に入力された映像を受け付ける。映像記憶部202は、映像受付部201が受け付けた映像を記憶する。   FIG. 2 is a diagram illustrating a software configuration of the information processing apparatus 100. The information processing apparatus 100 uses a face image feature obtained from a face as an image feature, and performs an image feature search using this. The video reception unit 201 receives video captured by the camera 112 and input from the camera 112 to the information processing apparatus 100. The video storage unit 202 stores the video received by the video reception unit 201.

追尾部203は、映像受付部201が受け付けた映像中の人物の追尾を行う。追尾部203は、具体的には、動きベクトルから物体を検出し、次フレームでの探索位置を推定しテンプレートマッチングにより人物追尾を行う。人物追尾処理に関しては、下記の文献を参照することができる。

特開2002−373332号公報

追尾部203は、同じ人物を追尾している追尾トラックに対して同じ追尾トラックIDを発行し、異なる人物の追尾トラックに対しては異なる追尾トラックIDを発行する。これにより、一意性が担保され、追尾トラックIDから同一人物の特定が可能となる。なお、追尾部203は、同じ人物であっても、追尾が途切れた場合は、異なる追尾トラックIDを発行する。
The tracking unit 203 tracks a person in the video received by the video receiving unit 201. Specifically, the tracking unit 203 detects an object from a motion vector, estimates a search position in the next frame, and performs person tracking by template matching. Regarding the person tracking process, the following documents can be referred to.

JP 2002-373332 A

The tracking unit 203 issues the same tracking track ID to tracking tracks that track the same person, and issues different tracking track IDs to tracking tracks of different persons. Thereby, uniqueness is ensured and the same person can be identified from the tracking track ID. Note that the tracking unit 203 issues a different tracking track ID when tracking is interrupted, even for the same person.

顔検出部204は、映像中のフレーム画像等から顔検出を行う。顔検出部204は例えば、追尾部203で追尾された人物のフレーム画像のそれぞれから顔検出を行う。また、映像受付部201から入力された映像や、後述するクエリ画像から、顔検出を行う。顔検出部204は、処理対象の画像に対し、片目候補領域を検出し、複数の片目候補領域からペアリングを行い、ペアリングされた両目位置に基づいて顔領域を決定する。なお、画像から人物の顔を検出する方法については、以下の文献を参照することができる。

特開2010−165156号公報
The face detection unit 204 performs face detection from a frame image or the like in the video. For example, the face detection unit 204 performs face detection from each of the person's frame images tracked by the tracking unit 203. Further, face detection is performed from the video input from the video reception unit 201 and a query image described later. The face detection unit 204 detects a one-eye candidate area for the processing target image, performs pairing from the plurality of one-eye candidate areas, and determines a face area based on the paired eye positions. Note that the following documents can be referred to for a method of detecting a human face from an image.

JP 2010-165156 A

代表決定部205では、追尾された人物のフレーム画像群から、代表となる顔画像を選択する。以下、代表となる顔画像を代表画像と称する。代表決定部205は、例えば、顔検出部204で検出された顔画像のうち、顔サイズの大きい画像を選択する。顔サイズを用いる理由として、画像特徴の精度の問題が有る。顔画像が大きいほど、精度の高い画像特徴が得られるからである。すなわち、顔画像から画像特徴を算出する際、顔画像の大きさを一定の大きさに変倍する顔サイズ正規化処理を行う必要がある。その際、顔画像が上記一定の大きさよりも大きい場合には縮小処理を行い情報のロスは比較的小さいが、上記一定の大きさよりも小さい場合には超解像度処理の様な画素補完を行う必要があり、情報の劣化が激しい。   The representative determining unit 205 selects a representative face image from the frame image group of the tracked person. Hereinafter, a representative face image is referred to as a representative image. For example, the representative determining unit 205 selects an image having a large face size from among the face images detected by the face detecting unit 204. The reason for using the face size is the problem of the accuracy of image features. This is because the larger the face image, the more accurate image features can be obtained. That is, when calculating the image feature from the face image, it is necessary to perform a face size normalization process for scaling the size of the face image to a certain size. At that time, if the face image is larger than the certain size, the reduction processing is performed and the information loss is relatively small. If the face image is smaller than the certain size, it is necessary to perform pixel complementation such as super-resolution processing. There is severe degradation of information.

また、他の例としては、代表決定部205は、フレーム画像群から複数の画像を代表画像として選択してもよい。例えば、複数の顔の向きの画像を選択する方法がある。同じ人の画像であっても、顔向きが異なるとその画像から得られる画像特徴が異なるためである。   As another example, the representative determining unit 205 may select a plurality of images from the frame image group as representative images. For example, there is a method of selecting images with a plurality of face orientations. This is because even if the images of the same person are different in face orientation, the image characteristics obtained from the images are different.

代表決定部205は、特徴として勾配方向ヒストグラム(Histogram of Oriented Gradient,HOG)を抽出し、SVRで顔の向きを推定する。勾配方向ヒストグラムは、画像の輝度勾配情報を画像の局所毎にヒストグラム化した特徴で、局所的なノイズや画像の明暗にロバストな特徴として知られている。ノイズや照明変動のような、顔の向きに関係のない変動にロバストな特徴を選択することで、実環境においても安定した顔向き推定を実現している。画像から人物の顔向きを検出する方法については、以下の文献を参照することができる。

Erik Muphy−Chutorian, "Head pose estimation for driver assistance systems:A robust algorithm and experimental evaluation," in Proc. IEEE Conf. Intelligent Transportation Systems, 2007, pp. 709−714.
The representative determination unit 205 extracts a gradient direction histogram (HOG) as a feature, and estimates the face direction using SVR. The gradient direction histogram is a feature obtained by making the luminance gradient information of an image into a histogram for each part of the image, and is known as a feature that is robust to local noise and image contrast. By selecting features that are robust to fluctuations that are not related to face orientation, such as noise and lighting fluctuations, stable face orientation estimation is realized even in real environments. The following documents can be referred to for a method of detecting the face direction of a person from an image.

Erik Muphy-Chutorian, "Head posture estimation for driver assistance systems: A robust algorithm and experimental evaluation," in Proc. IEEE Conf. Intelligent Transportation Systems, 2007, pp. 709-714.

また、代表決定部205は、人物の顔向きに代えて、人物の人体の向きを検出するようにしてもよい。人体の向きの検出は、例えば、以下の文献に記載の方法を用いることができる。

特開2011−186576号公報
Further, the representative determining unit 205 may detect the orientation of the person's human body instead of the face orientation of the person. For example, the method described in the following document can be used to detect the orientation of the human body.

JP 2011-186576 A

また、他の例としては、代表決定部205はさらに、画像のブレが少ない画像を代表画像として選択してもよい。動画を撮影するカメラでも静止画のカメラと同様に、その場所の明るさに従いシャッター速度が変わる場合がある。従って、暗い場所や被写体の動き速度により、顔画像のブレが生じることがあり、これは直接的に画像特徴や属性情報の劣化の原因となる。ブレの推定に関しては、代表決定部205は、顔画像領域の周波数成分を求め、低周波成分と高周波成分との比率を求め、これが低周波成分の比率が所定の値を超えた時にブレを生じていると判断すればよい。その他、代表決定部205は、眼つぶりや口あき等の顔画像については、代表画像として選択しないようにしてもよい。眼つぶりや口あき等があると、器官の画像特徴が変質する可能性があるためである。   As another example, the representative determining unit 205 may further select an image with less image blur as the representative image. A camera that shoots a moving image may change the shutter speed according to the brightness of the location, as in the case of a still image camera. Accordingly, the face image may be blurred depending on the dark place or the moving speed of the subject, which directly causes deterioration of the image characteristics and attribute information. As for blur estimation, the representative determining unit 205 obtains a frequency component of the face image region, obtains a ratio between the low frequency component and the high frequency component, and produces a shake when the ratio of the low frequency component exceeds a predetermined value. You may judge that it is. In addition, the representative determination unit 205 may not select a face image such as a blinking eye or a mouth opening as a representative image. This is because there is a possibility that the image characteristics of the organ may be altered if there is a blinking eye or a mouth opening.

特徴算出部206は、処理対象の顔画像の画像特徴の算出を行う。特徴算出部206は、具体的には、人物の顔画像内の目・口などの器官点を求め、各器官点のSIFT(Scale Invariant Feature Transform)特徴を算出する。なお、この特徴は例であり、算出される特徴の種類は実施形態に限定されるものではない。第1の特徴記憶部207は、映像受付部201が受け付けた映像に対して特徴算出部206において算出された画像特徴を記憶する。第1の特徴記憶部207はさらに、画像特徴のメタデータとして、人物のIDや人物を追尾したときの追尾トラックID、撮影時刻や撮影したカメラ112のカメラIDを関連付けて記憶する。第1の特徴記憶部207は、例えば、外部記憶装置104である。   The feature calculation unit 206 calculates the image feature of the face image to be processed. Specifically, the feature calculation unit 206 obtains organ points such as eyes and mouths in a person's face image, and calculates SIFT (Scale Invariant Feature Transform) features of each organ point. This feature is an example, and the type of feature to be calculated is not limited to the embodiment. The first feature storage unit 207 stores the image feature calculated by the feature calculation unit 206 for the video received by the video reception unit 201. The first feature storage unit 207 further stores, as image feature metadata, the ID of the person, the tracking track ID when the person is tracked, the shooting time, and the camera ID of the camera 112 that has been shot. The first feature storage unit 207 is, for example, the external storage device 104.

クエリ受付部208は、クエリ画像の指定を受け付ける。ここで、クエリ画像とは、検索キーとなる人物の顔画像である。検索キーとなる人物を対象人物と称する。例えば、CPU101は、外部記憶装置104に記憶された顔画像をモニタ110に表示する。そして、ユーザは、モニタ110を見ながら、入力部109を介して、検索したい人物の顔画像をクエリ画像として選択する。これに対応し、クエリ受付部208は、ユーザにより選択されたクエリ画像を受け付ける。なお、クエリ画像は、1枚でもよく2枚以上であってもよい。   The query receiving unit 208 receives a query image specification. Here, the query image is a face image of a person serving as a search key. A person serving as a search key is referred to as a target person. For example, the CPU 101 displays the face image stored in the external storage device 104 on the monitor 110. Then, while viewing the monitor 110, the user selects a face image of a person to be searched as a query image via the input unit 109. In response to this, the query receiving unit 208 receives a query image selected by the user. The query image may be one or two or more.

第2の特徴記憶部209は、クエリ受付部208が受け付けたクエリ画像(顔画像)の画像特徴を記憶する。ここで、クエリ画像の画像特徴は、対象人物に対して予め定められた基準特徴の一例である。なお、クエリ画像の画像特徴は、特徴算出部206により算出される。第2の特徴記憶部209は、例えば、外部記憶装置104である。第2の特徴記憶部209へのクエリ画像の画像特徴の記録は、CPU101により行われる。第2の特徴記憶部209にクエリ画像の画像特徴を記録する処理は、後述の第2の検索部212により実行される入力画像の検索処理を開始するための準備処理である。また、CPU101は、後述する対象除外の指示を受け付けた場合には、第2の特徴記憶部209から画像特徴を削除する。   The second feature storage unit 209 stores the image feature of the query image (face image) received by the query reception unit 208. Here, the image feature of the query image is an example of a reference feature predetermined for the target person. Note that the image feature of the query image is calculated by the feature calculation unit 206. The second feature storage unit 209 is, for example, the external storage device 104. The CPU 101 records the image feature of the query image in the second feature storage unit 209. The process of recording the image feature of the query image in the second feature storage unit 209 is a preparation process for starting an input image search process executed by the second search unit 212 described later. When the CPU 101 receives an instruction to exclude a target, which will be described later, the CPU 101 deletes the image feature from the second feature storage unit 209.

第1の検索部211は、第1の検索処理を実行する。ここで、第1の検索処理は、クエリ画像から算出された画像特徴をクエリとし、第1の検索処理に対して設定された検索範囲の映像から対象人物を検索する処理である。本実施形態に係る第1の検索部211は、第1の特徴記憶部207に記憶された画像特徴を検索範囲とし、第1の特徴記憶部207において、類似度が所定閾値よりも高い画像特徴を特定する。類似度の算出にあたっては、各器官点のSIFT特徴の距離の総和を求め、距離の総和を正規化し、類似度を求める。   The first search unit 211 executes a first search process. Here, the first search process is a process of searching for the target person from the video in the search range set for the first search process using the image feature calculated from the query image as a query. The first search unit 211 according to the present embodiment uses an image feature stored in the first feature storage unit 207 as a search range, and the first feature storage unit 207 has an image feature whose similarity is higher than a predetermined threshold. Is identified. In calculating the similarity, the sum of the distances of SIFT features of each organ point is obtained, the sum of the distances is normalized, and the similarity is obtained.

第2の検索部212は、第2の検索処理を実行する。ここで、第2の検索処理は、第2の特徴記憶部209に記憶された画像特徴(基準特徴)をクエリとし、第2の検索処理に対して設定された検索範囲の映像から対象人物を検索する処理である。本実施形態に係る第2の検索部212は、クエリ画像を指定した検索指示を受け付けた時点以降に、映像受付部201が受け付けた映像から算出された画像特徴を検索範囲とする。ここで、検索範囲には、映像受付部201が受け付けた映像の他、一時記憶部210に記憶されている映像も含まれる。第2の検索部212は、検索範囲において、類似度が所定閾値よりも高い画像特徴を特定する。類似度の算出の方法は、第1の検索部211において説明したのと同様である。   The second search unit 212 executes a second search process. Here, the second search process uses the image feature (reference feature) stored in the second feature storage unit 209 as a query, and selects the target person from the video in the search range set for the second search process. This is a search process. The second search unit 212 according to the present embodiment uses the image feature calculated from the video received by the video receiving unit 201 as the search range after the time when the search instruction specifying the query image is received. Here, the search range includes the video stored in the temporary storage unit 210 in addition to the video received by the video reception unit 201. The second search unit 212 specifies an image feature having a similarity higher than a predetermined threshold in the search range. The method for calculating the similarity is the same as that described in the first search unit 211.

表示処理部213は、第1の検索部211の検索結果と第2の検索部212の識別結果を統合し、その結果をモニタ110に表示する。表示処理部213は、例えば、カメラ112毎に、検索結果を分類して撮影時刻順にモニタ110に表示する。また、他の例としては、表示処理部213は、カメラ112の設置位置をマップ表示し、撮影時刻をもとに移動履歴をモニタ110に表示する。なお、表示内容は、実施形態に限定されるものではない。   The display processing unit 213 integrates the search result of the first search unit 211 and the identification result of the second search unit 212 and displays the result on the monitor 110. For example, the display processing unit 213 classifies the search results for each camera 112 and displays them on the monitor 110 in order of photographing time. As another example, the display processing unit 213 displays the installation position of the camera 112 on a map, and displays the movement history on the monitor 110 based on the shooting time. The display content is not limited to the embodiment.

除外受付部214は、迷子や乗り遅れ客を確保するなどして、検索する必要が無くなった人物の情報を受け付け、該人物の画像特徴を第2の特徴記憶部209から削除する。表示処理部213のユーザインタフェース上で迷子や乗り遅れ客の確保したことを指定することが可能である。また、航空機の乗り遅れ客を検索する場合は、航空機の搭乗口を通過したことを検知し、それをトリガとして該人物の画像特徴を第2の特徴記憶部209から削除することも可能である。   The exclusion receiving unit 214 receives information on a person who no longer needs to be searched, for example, by securing a lost child or a late passenger, and deletes the image feature of the person from the second feature storage unit 209. On the user interface of the display processing unit 213, it is possible to specify that a lost child or a late passenger has been secured. When searching for passengers who missed the aircraft, it is also possible to detect that the passenger has passed the boarding gate of the aircraft, and to delete the image feature of the person from the second feature storage unit 209 using that as a trigger.

図3は、情報処理装置100による、映像記録処理を示すフローチャートである。映像記録処理は、映像受付部201が受け付けた映像を検索可能なように蓄積する処理である。S301において、映像受付部201は、映像を受け付ける。次に、S302において、CPU101は、S301において受け付けた映像を映像記憶部202に記録する。このとき、CPU101は、映像のメタデータとして、撮影時刻や撮影したカメラ112のカメラIDを関連付けて記録する。本処理は、カメラ112から入力された映像を記憶部に記録する記録処理の一例である。   FIG. 3 is a flowchart showing video recording processing by the information processing apparatus 100. The video recording process is a process of accumulating the video received by the video receiving unit 201 so as to be searchable. In S301, the video reception unit 201 receives a video. Next, in S <b> 302, the CPU 101 records the video received in S <b> 301 in the video storage unit 202. At this time, the CPU 101 records the shooting time and the camera ID of the shooting camera 112 in association with each other as video metadata. This process is an example of a recording process for recording the video input from the camera 112 in the storage unit.

次に、S303において、追尾部203は、各フレーム画像から人物を検出し、追尾を行う。ここで、検出された人物にはフレーム画像毎に別々の人物IDが割り振られ、フレーム画像中の人物の座標とともに一時記憶される。また、追尾を行っている人物に対しては、同じ追尾トラックIDが割り振られ、追尾を行っているフレーム画像のIDとともに一時記憶される。次に、S304において、追尾部203は、追尾が途切れた人物が存在する場合には(S304でYES)、処理をS305へ進める。追尾部203は、追尾が途切れた人物が存在しない場合には(S304でNO)、処理をS301へ進める。   Next, in S303, the tracking unit 203 detects a person from each frame image and performs tracking. Here, different person IDs are assigned to the detected persons for each frame image, and are temporarily stored together with the coordinates of the person in the frame image. The same tracking track ID is assigned to the person who is tracking, and is temporarily stored together with the ID of the frame image that is tracking. Next, in S304, when there is a person whose tracking is interrupted (YES in S304), the tracking unit 203 advances the process to S305. If there is no person whose tracking is interrupted (NO in S304), the tracking unit 203 advances the process to S301.

S305において、顔検出部204は、追尾部203で追尾された人物のフレーム画像のそれぞれから顔検出を行う。次に、S306において、代表決定部205は、追尾された人物のフレーム画像群から、代表となる顔画像を1枚もしくは複数枚選択する。次に、S307において、特徴算出部206は、S306において選択された1枚もしくは複数枚の顔画像から顔画像特徴の算出を行う。   In step S <b> 305, the face detection unit 204 performs face detection from each of the person frame images tracked by the tracking unit 203. In step S <b> 306, the representative determination unit 205 selects one or more representative face images from the group of tracked person frame images. Next, in S307, the feature calculation unit 206 calculates face image features from one or more face images selected in S306.

次に、S308において、CPU101は、S307で算出された画像特徴を第1の特徴記憶部207に記録する。CPU101はさらに、画像特徴のメタデータとして、人物IDや人物を追尾したときの追尾トラックID、撮影時刻や撮影カメラを関連付けて記録する。次に、S309において、CPU101は、蓄積処理の終了指示を受け付けたか否かを確認する。CPU101は、終了指示を受け付けた場合には(S309でYES)、処理を終了する。CPU101は、終了指示を受け付けなかった場合には(S309でNO)、処理をS301へ進める。以上の処理により、カメラ112から入力された映像に写る人物の顔画像の画像特徴が第1の特徴記憶部207に蓄積され、検索可能な状態になる。   Next, in S <b> 308, the CPU 101 records the image feature calculated in S <b> 307 in the first feature storage unit 207. Further, the CPU 101 records, as image feature metadata, a person ID, a tracking track ID when the person is tracked, a shooting time, and a shooting camera in association with each other. Next, in S309, the CPU 101 confirms whether or not an instruction to end the accumulation process has been received. When the CPU 101 receives an end instruction (YES in S309), the CPU 101 ends the process. If the CPU 101 has not received an end instruction (NO in S309), the process proceeds to S301. Through the above processing, the image features of the person's face image shown in the video input from the camera 112 are accumulated in the first feature storage unit 207 and become searchable.

次に、情報処理装置100による人物検索処理について説明する。人物検索処理の説明に先立ち、図4を参照しつつ、第1の検索部211による第1の検索処理と、第2の検索部212による第2の検索処理と、について説明する。図4(a)は、第1の検索処理及び第2の検索処理の説明図である。第1の検索処理では、抽出された画像特徴をクエリとした照合が行われる。このため、任意の人物をクエリにした検索が可能である。他方、第2の検索処理では、クエリ人物の画像特徴を事前登録しておく必要がある。   Next, person search processing by the information processing apparatus 100 will be described. Prior to the description of the person search process, the first search process by the first search unit 211 and the second search process by the second search unit 212 will be described with reference to FIG. FIG. 4A is an explanatory diagram of the first search process and the second search process. In the first search process, matching is performed using the extracted image features as a query. For this reason, a search using an arbitrary person as a query is possible. On the other hand, in the second search process, it is necessary to register in advance the image characteristics of the query person.

精度に関しては、第2の検索処理は、機械学習等による精度面でのメリットがある。速度に関して、第1の検索処理は、登録が完了した映像の検索に関しては速いが、第1の特徴記憶部207に反映するまでに時間が掛かるのでスループット(登録及び検索)の観点ではやや劣る。他方、第2の検索処理では、事前登録する人物数をある程度の数に抑えておけばリアルタイムに認証を行うことができるので、スループットが高いと考える。   Regarding the accuracy, the second search process has an advantage in accuracy by machine learning or the like. Regarding the speed, the first search process is fast with respect to the search of the video for which registration has been completed, but it takes a little time to be reflected in the first feature storage unit 207, so it is slightly inferior in terms of throughput (registration and search). On the other hand, in the second search process, if the number of persons registered in advance is limited to a certain number, authentication can be performed in real time, so that the throughput is considered high.

従って、好ましい用途としては、第1の検索処理は、過去の大量画像からの任意の人物を蓄積動画からの検索であり、第2の検索処理は、限られた人数の特定人物をリアルタイムに識別することである。   Therefore, as a preferable application, the first search process is a search from an accumulated video of an arbitrary person from a large number of past images, and the second search process is to identify a limited number of specific persons in real time. It is to be.

このため、本実施形態に係る情報処理装置100は、クエリ人物の指定の指示を受け付け、人物検索を開始した時点より前(過去)の映像に関しては第1の検索処理を行い、その時点より後(未来)の映像に対しては第2の検索処理を行うこととする。これにより、例えば迷子探しを適切に行うことができる。過去の映像に対しても検索を行うのは、全てのカメラ112に映らない場所に居ることも考えられるため過去の居場所の情報も重要であり、また移動先の推定にも役立つためである。   For this reason, the information processing apparatus 100 according to the present embodiment receives an instruction to specify a query person, performs a first search process on a video before (in the past) the time when the person search is started, and after that time. The second search process is performed for the (future) video. Thereby, for example, a lost child search can be performed appropriately. The reason for searching for past images is that information on past locations is also important because it is possible to be in locations that are not reflected in all the cameras 112, and it is also useful for estimating the destination.

ただし、第1の検索処理と第2の検索処理を単に組み合わせるだけでは問題が生ずる。図4(b)は、第1の検索処理と第2の検索処理において検索される検索範囲(時間範囲)を示す図である。第1の検索処理では、第1の特徴記憶部207に記録された映像を検索範囲とする。このため、クエリ指定を受け付けた受付時点の映像が検索可能となるまでには、少々の準備期間(ディレイ)401が生じる。ここで、準備期間は、映像受付部201が検索指示を受け付けた受付時点から、後述の第2の検索部212による検索処理の準備処理が完了する準備完了時点までの期間である。   However, simply combining the first search process and the second search process causes a problem. FIG. 4B is a diagram illustrating a search range (time range) searched in the first search process and the second search process. In the first search process, the video recorded in the first feature storage unit 207 is set as a search range. For this reason, a short preparation period (delay) 401 occurs before the video at the reception time point when the query specification is accepted can be searched. Here, the preparation period is a period from the time when the video reception unit 201 receives the search instruction to the time when the preparation for the search process by the second search unit 212 described later is completed.

第2の検索処理においても、各カメラ112の映像から検索する画像特徴のセットや学習等の初期化処理に時間が掛かり、検出処理が可能となるまでの準備期間(ディレイ)402が生じる。このため、準備期間401と準備期間402とを加えた時間帯である検索不可能時間帯403が生じることとなる。監視システムの様なセキュリティ用途において、検索不可能時間帯403を少なくするのが望ましい。   Also in the second search processing, initialization processing such as setting of image features to be searched from the video of each camera 112 and learning takes time, and a preparation period (delay) 402 until detection processing is possible occurs. For this reason, a non-searchable time zone 403 that is a time zone obtained by adding the preparation period 401 and the preparation period 402 is generated. In security applications such as a monitoring system, it is desirable to reduce the non-searchable time zone 403.

図5は、情報処理装置100による検索処理を示すフローチャートである。S501において、クエリ受付部208は、検索クエリとなる人物のクエリ画像を指定した検索指示を受け付ける。CPU101は、S501の処理の後、3つのスレッドにて処理を実行する。第1のスレッドは、第1の検索処理を行うスレッドであり、S502〜S505の処理を含む。第2のスレッドは、第2の検索処理を行うスレッドであり、S511〜S513の処理を含む。第3のスレッドは、検索結果を統合し、表示する処理であり、S521、S522の処理を含む。   FIG. 5 is a flowchart showing search processing by the information processing apparatus 100. In step S <b> 501, the query reception unit 208 receives a search instruction that specifies a query image of a person serving as a search query. The CPU 101 executes processing in three threads after the processing in S501. The first thread is a thread that performs the first search process, and includes the processes of S502 to S505. The second thread is a thread that performs the second search process, and includes the processes of S511 to S513. The third thread is a process for integrating and displaying the search results, and includes the processes of S521 and S522.

第1のスレッドのS502において、第1の検索部211は、第1の検索処理を行うことにより、対象人物の検索を行う。なお、この場合の検索範囲は、第1の特徴記憶部207に記憶されている映像、すなわち、検索指示を受け付けた受付時点よりも前に情報処理装置100に入力され、映像記憶部202に記憶された映像の画像特徴である。また、検索クエリは、検索指示に係るクエリ画像から検出された顔画像の画像特徴である。第1の検索部211は、検索により得られた画像と、画像の撮影場所と、時刻等の情報を表示処理部213へ送る。   In S502 of the first thread, the first search unit 211 performs a first search process to search for a target person. The search range in this case is input to the information processing apparatus 100 before the reception time when the video stored in the first feature storage unit 207, that is, the search instruction is received, and stored in the video storage unit 202. It is an image feature of the recorded video. The search query is an image feature of the face image detected from the query image related to the search instruction. The first search unit 211 sends information such as the image obtained by the search, the shooting location of the image, and the time to the display processing unit 213.

次に、S503において、第1の検索部211は、第2の検索部212による第2の検索処理が開始したか否かを確認する。第1の検索部211は、第2の検索処理が開始した場合には(S503でYes)、処理をS505へ進める。第1の検索部211は、第2の検索処理が開始していない場合には(S503でNo)、処理をS504へ進める。   Next, in S <b> 503, the first search unit 211 confirms whether or not the second search process by the second search unit 212 has started. When the second search process is started (Yes in S503), the first search unit 211 advances the process to S505. If the second search process has not started (No in S503), the first search unit 211 advances the process to S504.

S504において、第1の検索部211は、再び、第1の検索処理を行う。なお、S504における第1の検索処理の検索範囲は、第1の特徴記憶部207に記憶されている画像特徴のうち、既に実行済みの第1の検索処理の検索範囲に設定されていない画像特徴である。第1の検索部211は、その後処理をS503へ進める。このように、第1の検索部211はだ、第2の検索処理が開始するまで、新たに入力された映像の特徴を検索範囲として、第1の検索処理を繰り返し実行する。第1の検索部211はさらに、検索により得られた画像と、画像の撮影場所と、時刻等の情報を表示処理部213へ送る。そして、S505において、第1の検索部211は、第1の検索処理を停止する。以上で、第1のスレッドの処理が終了する。このように、第2の検索処理が開始されるまでの期間に入力された映像に対しては、第1の検索処理の検索範囲に設定され、第1の検索処理が行われる。したがって、検索不可能時間帯403を短くすることができる。   In S504, the first search unit 211 performs the first search process again. Note that the search range of the first search process in S504 is an image feature that is not set to the search range of the first search process that has already been executed among the image features stored in the first feature storage unit 207. It is. The first search unit 211 then advances the process to S503. In this manner, the first search unit 211 repeatedly executes the first search process using the newly input video feature as a search range until the second search process is started. The first search unit 211 further sends information such as the image obtained by the search, the shooting location of the image, and the time to the display processing unit 213. In step S505, the first search unit 211 stops the first search process. This completes the processing of the first thread. As described above, for the video input during the period until the second search process is started, the search range of the first search process is set, and the first search process is performed. Therefore, the non-searchable time zone 403 can be shortened.

第2のスレッドのS511においては、第2の検索部212は、第2の検索処理を開始するための準備処理を行う。準備処理は、対象人物のクエリ画像の画像特徴を基準特徴として第2の特徴記憶部209に登録(記録)する処理である。S511において、表示処理部213は、クエリ画像をモニタ110に表示してもよい。次に、S512において、第2の検索部212は、基準特徴に基づき、受付時点より後に、情報処理装置100に入力された映像から対象人物を検索する第2の検索処理を開始する。そして、第2の検索部212は、検索により得られた画像と、画像の撮影場所と、時間等の情報を表示処理部213へ送る。なお、S512において第2の検索処理が開始されると、前述のS503において、第1の検索部211が第2の検索処理が開始したと判断し、第1の検索処理が停止する。   In S511 of the second thread, the second search unit 212 performs a preparation process for starting the second search process. The preparation process is a process of registering (recording) the image feature of the query image of the target person in the second feature storage unit 209 as a reference feature. In S511, the display processing unit 213 may display the query image on the monitor 110. Next, in S512, the second search unit 212 starts a second search process for searching for a target person from the video input to the information processing apparatus 100 after the reception time point based on the reference feature. Then, the second search unit 212 sends information such as the image obtained by the search, the shooting location of the image, and the time to the display processing unit 213. When the second search process is started in S512, the first search unit 211 determines that the second search process has started in S503, and the first search process is stopped.

次に、S513において、第2の検索部212は、CPU101停止指示を受け付けたか否かを確認する。CPU101は、停止指示を受け付けなかった場合には(S513でNo)、第2の検索処理を継続する。CPU101は、停止指示を受け付けた場合には(S513でYes)、処理を終了する。例えば、迷子や乗り遅れ客を確保する等して、クエリとして指定された人物の検索が必要なくなった場合に、ユーザは、停止指示を入力する。   Next, in S513, the second search unit 212 confirms whether or not a CPU 101 stop instruction has been accepted. If the CPU 101 has not received a stop instruction (No in S513), the CPU 101 continues the second search process. When the CPU 101 receives a stop instruction (Yes in S513), the CPU 101 ends the process. For example, the user inputs a stop instruction when searching for a person designated as a query is no longer necessary, for example, by securing a lost child or a late passenger.

第3のスレッドのS521において、表示処理部213は、S502、S504、S512において得られた検出結果を統合し、統合後の検出結果をモニタ110に表示する。次に、S522において、CPU101は、停止指示を受け付けたか否かを確認する。CPU101は、停止指示を受け付けなかった場合には(S522でNo)、処理をS521へ進め、表示処理を継続する。CPU101は、停止指示を受け付けた場合には(S522でYes)、処理を終了する。   In S521 of the third thread, the display processing unit 213 integrates the detection results obtained in S502, S504, and S512, and displays the detection results after integration on the monitor 110. Next, in S522, the CPU 101 confirms whether or not a stop instruction has been accepted. If the CPU 101 has not received a stop instruction (No in S522), the CPU 101 advances the process to S521 and continues the display process. When the CPU 101 receives a stop instruction (Yes in S522), the CPU 101 ends the process.

以上のように、情報処理装置100は、検索不可能時間帯403について第1の検索処理により対象人物の検索を行い、その後第1の検索処理を停止する。そして、情報処理装置100は、停止指示を受け付けるまで。第2の検索処理により対象人物の検索を行う。また、クエリ人物を指定して検索実行時に未だ顔画像特徴検索にて特徴量がインデキシングされていない時間帯と、顔画像特徴識別開始までの時間帯を合わせた物に相当する検索不可能時間帯を、第1の検索処理を再帰的に行う事で少なくすることができる。このように、本実施形態の情報処理装置100は、処理速度の低下を招くことなく、過去から継続的に、人物を検索することができる。   As described above, the information processing apparatus 100 searches for the target person by the first search process for the non-searchable time zone 403, and then stops the first search process. Until the information processing apparatus 100 receives a stop instruction. The target person is searched by the second search process. In addition, a search impossible time zone corresponding to a combination of a time zone in which the feature amount is not yet indexed in the face image feature search and a time zone until the start of facial image feature identification at the time of executing the search by specifying the query person Can be reduced by performing the first search process recursively. As described above, the information processing apparatus 100 according to the present embodiment can search for a person continuously from the past without causing a decrease in processing speed.

(第2の実施形態)
次に、第2の実施形態に係る監視システムについて説明する。第2の実施形態に係る監視システムの情報処理装置100は、第1の検索処理を第2の検索処理の前に行い、第1の検索処理において検出された画像を、第2の検索処理において利用する。これにより、検索精度を向上させることができる。
(Second Embodiment)
Next, a monitoring system according to the second embodiment will be described. The information processing apparatus 100 of the monitoring system according to the second embodiment performs the first search process before the second search process, and detects the image detected in the first search process in the second search process. Use. Thereby, search accuracy can be improved.

以下、第2の実施形態に係る監視システムについて、第1の実施形態に係る監視システムと異なる点について説明する。図6は、第2の実施形態に係る情報処理装置100による検索処理を示すフローチャートである。S601において、クエリ受付部208は、検索クエリとなる人物のクエリ画像を指定した検索指示を受け付ける。CPU101は、601の処理の後、2つのスレッドにて処理を実行する。第1のスレッドは検索を行うスレッドであり、S602〜S617の処理を含む。第2のスレッドは、検索結果を統合し、表示する処理であり、S621、S622の処理を含む。   Hereinafter, the difference between the monitoring system according to the second embodiment and the monitoring system according to the first embodiment will be described. FIG. 6 is a flowchart showing search processing by the information processing apparatus 100 according to the second embodiment. In step S <b> 601, the query receiving unit 208 receives a search instruction that specifies a query image of a person who is a search query. The CPU 101 executes processing with two threads after the processing of 601. The first thread is a thread that performs a search, and includes the processes of S602 to S617. The second thread is a process for integrating and displaying the search results, and includes the processes of S621 and S622.

第1のスレッドのS602において、第1の検索部211は、第1の検索処理を行うことにより、対象人物の検索を行う。なお、この場合の検索範囲は、第1の特徴記憶部207に記憶されている映像、すなわち、検索指示を受け付けた受付時点よりも前に情報処理装置100に入力され、映像記憶部202に記憶された映像の画像特徴である。また、検索クエリは、検索指示に係るクエリ画像から検出された顔画像の画像特徴である。第1の検索部211は、検索により得られた画像と、画像の撮影場所と、時刻等の情報を表示処理部213へ送る。   In step S602 of the first thread, the first search unit 211 performs a first search process to search for a target person. The search range in this case is input to the information processing apparatus 100 before the reception time when the video stored in the first feature storage unit 207, that is, the search instruction is received, and stored in the video storage unit 202. It is an image feature of the recorded video. The search query is an image feature of the face image detected from the query image related to the search instruction. The first search unit 211 sends information such as the image obtained by the search, the shooting location of the image, and the time to the display processing unit 213.

CPU101はさらに、S602の処理の後、2つのスレッドにて処理を実行する。第11のスレッドは、第1の検索処理を継続するスレッドであり、S603〜S605の処理を含む。第12のスレッドは、第2の検索処理を行うスレッドであり、S611〜S617の処理を含む。第11のスレッドのS603〜S605の処理は、図5を参照しつつ説明した、第1の実施形態の検索処理のS503〜S505の処理と同様である。   The CPU 101 further executes processing with two threads after the processing of S602. The eleventh thread is a thread that continues the first search process, and includes the processes of S603 to S605. The twelfth thread is a thread that performs the second search process, and includes the processes of S611 to S617. The processes of S603 to S605 of the eleventh thread are the same as the processes of S503 to S505 of the search process of the first embodiment described with reference to FIG.

第12のスレッドのS611において、第2の検索部212は、S602における第1の検索処理において対象人物が検出されたか否かを確認する。第2の検索部212は、対象人物を検出した場合には(S611でYes)、処理をS612へ進める。第2の検索部212は、対象人物を検出しなかった場合には(S611でNo)、処理をS615へ進める。S612において、第2の検索部212は、クエリ画像だけでなく、S602における第1の検索処理において対象人物が検出された検出画像を利用して、第2の検索処理を行うべく、その準備を行う。   In S611 of the twelfth thread, the second search unit 212 confirms whether or not the target person has been detected in the first search process in S602. If the second search unit 212 detects the target person (Yes in S611), the process proceeds to S612. If the second search unit 212 does not detect the target person (No in S611), the process proceeds to S615. In S612, the second search unit 212 prepares to perform the second search process by using not only the query image but also the detection image in which the target person is detected in the first search process in S602. Do.

次に、S613において、第2の検索部212は、クエリ画像と検出画像とを利用した、第2の検索処理を開始する。次に、S614において、第2の検索部212は、停止指示を受け付けたか否かを確認する。第2の検索部212は、停止指示を受け付けた場合には(S614でYes)、第21のスレッド処理を終了する。第2の検索部212は、停止指示を受け付けなかった場合には(S614でNo)、第2の検索処理を継続する。S615においては、第2の検索部212は、クエリ画像のみを利用した第2の検索処理を行うべくその準備処理を行う。なお、S615〜S617の処理は、図5を参照しつつ説明した、第1の実施形態の検索処理のS511〜513の処理と同様である。   Next, in S613, the second search unit 212 starts a second search process using the query image and the detected image. Next, in S614, the second search unit 212 confirms whether or not a stop instruction has been accepted. When receiving a stop instruction (Yes in S614), the second search unit 212 ends the twenty-first thread process. If the second search unit 212 does not receive a stop instruction (No in S614), the second search unit 212 continues the second search process. In S615, the second search unit 212 performs a preparation process to perform a second search process using only the query image. Note that the processing of S615 to S617 is the same as the processing of S511 to 513 of the search processing of the first embodiment described with reference to FIG.

第2のスレッドのS621においては、表示処理部213は、S602、S604、S613、S616において得られた検出結果を統合し、統合した研修結果をモニタ110に表示する。次に、S622において、CPU101は、停止指示を受け付けたか否かを確認する。CPU101は、停止指示を受け付けなかった場合には(S622でNo)、処理をS621へ進め、表示処理を継続する。CPU101は、停止指示を受け付けた場合には(S622でYes)、処理を終了する。なお、第2の実施形態に係る監視システムのこれ以外の構成及び処理は、第1の実施形態に係る監視システムの構成及び処理と同様である。   In S621 of the second thread, the display processing unit 213 integrates the detection results obtained in S602, S604, S613, and S616, and displays the integrated training result on the monitor 110. Next, in S622, the CPU 101 confirms whether or not a stop instruction has been accepted. If the CPU 101 has not received a stop instruction (No in S622), the CPU 101 advances the process to S621 and continues the display process. When the CPU 101 receives a stop instruction (Yes in S622), the CPU 101 ends the process. The remaining configuration and processing of the monitoring system according to the second embodiment are the same as the configuration and processing of the monitoring system according to the first embodiment.

以上のように、第2の実施形態の情報処理装置100は、検索指示の受付時点よりも前に情報処理装置100に入力され、映像記憶部202に記憶された映像の特徴を検索範囲とする第1の検索処理を第2の検索処理の前に実行する。そして、情報処理装置100は、この第1の検索処理の後に、この第1の検索処理において得られた対象人物の検出画像を用いて第2の検索処理を行う。これにより、検索精度を向上させることができる。さらに、情報処理装置100は、第1の実施形態と同様に、第2の検索処理が開始するまでは、異なる検索範囲において第1の検索処理を継続する。したがって、情報処理装置100は、処理速度の低下を招くことなく、過去から継続的に、人物を検索することができる。   As described above, the information processing apparatus 100 according to the second embodiment uses the video features input to the information processing apparatus 100 and stored in the video storage unit 202 before the search instruction reception time as a search range. The first search process is executed before the second search process. Then, after the first search process, the information processing apparatus 100 performs a second search process using the target person detection image obtained in the first search process. Thereby, search accuracy can be improved. Furthermore, as in the first embodiment, the information processing apparatus 100 continues the first search process in a different search range until the second search process starts. Therefore, the information processing apparatus 100 can search for a person continuously from the past without causing a decrease in processing speed.

以下、第1の実施形態及び第2の実施形態の変更例について説明する。第1の変更例としては、画像特徴は、顔画像の画像特徴に限定されるものではない。他の例としては、画像特徴は、人体全体から得る人体画像特徴であってもよい。人体画像特徴としては、例えば身長と体幅の比率や、頭身や身長に占める足の長さの比率などの数値が挙げられる。また他の例としては、情報処理装置100は、画像特徴に替えて、顔を含む人体全体から得られる人物の属性情報を用いてもよい。属性情報の例としては、人種、性別、年齢、メガネの有無、髭、服の色等がある。   Hereinafter, modified examples of the first embodiment and the second embodiment will be described. As a first modification, the image feature is not limited to the image feature of the face image. As another example, the image feature may be a human body image feature obtained from the entire human body. Examples of human body image characteristics include numerical values such as a ratio of height to body width and a ratio of foot length to head and body and height. As another example, the information processing apparatus 100 may use attribute information of a person obtained from the entire human body including the face, instead of the image feature. Examples of attribute information include race, gender, age, presence / absence of glasses, heels, clothing colors, and the like.

また他の例としては、情報処理装置100は、画像特徴と属性情報の両方を、画像特徴として用いてもよい。例えば、情報処理装置100は、画像特徴用の第1の検索処理及び第2の検索処理のスコアと、属性情報用の第1の検索処理及び第2の検索処理のスコアと、を個別に算出する。そして、情報処理装置100は、両スコアの重み付け和を総合スコアとして算出してもよい。   As another example, the information processing apparatus 100 may use both image features and attribute information as image features. For example, the information processing apparatus 100 individually calculates the scores of the first search process and the second search process for image features and the scores of the first search process and the second search process for attribute information. To do. Then, the information processing apparatus 100 may calculate the weighted sum of both scores as a total score.

第2の変更例としては、情報処理装置100は、クエリ人物と検索結果としての画像とを区別可能に表示してもよい。これにより、誤検索か否かをユーザが確認することができる。   As a second modification, the information processing apparatus 100 may display the query person and the image as the search result so as to be distinguishable. Thereby, the user can confirm whether it is an erroneous search.

第3の変更例としては、第1の検索部211及び第2の検索部212のうち少なくとも一方は、対象人物の複数の画像を検出した場合に、顔の向きが異なる画像を優先的に検出することとしてもよい。   As a third modification, when at least one of the first search unit 211 and the second search unit 212 detects a plurality of images of the target person, it preferentially detects images having different face orientations. It is good to do.

第4の変更例としては、第1の検索部211及び第2の検索部212のうち少なくとも一方は、処理時点により近い時点において撮影された画像を、優先的に検出することとしてもよい。迷子等人物確保を目的とする場合に有用である。   As a fourth modification, at least one of the first search unit 211 and the second search unit 212 may preferentially detect an image taken at a time closer to the processing time. This is useful for securing a person such as a lost child.

第5の変更例としては、情報処理装置100の第1の検索部211は、第2の検索処理が開始するまでに情報処理装置100に入力された映像に対し第2の検索処理を行えばよく、そのための具体的な処理は、実施形態に限定されるものではない。他の例としては、第1の検索部211は、第2の検索処理が開始した時点で、第2の検索処理が開始するまでに情報処理装置100に入力され、映像記憶部202に記憶されている映像の特徴を検索範囲とする第1の検索処理を1回行うこととしてもよい。   As a fifth modification example, if the first search unit 211 of the information processing apparatus 100 performs the second search process on the video input to the information processing apparatus 100 before the second search process starts. Well, the specific processing for that is not limited to the embodiment. As another example, when the second search process is started, the first search unit 211 is input to the information processing apparatus 100 and stored in the video storage unit 202 until the second search process starts. The first search process with the feature of the video being searched as the search range may be performed once.

以上、上述した各実施形態によれば、処理速度の低下を招くことなく、過去から継続的に、人物を検索することができる。   As described above, according to each embodiment described above, it is possible to search for a person continuously from the past without causing a decrease in processing speed.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

上述の説明においては、第1の検索処理において、類似度が所定閾値よりも高い画像特徴を特定することにより、対象人物の検出画像を取得できるようにしている。しかし、例えば、情報処理装置100を使用する使用者(監視員)が対象人物を特定し、その情報が情報処理装置100の入力手段により入力されることにより、その対象人物の検出画像を取得できるようにしてもよい。   In the above description, in the first search process, the detected image of the target person can be acquired by specifying an image feature whose similarity is higher than a predetermined threshold. However, for example, when a user (monitor) who uses the information processing apparatus 100 specifies a target person and the information is input by the input unit of the information processing apparatus 100, a detection image of the target person can be acquired. You may do it.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 情報処理装置
201 映像受付部
202 映像記憶部
211 第1の検索部
212 第2の検索部
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 201 Image | video reception part 202 Image | video storage part 211 1st search part 212 2nd search part

Claims (12)

人物の検索指示を受け付ける受付手段と、
前記検索指示を受け付けた受付時点より前に撮像手段から入力され、記憶手段に記憶された映像から抽出された人物の特徴と、前記検索指示に係る対象人物から抽出された特徴と、に基づいて、前記記憶手段に記憶されている映像から、前記対象人物を検索する第1の検索処理を行う第1の検索手段と、
前記受付時点の後に前記撮像手段から入力された映像から抽出された人物の特徴と、前記検索指示に係るクエリ画像から抽出された前記対象人物の特徴と、に基づいて、前記受付時点の後に入力された映像から前記対象人物を検索する第2の検索処理を行う第2の検索手段と
を有し、
前記第1の検索手段は、前記受付時点から前記第2の検索手段による前記第2の検索処理の準備が完了し、前記第2の検索処理を開始するまでの間に入力された映像に対して、前記第1の検索処理を行うことを特徴とする情報処理装置。
A receiving means for receiving a person search instruction;
Based on the characteristics of the person extracted from the video input from the imaging means and stored in the storage means before the reception time when the search instruction is received, and the characteristics extracted from the target person related to the search instruction First search means for performing a first search process for searching for the target person from the video stored in the storage means;
Based on the characteristics of the person extracted from the video input from the imaging means after the reception time point and the characteristics of the target person extracted from the query image related to the search instruction, input after the reception time point Second search means for performing a second search process for searching for the target person from the recorded video,
The first search means performs an operation on the input video from the reception time point until the second search process is completed by the second search means until the second search process is started. An information processing apparatus that performs the first search process.
前記第1の検索手段の検索結果及び前記第2の検索手段の検索結果を統合する統合手段と、
前記統合手段による統合後の前記検索結果を表示する表示手段と
をさらに有することを特徴とする請求項1に記載の情報処理装置。
Integration means for integrating the search results of the first search means and the search results of the second search means;
The information processing apparatus according to claim 1, further comprising display means for displaying the search result after integration by the integration means.
前記第1の検索手段は、前記記憶手段に記憶された映像から抽出された人物の特徴を検索範囲とする前記第1の検索処理が終了した後、前記第2の検索処理が開始していない場合には、前記記憶手段に記憶されている映像から抽出された人物の特徴で、既に実行された前記第1の検索処理において、検索範囲に設定されていない映像から抽出された人物の特徴を検索範囲として、再び前記第1の検索処理を行うことを特徴とする請求項1又は2に記載の情報処理装置。   The first search means has not started the second search process after the first search process is completed with the characteristics of the person extracted from the video stored in the storage means as the search range. In this case, the characteristics of the person extracted from the video that is not set in the search range in the first search process that has already been executed in the first search process that has been extracted from the video stored in the storage means. The information processing apparatus according to claim 1, wherein the first search process is performed again as a search range. 前記第1の検索手段は、前記第2の検索処理が開始した場合に、前記第1の検索処理を終了することを特徴とする請求項1乃至3何れか1項に記載の情報処理装置。   4. The information processing apparatus according to claim 1, wherein the first search unit ends the first search process when the second search process is started. 5. 前記第2の検索手段は、前記第1の検索手段により前記対象人物が検出された場合に、前記対象人物が検出された画像と、前記クエリ画像と、に基づいて、前記対象人物を検索することを特徴とする請求項1乃至4何れか1項に記載の情報処理装置。   The second search unit searches for the target person based on the image in which the target person is detected and the query image when the target person is detected by the first search unit. The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus. 前記第2の検索手段は、前記第1の検索手段が、前記受付時点より前に前記撮像手段から入力され、前記記憶手段に記憶された映像の特徴を対象とした前記第1の検索処理を終了した後に、前記第2の検索処理を開始することを特徴とする請求項5に記載の情報処理装置。   The second search unit performs the first search process on the feature of the video that is input from the imaging unit and stored in the storage unit before the reception time point. 6. The information processing apparatus according to claim 5, wherein the second search process is started after the end. 前記第2の検索手段は、停止指示を受け付けた場合に、前記第2の検索処理を終了することを特徴とする請求項1乃至6何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the second search unit terminates the second search process when a stop instruction is received. 前記第2の検索手段は、前記撮像手段から入力された映像から抽出された人物が検索範囲から外れた場合に、または、前記撮像手段から入力された映像から人物が抽出されてから所定の時間を超えた場合に、前記第2の検索処理を終了することを特徴とする請求項1乃至6何れか1項に記載の情報処理装置。   The second search means is a predetermined time when the person extracted from the video input from the image pickup means is out of the search range or after the person is extracted from the video input from the image pickup means. The information processing apparatus according to any one of claims 1 to 6, wherein the second search process is terminated when the value exceeds the threshold. 前記表示手段は、前記クエリ画像と、前記検索結果と、を区別可能に表示することを特徴とする請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the display unit displays the query image and the search result in a distinguishable manner. 前記第1の検索手段及び前記第2の検索手段のうち少なくとも一方は、前記対象人物の顔の向きまたは前記対象人物の人体の向きが異なる画像を優先的に検出することを特徴とする請求項1乃至9何れか1項に記載の情報処理装置。   The at least one of the first search unit and the second search unit preferentially detects images having different face orientations of the target person or human bodies of the target person. The information processing apparatus according to any one of 1 to 9. 情報処理装置が実行する情報処理方法であって、
人物の検索指示を受け付ける受付ステップと、
前記検索指示を受け付けた受付時点より前に撮像手段から入力され、記憶手段に記憶された映像から抽出された人物の特徴と、前記検索指示に係る対象人物から抽出された特徴と、に基づいて、前記記憶手段に記憶されている映像から、前記対象人物を検索する第1の検索処理を行う第1の検索ステップと、
前記受付時点の後に前記撮像手段から入力された映像から抽出された人物の特徴と、前記検索指示に係るクエリ画像から抽出された前記対象人物の特徴と、に基づいて、前記受付時点の後に入力された映像から前記対象人物を検索する第2の検索処理を行う第2の検索ステップと
を含み、
前記第1の検索ステップでは、前記受付時点から前記第2の検索ステップにおける前記第2の検索処理の準備が完了し、前記第2の検索処理を開始するまでの間に入力された映像に対して、前記第1の検索処理を行うことを特徴とする情報処理方法。
An information processing method executed by an information processing apparatus,
A reception step for receiving a person search instruction;
Based on the characteristics of the person extracted from the video input from the imaging means and stored in the storage means before the reception time when the search instruction is received, and the characteristics extracted from the target person related to the search instruction A first search step of performing a first search process for searching for the target person from the video stored in the storage means;
Based on the characteristics of the person extracted from the video input from the imaging means after the reception time point and the characteristics of the target person extracted from the query image related to the search instruction, input after the reception time point A second search step of performing a second search process for searching for the target person from the recorded video,
In the first search step, for the input video from the reception time point until the second search process in the second search step is completed and the second search process is started. And performing the first search process.
コンピュータを、
人物の検索指示を受け付ける受付手段と、
前記検索指示を受け付けた受付時点より前に撮像手段から入力され、記憶手段に記憶された映像から抽出された人物の特徴と、前記検索指示に係る対象人物から抽出された特徴と、に基づいて、前記記憶手段に記憶されている映像から、前記対象人物を検索する第1の検索処理を行う第1の検索手段と、
前記受付時点の後に前記撮像手段から入力された映像から抽出された人物の特徴と、前記検索指示に係るクエリ画像から抽出された前記対象人物の特徴と、に基づいて、前記受付時点の後に入力された映像から前記対象人物を検索する第2の検索処理を行う第2の検索手段と
して機能させ、
前記第1の検索手段は、前記受付時点から第2の検索手段による前記第2の検索処理の準備が完了し、前記第2の検索処理を開始するまでの間に入力された映像に対して、前記第1の検索処理を行うプログラム。
Computer
A receiving means for receiving a person search instruction;
Based on the characteristics of the person extracted from the video input from the imaging means and stored in the storage means before the reception time when the search instruction is received, and the characteristics extracted from the target person related to the search instruction First search means for performing a first search process for searching for the target person from the video stored in the storage means;
Based on the characteristics of the person extracted from the video input from the imaging means after the reception time point and the characteristics of the target person extracted from the query image related to the search instruction, input after the reception time point Functioning as a second search means for performing a second search process for searching for the target person from the recorded video,
The first search unit is configured to process an image input from the reception time point until the second search process is completed by the second search unit and the second search process is started. A program for performing the first search process.
JP2016083882A 2016-04-19 2016-04-19 Information processing equipment, information processing methods and programs Active JP6762754B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016083882A JP6762754B2 (en) 2016-04-19 2016-04-19 Information processing equipment, information processing methods and programs
KR1020170045801A KR102284448B1 (en) 2016-04-19 2017-04-10 Information processing apparatus, information processing method, and storage medium
EP17000633.2A EP3236366B1 (en) 2016-04-19 2017-04-12 Information processing apparatus, information processing method, and storage medium
CN201710253807.XA CN107305693B (en) 2016-04-19 2017-04-18 Information processing apparatus, information processing method, and storage medium
US15/490,345 US10664523B2 (en) 2016-04-19 2017-04-18 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016083882A JP6762754B2 (en) 2016-04-19 2016-04-19 Information processing equipment, information processing methods and programs

Publications (2)

Publication Number Publication Date
JP2017194798A true JP2017194798A (en) 2017-10-26
JP6762754B2 JP6762754B2 (en) 2020-09-30

Family

ID=60156084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016083882A Active JP6762754B2 (en) 2016-04-19 2016-04-19 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6762754B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020261508A1 (en) * 2019-06-27 2020-12-30 Nec Corporation Image processing device, person search system, image processing method, and non-transitory computer readable medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040117638A1 (en) * 2002-11-21 2004-06-17 Monroe David A. Method for incorporating facial recognition technology in a multimedia surveillance system
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
JP2010257449A (en) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd Device, method, and program for retrieving person
WO2014050518A1 (en) * 2012-09-28 2014-04-03 日本電気株式会社 Information processing device, information processing method, and information processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040117638A1 (en) * 2002-11-21 2004-06-17 Monroe David A. Method for incorporating facial recognition technology in a multimedia surveillance system
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system
US20070248244A1 (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corporation Image surveillance/retrieval system
JP2010257449A (en) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd Device, method, and program for retrieving person
WO2014050518A1 (en) * 2012-09-28 2014-04-03 日本電気株式会社 Information processing device, information processing method, and information processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020261508A1 (en) * 2019-06-27 2020-12-30 Nec Corporation Image processing device, person search system, image processing method, and non-transitory computer readable medium
JP2022535540A (en) * 2019-06-27 2022-08-09 日本電気株式会社 Image processing device, person search system, image processing method, and image processing program
JP7264283B2 (en) 2019-06-27 2023-04-25 日本電気株式会社 Image processing device, person search system, image processing method, and image processing program

Also Published As

Publication number Publication date
JP6762754B2 (en) 2020-09-30

Similar Documents

Publication Publication Date Title
JP7375101B2 (en) Information processing device, information processing method and program
CN107305693B (en) Information processing apparatus, information processing method, and storage medium
KR100996066B1 (en) Face-image registration device, face-image registration method, face-image registration program, and recording medium
US8965061B2 (en) Person retrieval apparatus
JP4984728B2 (en) Subject collation device and subject collation method
JP6013241B2 (en) Person recognition apparatus and method
JP6555906B2 (en) Information processing apparatus, information processing method, and program
WO2020017190A1 (en) Image analysis device, person search system, and person search method
US10467461B2 (en) Apparatus for searching for object and control method thereof
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
KR20120135469A (en) Facial image search system and facial image search method
JP2010072723A (en) Tracking device and tracking method
CN106529388A (en) Information processing device and control method thereof
JP2017058833A (en) Object identification device, object identification method, and program
JP2019040306A (en) Information processing device, information processing program, and information processing method
JP2018186397A (en) Information processing device, image monitoring system, information processing method, and program
JP6762754B2 (en) Information processing equipment, information processing methods and programs
JP2019040592A (en) Information processing device, information processing program, and information processing method
JP6736340B2 (en) Information processing apparatus, information processing method, and program
JP2017005582A (en) Image processing system, image processing method and program
JP2022028861A (en) Information processing apparatus, information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200909

R151 Written notification of patent or utility model registration

Ref document number: 6762754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151