JP2021018518A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2021018518A
JP2021018518A JP2019132695A JP2019132695A JP2021018518A JP 2021018518 A JP2021018518 A JP 2021018518A JP 2019132695 A JP2019132695 A JP 2019132695A JP 2019132695 A JP2019132695 A JP 2019132695A JP 2021018518 A JP2021018518 A JP 2021018518A
Authority
JP
Japan
Prior art keywords
person
image
search result
information
comparison source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019132695A
Other languages
Japanese (ja)
Inventor
智之 清水
Tomoyuki Shimizu
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019132695A priority Critical patent/JP2021018518A/en
Publication of JP2021018518A publication Critical patent/JP2021018518A/en
Pending legal-status Critical Current

Links

Images

Abstract

To make it possible to specify and provide information supporting the determination of identity between an image of a comparison source and an image of a comparison destination.SOLUTION: An information processing device retrieves a person whose image feature is similar to that of a person of a comparison source from a stored image and outputs a retrieval result, separately acquires a first image including the person of the comparison source and a second image including the person of the retrieval result, extracts an object of a processing target different from the person of the comparison source and the person of the retrieval result from the first image and the second image, performs collation processing of the object of the processing target extracted from the first image and the second image, and specifies information for supporting the determination of identify of the person of the comparison source and the person of the retrieval result on the basis of a result of the collation processing and provides the information.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

監視カメラシステムの普及により、多くの施設や街頭で、多数の人物を撮影するケースが増加している。これらの撮影した画像から、所望の人物を探す技術がある。顔認証技術によるものが代表的であるが、監視カメラが顔を捉えているとは限らないため、人物の全身画像から得られる特徴量を利用した照合技術もある(例えば、特許文献1参照)。 With the spread of surveillance camera systems, the number of cases of shooting a large number of people is increasing in many facilities and streets. There is a technique for searching for a desired person from these captured images. A face recognition technology is typical, but since a surveillance camera does not always capture a face, there is also a collation technology that uses a feature amount obtained from a full-body image of a person (see, for example, Patent Document 1). ..

国際公開第2011/046128号International Publication No. 2011/046128

全身画像の特徴量を利用した照合では、顔認証ほどの照合精度が得られないことも多く、特許文献1では顔による照合と併用している。全身画像の特徴量のみでの照合では、一般的に人が照合結果を確認する必要がある。しかし、単純に、比較元の画像と比較先(結果)の画像とを表示しただけでは、画像特徴的には類似している人物の画像であるため、いずれの結果が同一人物であるかを人が判断することは難しい。 Collation using the feature amount of the whole body image often does not obtain collation accuracy as high as face recognition, and Patent Document 1 uses it together with face collation. In the collation using only the features of the whole body image, it is generally necessary for a person to confirm the collation result. However, simply displaying the comparison source image and the comparison destination (result) image is an image of a person whose image characteristics are similar, so it is possible to determine which result is the same person. It is difficult for a person to judge.

本発明は、このような事情に鑑みてなされたものであり、比較元の画像及び比較先の画像から同一性の判断を支援する情報を特定して提供できるようにすることを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to be able to identify and provide information that supports determination of identity from an image of a comparison source and an image of a comparison destination.

本発明に係る情報処理装置は、保管されている画像から比較元の人物に画像特徴が類似する人物を検索し検索結果を出力する検索手段と、前記比較元の人物が含まれる第1の画像及び前記検索結果の人物が含まれる第2の画像をそれぞれ取得する画像取得手段と、前記第1の画像及び前記第2の画像から、前記比較元の人物及び前記検索結果の人物とは異なる、処理対象のオブジェクトを抽出する抽出手段と、前記第1の画像及び前記第2の画像から抽出した前記処理対象のオブジェクトの照合処理を行い、前記照合処理の結果に基づいて前記比較元の人物及び前記検索結果の人物の同一性の判断を支援する情報を特定して提供する特定手段とを有することを特徴とする。 The information processing apparatus according to the present invention searches for a person whose image characteristics are similar to the person to be compared from the stored image, and outputs a search result, and a first image including the person to be compared. And the image acquisition means for acquiring the second image including the person of the search result, and the person of the comparison source and the person of the search result are different from the first image and the second image. The extraction means for extracting the object to be processed and the object to be processed extracted from the first image and the second image are collated, and based on the result of the collation process, the person to be compared and the person to be compared It is characterized by having a specific means for identifying and providing information that supports determination of the identity of a person in the search result.

本発明によれば、比較元の画像及び比較先の画像に基づいて同一性の判断を支援する情報を特定し提供することが可能となる。 According to the present invention, it is possible to identify and provide information that supports the determination of identity based on the image of the comparison source and the image of the comparison destination.

第1の実施形態における情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the information processing apparatus in 1st Embodiment. 第1の実施形態における情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus in 1st Embodiment. 第1の実施形態における人物検索結果表示を説明する図である。It is a figure explaining the person search result display in 1st Embodiment. 第1の実施形態におけるヒント表示を説明する図である。It is a figure explaining the hint display in 1st Embodiment. 第1の実施形態における情報処理装置での処理例を示すフローチャートである。It is a flowchart which shows the processing example in the information processing apparatus in 1st Embodiment. 第3の実施形態における情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus in 3rd Embodiment. 第4の実施形態における情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus in 4th Embodiment. 第8の実施形態におけるヒント表示を説明する図である。It is a figure explaining the hint display in 8th Embodiment.

以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
本発明の第1の実施形態について説明する。図1は、第1の実施形態における情報処理装置のハードウェア構成例を示すブロック図である。本実施形態における情報処理装置は、例えば、単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で実現する場合、各コンピュータ装置は、Local Area Network(LAN)等のネットワークを介して互いに通信可能なように接続されるものとする。
(First Embodiment)
The first embodiment of the present invention will be described. FIG. 1 is a block diagram showing a hardware configuration example of the information processing device according to the first embodiment. The information processing device in the present embodiment may be realized by, for example, a single computer device, or may be realized by distributing each function to a plurality of computer devices as required. When realized by a plurality of computer devices, each computer device shall be connected so as to be able to communicate with each other via a network such as Local Area Network (LAN).

本実施形態における情報処理装置100は、図1に示すように、CPU101、ROM102、RAM103、記憶装置104、入力デバイスインタフェース105、及び出力デバイスインタフェース106を有する。CPU101、ROM102、RAM103、記憶装置104、入力デバイスインタフェース105、及び出力デバイスインタフェース106は、システムバス107を介して互いに通信可能に接続されている。 As shown in FIG. 1, the information processing device 100 in the present embodiment includes a CPU 101, a ROM 102, a RAM 103, a storage device 104, an input device interface 105, and an output device interface 106. The CPU 101, ROM 102, RAM 103, storage device 104, input device interface 105, and output device interface 106 are communicably connected to each other via the system bus 107.

CPU(Central Processing Unit)101は、情報処理装置100全体を制御する。ROM(Read Only Memory)102は、変更を必要としないプログラムやパラメータ等を格納する。RAM(Random Access Memory)103は、記憶装置104等から供給されるプログラムやデータ等を一時記憶する。CPU101は、ROM102やRAM103等に格納されているコンピュータプログラムやデータを用いて情報処理装置100の全体を制御する。 The CPU (Central Processing Unit) 101 controls the entire information processing device 100. The ROM (Read Only Memory) 102 stores programs, parameters, and the like that do not require changes. The RAM (Random Access Memory) 103 temporarily stores programs, data, and the like supplied from the storage device 104 and the like. The CPU 101 controls the entire information processing apparatus 100 by using computer programs and data stored in the ROM 102, the RAM 103, and the like.

記憶装置104は、情報処理装置100に固定して設置されたハードディスクドライブ(HDD)やフラッシュメモリドライブ(SSD)、あるいは情報処理装置100から着脱可能な光ディスク、磁気や光カード、ICカード、メモリカード等である。入力デバイスインタフェース105は、ユーザの操作を受けてデータを入力するポインティングデバイスやキーボード等の入力デバイス108とのインタフェースである。出力デバイスインタフェース106は、情報処理装置100が保持するデータや供給されたデータやプログラムの実行結果を出力するためのモニタ等の出力デバイス109とのインタフェースである。 The storage device 104 is a hard disk drive (HDD) or flash memory drive (SSD) fixedly installed in the information processing device 100, or an optical disk, magnetic or optical card, IC card, memory card that can be attached to and detached from the information processing device 100. And so on. The input device interface 105 is an interface with an input device 108 such as a pointing device or a keyboard that inputs data in response to a user's operation. The output device interface 106 is an interface with an output device 109 such as a monitor for outputting the data held by the information processing apparatus 100, the supplied data, and the execution result of the program.

図2は、第1の実施形態における情報処理装置の機能構成例を示すブロック図である。第1の実施形態における情報処理装置は、映像保管部201、人物検索部202、処理対象判定部203、周辺画像取得部204、ヒントオブジェクト候補抽出部205、ヒントオブジェクト特定部206、及びヒント表示部207を有する。 FIG. 2 is a block diagram showing a functional configuration example of the information processing apparatus according to the first embodiment. The information processing apparatus according to the first embodiment includes a video storage unit 201, a person search unit 202, a processing target determination unit 203, a peripheral image acquisition unit 204, a hint object candidate extraction unit 205, a hint object identification unit 206, and a hint display unit. Has 207.

映像保管部201は、監視システム208で撮影された撮影画像を記憶装置104へ記録し、撮影したカメラの情報及び撮影時間の情報とともに保管・管理する。本実施形態における監視システム208は、少なくとも人物を撮影可能な位置に設置された監視カメラを管理し、そのカメラの設置場所情報や撮影時間情報とともに、カメラで撮影する画像を取得可能であるとする。カメラの設置場所情報は、カメラ間のおよその位置がわかるような情報であればよく、例えばWGS84等の一般的な地理座標系の座標情報を保持すれば良い。なお、監視システム208が、カメラで撮影する画像とともにマイク等を用いて音声を取得可能なようにして、撮影した撮影画像及び取得した音声を合わせて記憶装置104へ記録されるようにしてもよい。 The video storage unit 201 records the captured image captured by the monitoring system 208 in the storage device 104, and stores and manages the captured image together with the captured camera information and the capture time information. It is assumed that the surveillance system 208 in the present embodiment manages at least a surveillance camera installed at a position where a person can be photographed, and can acquire an image to be captured by the camera together with information on the installation location and shooting time of the camera. .. The camera installation location information may be any information that allows the approximate position between the cameras to be known, and may hold coordinate information of a general geographic coordinate system such as WGS84. It should be noted that the monitoring system 208 may be able to acquire sound by using a microphone or the like together with the image captured by the camera, and the captured image and the acquired sound may be recorded in the storage device 104 together. ..

また、本実施形態における監視システム208は、一般的な監視システムが有する、監視カメラ映像の閲覧等の機能を利用者に提供するユーザインタフェースを有するものとする。本実施形態における提供機能も、監視システム208のユーザインタフェースが、入力デバイス108及び出力デバイス109を介して、利用者からの指示入力の受信や利用者への処理結果の表示を行うものとする。なお、本実施形態における処理に直接関係しない監視システム208の機能及び構成については、説明を省略する。 Further, the surveillance system 208 in the present embodiment shall have a user interface that provides the user with a function such as viewing a surveillance camera image, which is possessed by a general surveillance system. As for the provided function in the present embodiment, the user interface of the monitoring system 208 also receives an instruction input from the user and displays the processing result to the user via the input device 108 and the output device 109. The functions and configurations of the monitoring system 208 that are not directly related to the processing in the present embodiment will not be described.

人物検索部202は、比較元となる人物画像を入力し、当該人物画像と人物全体の画像特徴が類似した人物を映像保管部201が保管・管理する画像から検索する。本実施形態では、監視システム208を利用している利用者が、監視カメラで撮影された画像中から検索したい比較元の人物を選択して検索するものとして説明する。なお、人物検索部202の入力となる人物画像は、比較元である人物を包含するような矩形のバウンディングボックスで定められた領域の画像である。人物検索部202は、その矩形内の画像から得られた画像特徴量と類似する別の人物を、映像保管部201が保管・管理する画像から検索する。 The person search unit 202 inputs a person image as a comparison source, and searches for a person whose image characteristics are similar to those of the person image from the images stored and managed by the video storage unit 201. In the present embodiment, it is assumed that the user using the surveillance system 208 selects and searches the comparison source person to be searched from the images taken by the surveillance camera. The person image input by the person search unit 202 is an image of an area defined by a rectangular bounding box that includes a person as a comparison source. The person search unit 202 searches for another person similar to the image feature amount obtained from the image in the rectangle from the image stored and managed by the video storage unit 201.

人物検索部202による検索結果は、例えば出力デバイス109に出力・表示される。本実施形態においては、映像保管部201が保管・管理する記録された画像からは、あらかじめ人物の矩形領域を特定しておく。人物の矩形領域の特定の仕方については、特に限定されるものではなく、例えば、人物の顔や頭部の領域を検出し、その顔や頭部の領域の位置と大きさから、およその人物全体の矩形領域を求めるようにする等すれば良い。同様に、比較元の人物の矩形領域についても、任意の方法で得てよい。例えば、利用者が選択時にマウス等のデバイスを利用して矩形領域を指定するようにしても良いし、あるいは、先に述べたような顔や頭部の領域をベースとしておよその矩形領域を自動で判別するようにしても良い。 The search result by the person search unit 202 is output and displayed on the output device 109, for example. In the present embodiment, a rectangular area of a person is specified in advance from the recorded images stored and managed by the video storage unit 201. The method of specifying the rectangular area of the person is not particularly limited. For example, the area of the face or head of the person is detected, and the position and size of the area of the face or head are used to determine the approximate person. The entire rectangular area may be obtained. Similarly, the rectangular area of the comparison source person may be obtained by any method. For example, the user may specify the rectangular area by using a device such as a mouse at the time of selection, or the approximate rectangular area is automatically set based on the area of the face or head as described above. It may be determined by.

また、このようにして得られる人物画像から抽出する画像特徴量についても、特に限定されるものではない。人が視覚的に似ていると思う特徴を捉えた任意の画像特徴量を利用すれば良い。例えば、局所領域の輝度勾配の出現頻度の類似性を用いるHOG(Histograms of Oriented Gradients)特徴量のような、一般的な画像特徴量で良い。あるいは、ディープラーニング(Deep Learning)の手法により、類似人物を判定するタスクを学習したネットワークから中間層の出力を特徴量として抽出して利用する等しても良い。 Further, the image feature amount extracted from the person image obtained in this way is not particularly limited. Any image feature amount that captures features that people think are visually similar may be used. For example, a general image feature amount such as a HOG (Histograms of Oriented Gradients) feature amount using the similarity of the appearance frequency of the luminance gradient in the local region may be used. Alternatively, the output of the intermediate layer may be extracted as a feature amount from the network in which the task of determining similar persons has been learned by a deep learning method and used.

さらに、特徴量の比較の仕方も特に限定されるものではない。本実施形態では、あらかじめ人物の矩形領域を特定した際、特定された矩形領域から得た特徴量をRAM103等に保持しておく。このとき、照合した際に、どの画像フレームから得た人物であるかがわかるように、本実施形態における情報処理装置は、撮影したカメラの情報及び撮影時間の情報と、矩形位置の情報とを、特徴量と紐づけて管理しておく。これにより、あらかじめ得ておいた特徴量と、比較元の人物画像から得た特徴量とを比較して、特徴量が類似する人物を検索結果として特定する。特徴量の類似性の判定は、例えば、特徴量をベクトルとみなして、ベクトル距離の近さによって判定する一般的な手法で行えば良い。 Further, the method of comparing the feature quantities is not particularly limited. In the present embodiment, when the rectangular area of the person is specified in advance, the feature amount obtained from the specified rectangular area is held in the RAM 103 or the like. At this time, the information processing apparatus in the present embodiment obtains the information of the camera that has taken a picture, the information of the taking time, and the information of the rectangular position so that the person can be identified from which image frame the person is obtained from when collated. , Manage it in association with the feature amount. As a result, the feature amount obtained in advance is compared with the feature amount obtained from the comparison source person image, and a person having similar feature amounts is specified as a search result. The similarity of the feature amount may be determined by, for example, a general method in which the feature amount is regarded as a vector and is determined by the closeness of the vector distance.

処理対象判定部203は、比較元の人物画像の撮影カメラ位置及び撮影時間の情報と、ある検索結果の撮影カメラ位置及び撮影時間の情報とを比較し、距離及び時間の差からおよその移動速度を求めることで、ヒントとして使うオブジェクトの判定を行う。処理対象判定部203には、あらかじめ、およその人の徒歩程度の移動速度、及び車両の移動速度を設定しておく。処理対象判定部203は、移動速度が人の徒歩程度(例えば、4km/h)であれば、使えるヒントオブジェクトを「人物」と判定し、移動速度が車両によるものに近い(例えば、30km/h)場合、使えるヒントオブジェクトは「車両」と判定する。設定した値の間の速度であり、いずれか一方に特定することが困難である場合、「人物」及び「車両」をヒントオブジェクトとしたそれぞれの処理を実施するようにしても構わない。 The processing target determination unit 203 compares the information on the shooting camera position and shooting time of the comparison source person image with the information on the shooting camera position and shooting time of a certain search result, and determines the approximate moving speed from the difference in distance and time. By asking for, the object to be used as a hint is determined. In the processing target determination unit 203, the moving speed of an approximate person walking and the moving speed of the vehicle are set in advance. If the movement speed is about the walking speed of a person (for example, 4 km / h), the processing target determination unit 203 determines that the hint object that can be used is a "person", and the movement speed is close to that of the vehicle (for example, 30 km / h). ), The hint object that can be used is determined to be "vehicle". If the speed is between the set values and it is difficult to specify one of them, each process may be performed using the "person" and the "vehicle" as hint objects.

なお、移動速度の分類は、前述した2つの分類に限るものではない。より細かい分類をして、それぞれ該当するオブジェクトを関連付けて利用しても良い。例えば、車両であればヒントオブジェクトとして自転車と自動車とを区別して利用しても良い。なお、より高い判定精度を実現するために、実際の人物の移動をカメラで追跡したり、現地を実地で検証したりして、カメラ間の実際の人物の移動時間の数値を取得して処理対象判定部203での判定に利用しても構わない。移動時間を大きく下回る(高速に移動した可能性が高い)場合、処理対象判定部203は、車両をヒントオブジェクトとして採用する判定をする等しても良い。 The classification of moving speed is not limited to the above two classifications. You may make finer classifications and use the corresponding objects in association with each other. For example, in the case of a vehicle, a bicycle and an automobile may be distinguished and used as hint objects. In addition, in order to realize higher judgment accuracy, the movement of the actual person is tracked by the camera, the site is verified in the field, and the numerical value of the movement time of the actual person between the cameras is acquired and processed. It may be used for the determination by the target determination unit 203. When the movement time is much shorter (there is a high possibility that the vehicle has moved at a high speed), the processing target determination unit 203 may determine that the vehicle is adopted as the hint object.

周辺画像取得部204は、比較元の人物及び検索結果の人物のそれぞれが含まれる画像を取得する。本実施形態では、比較元の人物及び検索結果の人物のそれぞれが含まれる撮影画像全体は、映像保管部201から取得する。映像保管部201では、先に述べたとおり、撮影したカメラの情報及び撮影時間の情報と合わせて画像を管理しているため、検索結果に紐づく撮影カメラの情報及び撮影時間の情報をキーとして、検索結果の人物を含む全体画像を取得する。 Peripheral image acquisition unit 204 acquires an image including each of the comparison source person and the search result person. In the present embodiment, the entire captured image including each of the comparison source person and the search result person is acquired from the video storage unit 201. As described above, the video storage unit 201 manages the image together with the shooting camera information and the shooting time information, so that the shooting camera information and the shooting time information linked to the search result are used as keys. , Get the whole image including the person in the search result.

ヒントオブジェクト候補抽出部205は、処理対象判定部203で判定したオブジェクトを、周辺画像取得部204で取得した画像中から抽出する。本実施形態では、ヒントオブジェクト候補抽出部205は、ヒントオブジェクトとして、「人物」ないし「車両(自動車)」を抽出する。それぞれのオブジェクトの特定手法は限定するものではない。例えば、「人物」に関しては、ヒントオブジェクト候補抽出部205は、前述したような顔や頭部の領域を基にして画像中から抽出しても構わない。 The hint object candidate extraction unit 205 extracts the object determined by the processing target determination unit 203 from the images acquired by the peripheral image acquisition unit 204. In the present embodiment, the hint object candidate extraction unit 205 extracts a "person" or a "vehicle (vehicle)" as a hint object. The method of identifying each object is not limited. For example, the hint object candidate extraction unit 205 may extract the “person” from the image based on the above-mentioned face and head regions.

また、「自動車」を判定する場合も、ヒントオブジェクト候補抽出部205は、ある特徴的な領域(形状や色の特徴)の発見から、自動車であるか否かを判定するなどすればよい。あるいは、ディープラーニングによるクラス判別手法を用いても良い。なお、後述するヒントオブジェクト特定部206では、オブジェクトの同一性を判定できればよいので、画像中における自動車の領域が厳密に必要であるわけではなく、例えばナンバープレートの比較により照合することも考えられる。その場合には、ナンバープレートの位置を認識可能にする、およその自動車位置が特定できれば良い。 Further, when determining the "automobile", the hint object candidate extraction unit 205 may determine whether or not the vehicle is an automobile based on the discovery of a certain characteristic region (characteristic of shape or color). Alternatively, a class discrimination method based on deep learning may be used. It should be noted that the hint object identification unit 206, which will be described later, only needs to be able to determine the identity of the objects, so that the region of the automobile in the image is not strictly required, and it is conceivable to collate by comparing license plates, for example. In that case, it suffices if the approximate vehicle position that makes the position of the license plate recognizable can be specified.

ヒントオブジェクト特定部206は、ヒントオブジェクト候補抽出部205で抽出した、比較元の人物周辺及び検索結果の人物周辺のヒントオブジェクト候補をそれぞれ比較し、あらかじめ定めておいた照合処理を行ってヒントオブジェクトのペアを特定する。比較元及び検索結果のそれぞれ異なる場所及び時間のオブジェクト候補を比較するため、ヒントオブジェクト特定部206は、各々に1対1の対応があるオブジェクトのペアを特定する。 The hint object identification unit 206 compares the hint object candidates around the person of the comparison source and the person around the search result extracted by the hint object candidate extraction unit 205, and performs a predetermined collation process to obtain the hint object. Identify the pair. In order to compare object candidates at different locations and times in the comparison source and the search result, the hint object identification unit 206 identifies a pair of objects having a one-to-one correspondence with each other.

本実施形態では、「人物」である場合と「自動車」である場合とがある。「人物」であれば、例えば、ヒントオブジェクト候補のうち、顔が写っているものについては顔特徴を使った認証が行えることから、それを利用しても構わない。また、全身画像から得られる特徴量を利用する場合、人物検索部202での類似判定の距離の閾値を、さらに近くに設定する等して照合した結果を用いても良い。また、「自動車」であれば、例えば、ナンバープレートを文字認識することで、高い確度での同一車両の照合ができるため、文字の特定が可能な解像度でプレートの映像が取得できるのであれば、これを利用しても構わない。他にも、多くの特徴量を複合的に利用して、確度を高めるようにしても良い。例えば、車であれば、外装や窓にシール等で文字情報が付与されていることも少なくない。これらの文字の同一性も合わせて、車両全体の画像特徴の類似性を複合的に判断して、確度を高めるようにしても良い。 In this embodiment, it may be a "person" or a "car". If it is a "person", for example, among the hint object candidates, those with a face can be authenticated using the face feature, so that may be used. Further, when using the feature amount obtained from the whole body image, the collation result may be used by setting the threshold value of the distance of the similarity determination in the person search unit 202 to be closer. Also, in the case of "automobiles", for example, by recognizing the license plate as characters, it is possible to collate the same vehicle with high accuracy, so if the image of the plate can be acquired with a resolution that can identify the characters, You may use this. In addition, many features may be used in combination to increase the accuracy. For example, in the case of a car, text information is often attached to the exterior and windows with stickers or the like. In addition to the identity of these characters, the similarity of the image features of the entire vehicle may be judged in a complex manner to increase the accuracy.

ヒントオブジェクトとして誤った情報を利用者に提示すれば、人物同定を支援することは困難になってしまうため、ヒントオブジェクト特定部206は、確度高く照合できる判定処理によってオブジェクトをヒントとして特定する。もし、高い確度で照合できるオブジェクトが見つからない場合、ヒントオブジェクト特定部206は、オブジェクトが見つからないものとして処理する。一方で、確度の高い照合処理で合致したオブジェクトのペアが複数見つかる場合もある。その場合、ヒントオブジェクト特定部206は、照合処理結果として得られる類似度・一致度が、より高いオブジェクトをあらかじめ定めておいたペアの数を上限として提示するようにすれば良い。 If incorrect information is presented to the user as a hint object, it becomes difficult to support the person identification. Therefore, the hint object identification unit 206 identifies the object as a hint by a determination process capable of collating with high accuracy. If an object that can be collated with high accuracy is not found, the hint object identification unit 206 processes it as if the object cannot be found. On the other hand, there are cases where multiple matching object pairs are found by highly accurate collation processing. In that case, the hint object specifying unit 206 may present an object having a higher degree of similarity / matching obtained as a collation processing result up to a predetermined number of pairs.

ヒント表示部207は、ヒントオブジェクト特定部206で特定したヒントオブジェクトのペアを、比較元及び検索結果の表示に加えて出力デバイス109に表示する。ヒント表示部207によるヒント表示の一例を、図3及び図4を用いて説明する。図3は、監視システム208が利用者に対して提供する人物検索機能の表示例を示す図である。図3において、カメラ設置位置を示す地図情報301には、比較元である人物の撮影位置及び時間の情報302が表示され、利用者が選択した検索結果の撮影位置及び時間の情報303が表示されている。図3は、比較元の人物と検索結果の人物との同一性の判断を支援するヒントが表示されていない状態である。 The hint display unit 207 displays the pair of hint objects specified by the hint object identification unit 206 on the output device 109 in addition to displaying the comparison source and the search result. An example of hint display by the hint display unit 207 will be described with reference to FIGS. 3 and 4. FIG. 3 is a diagram showing a display example of the person search function provided by the monitoring system 208 to the user. In FIG. 3, the map information 301 indicating the camera installation position displays the shooting position and time information 302 of the person who is the comparison source, and displays the shooting position and time information 303 of the search result selected by the user. ing. FIG. 3 shows a state in which a hint for supporting the determination of the identity between the comparison source person and the search result person is not displayed.

このとき、それぞれのカメラ設置位置情報を監視システム208から取得して、およそ5kmの距離があることがわかったとする。また、撮影時刻は、それぞれ16:00と16:10であったとすると、直線で30km/hの速度で移動したことになる。この場合、処理対象判定部203は、移動速度に基づいて「自動車」をヒントオブジェクトとして判定し、ヒントオブジェクト候補抽出部205は、比較元の人物及び検索結果の人物がそれぞれ含まれる全体画像中から自動車を抽出する。人物の近傍にそれぞれ自動車が抽出できた場合、その抽出した自動車の照合処理をヒントオブジェクト特定部206が実施する。前述したとおり、ヒントオブジェクト特定部206は、オブジェクトに応じた高い確度の照合処理を実施する。車がヒントオブジェクト候補である場合、例えばヒントオブジェクト特定部206は、ナンバープレートの文字認識を実施して、同一車両であるか否かを判定する。 At this time, it is assumed that each camera installation position information is acquired from the monitoring system 208 and it is found that there is a distance of about 5 km. Further, assuming that the shooting times are 16:00 and 16:10, respectively, it means that the vehicle travels in a straight line at a speed of 30 km / h. In this case, the processing target determination unit 203 determines the "automobile" as a hint object based on the moving speed, and the hint object candidate extraction unit 205 determines the person of the comparison source and the person of the search result from the entire image including each of them. Extract cars. When automobiles can be extracted in the vicinity of the person, the hint object identification unit 206 executes the collation processing of the extracted automobiles. As described above, the hint object identification unit 206 performs a highly accurate collation process according to the object. When the vehicle is a hint object candidate, for example, the hint object identification unit 206 performs character recognition of the license plate and determines whether or not the vehicle is the same vehicle.

図4は、特定したヒントオブジェクトと、比較元の人物及び検索結果の人物を含む範囲の周辺画像を表示した例である。図3において示した、比較元及び検索結果の代わりの表示としても良いし、ヒント情報として図3とは別の場所に表示しても良い。 FIG. 4 is an example of displaying the specified hint object and the peripheral image of the range including the person of the comparison source and the person of the search result. It may be displayed instead of the comparison source and the search result shown in FIG. 3, or may be displayed in a place different from that of FIG. 3 as hint information.

図4において、全体の表示401として、比較元の人物及び検索結果の人物を含む周辺画像中のヒントオブジェクトを比較可能に並べて表示している。左側に表示した画像402が比較元の人物を含む周辺画像であり、右側に表示した画像403が検索結果の人物を含む周辺画像である。画像402において404は比較元の人物画像であり、画像403において405は検索結果の人物画像である。両者の対応がつくように、区別可能な同一アイコン表示を行う。例えば、ここでは2重枠で囲った例を示している。しかし、比較した人物であることがわかれば、表示の仕方は問わない。 In FIG. 4, as the overall display 401, hint objects in the peripheral image including the comparison source person and the search result person are displayed side by side in a comparable manner. The image 402 displayed on the left side is a peripheral image including the person to be compared, and the image 403 displayed on the right side is a peripheral image including the person in the search result. In the image 402, 404 is a person image of the comparison source, and in the image 403, 405 is a person image of the search result. The same icon is displayed so that they can be distinguished from each other. For example, here, an example surrounded by a double frame is shown. However, if it is known that the person is the compared person, the display method does not matter.

また、画像402、403において、406、407は特定したヒントオブジェクトのペアであり、こちらも同様に両者がペアであることを区別する表示を行う。同図では点線で枠をつけたが、実際には、同じ色の枠をつけたり、照合に利用した根拠となる情報408を提示したりしても構わない。本実施形態では、自動車のナンバーをもとにヒントオブジェクト特定部206は同一オブジェクトの照合を実施したので、ナンバーの情報408を合わせて表示している。 Further, in the images 402 and 403, 406 and 407 are a pair of the specified hint objects, and similarly, they are displayed to distinguish that they are a pair. In the figure, a frame is attached with a dotted line, but in reality, a frame of the same color may be attached, or information 408 that is the basis used for collation may be presented. In the present embodiment, since the hint object identification unit 206 collates the same object based on the number of the automobile, the number information 408 is also displayed.

次に、第1の実施形態における情報処理装置での処理について説明する。図5は、第1の実施形態における情報処理装置での処理例を示すフローチャートである。 Next, the processing in the information processing apparatus in the first embodiment will be described. FIG. 5 is a flowchart showing a processing example in the information processing apparatus according to the first embodiment.

ステップS501では、監視システム208の利用者が、表示されている画像中で検索したい人物を指定し、指定された比較元となる人物を入力として人物検索部202が画像特徴量に基づいて検索を実施し、比較元の人物と画像特徴が類似した人物を検索する。そして、人物検索部202が、検索結果の人物の一覧を監視システム208を介して出力デバイス109に表示させ、検索結果を利用者に提供する。 In step S501, the user of the monitoring system 208 specifies a person to be searched for in the displayed image, and the person search unit 202 searches based on the image feature amount by inputting the designated person as the comparison source. Execute and search for a person whose image features are similar to those of the comparison source person. Then, the person search unit 202 displays a list of people in the search result on the output device 109 via the monitoring system 208, and provides the search result to the user.

ステップS502では、利用者が、ステップS501において表示された検索結果の人物一覧から、同一人物と思われるあるいは確認したいと思う人物を、監視システム208のユーザインタフェースを介して指定する。そして、利用者による検索結果の選択指示を監視システム208のユーザインタフェースを介して処理対象判定部203が受信する。 In step S502, the user specifies a person who seems to be the same person or wants to confirm from the list of people in the search result displayed in step S501 via the user interface of the monitoring system 208. Then, the processing target determination unit 203 receives the search result selection instruction by the user via the user interface of the monitoring system 208.

ステップS503では、処理対象判定部203が、指定された検索結果の人物及び比較元の人物のそれぞれを含む画像を撮影した撮影カメラの情報及び撮影時間の情報を取得する。比較元の人物に係る撮影カメラの情報及び撮影時間の情報は、前述したとおり監視システム208で特定し、また、検索結果の人物に係る撮影カメラの情報及び撮影時間の情報は、前述した映像保管部201で管理している情報を利用する。また、各カメラの設置位置情報は、監視システム208で管理しているため、そこから取得する。処理対象判定部203は、これらの情報を基に得られる距離及び時間の差分情報(時空間差分情報)から、処理対象のオブジェクトを判定する。 In step S503, the processing target determination unit 203 acquires the information of the shooting camera that shot the image including each of the designated search result person and the comparison source person, and the shooting time information. The information on the shooting camera and the shooting time related to the person to be compared is specified by the monitoring system 208 as described above, and the information on the shooting camera and the shooting time related to the person in the search result is stored in the video described above. The information managed by the section 201 is used. Further, since the installation position information of each camera is managed by the monitoring system 208, it is acquired from there. The processing target determination unit 203 determines the object to be processed from the distance and time difference information (spatiotemporal difference information) obtained based on these information.

ステップS504では、ステップS503において処理対象判定部203が判定した処理対象のオブジェクトがあるか否かを判定する。処理対象のオブジェクトがある場合には(YES)、処理はステップS505へ移行し、処理対象のオブジェクトがない場合には(NO)、図5に示した処理を終了する。なお、処理対象のオブジェクトの有無を判定することで、処理対象のオブジェクトがない場合にはステップS505以降の処理を実施しないで済むようになり、処理コストを抑制することができる。 In step S504, it is determined whether or not there is a processing target object determined by the processing target determination unit 203 in step S503. If there is an object to be processed (YES), the process proceeds to step S505, and if there is no object to be processed (NO), the process shown in FIG. 5 is terminated. By determining the presence or absence of the object to be processed, if there is no object to be processed, it is not necessary to perform the processing after step S505, and the processing cost can be suppressed.

ステップS505では、周辺画像取得部204が、比較元の人物及び検索結果の人物をそれぞれ含む画像を、撮影カメラの情報及び撮影時間の情報をキーにして、映像保管部201から取得する。 In step S505, the peripheral image acquisition unit 204 acquires an image including the comparison source person and the search result person from the image storage unit 201 using the information of the photographing camera and the information of the photographing time as keys.

ステップS506では、ヒントオブジェクト候補抽出部205が、ステップS503において処理対象としたオブジェクトを、ステップS505において取得した各全体画像からそれぞれ抽出する。 In step S506, the hint object candidate extraction unit 205 extracts the object to be processed in step S503 from each of the entire images acquired in step S505.

ステップS507では、ヒントオブジェクト特定部206が、ステップS506において各全体画像から抽出した、比較元の人物周辺及び検索結果の人物周辺のヒントオブジェクト候補の照合処理を実施して、ヒントオブジェクトのペアを特定する。 In step S507, the hint object identification unit 206 performs collation processing of hint object candidates around the person of the comparison source and the person around the search result extracted from each overall image in step S506 to specify the pair of hint objects. To do.

ステップS508では、ステップS507においてヒントオブジェクトのペアが特定できたか否かを判定し、特定できた場合(YES)には処理はステップS509へ移行し、特定できなかった場合(NO)には、図5に示した処理を終了する。 In step S508, it is determined in step S507 whether or not the hint object pair can be specified, and if it can be specified (YES), the process proceeds to step S509, and if it cannot be specified (NO), the figure. The process shown in 5 is completed.

ステップS509では、ステップS507において特定したヒントオブジェクトのペアを、ヒント表示部207が監視システム208を介して出力デバイス109に表示させ、利用者に提供する。そして、図5に示した処理を終了する。 In step S509, the hint display unit 207 displays the pair of hint objects identified in step S507 on the output device 109 via the monitoring system 208, and provides the user with the pair. Then, the process shown in FIG. 5 is terminated.

以上のように第1の実施形態によれば、同一人物の同定判断に迷うような比較元の人物画像と比較先の人物画像との間で、その人物の周辺で判断のヒントに使えそうな同一人物や同一オブジェクトと考えられるペアを特定して、結果と合わせて表示する。これにより、同一性の判断を支援する人物やオブジェクトが比較元の画像及び比較先の画像から見つかった場合には表示して利用者に提供し、同一性の判断を支援することが可能となり、従来人物の同定にかかっていた時間を低減することができる。 As described above, according to the first embodiment, it is possible to use it as a hint for judgment in the vicinity of the person between the comparison source person image and the comparison destination person image, which makes it difficult to identify and judge the same person. Identify pairs that are considered to be the same person or the same object, and display them together with the results. As a result, if a person or object that supports the determination of identity is found in the comparison source image and the comparison destination image, it can be displayed and provided to the user to support the identification determination. It is possible to reduce the time required to identify a person in the past.

次に、本発明の他の実施形態について説明する。以下に説明する各実施形態では、前述の実施形態と重複する説明は省略し、異なる点についてのみ説明する。
(第2の実施形態)
本発明の第2の実施形態について説明する。前述した第1の実施形態では、ヒントオブジェクト特定部206は、オブジェクト毎に確度の高い照合処理を実施して、ヒントオブジェクトのペアを特定した。しかし、利用者にとって同一性の判断を支援するヒントとしての価値がより高いオブジェクトにさらに絞る処理を加えても構わない。
Next, other embodiments of the present invention will be described. In each of the embodiments described below, the description overlapping with the above-described embodiment will be omitted, and only the differences will be described.
(Second Embodiment)
A second embodiment of the present invention will be described. In the first embodiment described above, the hint object identification unit 206 performs highly accurate collation processing for each object to specify a pair of hint objects. However, it is possible to add a process of further narrowing down to objects that are more valuable as hints to assist the user in determining identity.

例えば、比較元の人物及び検索結果の人物が移動している場合、その移動と相関の高い情報を持つオブジェクトをヒントオブジェクトとして特定する。例えば、同一方向に同様に移動していた人物がいる場合、同一方向に移動している人物を優先してヒントとして表示するようにする。この場合、ヒントオブジェクト特定部206は、前後の監視映像のフレームを映像保管部201から取得して動画像から人物の移動方向を推定したり、顔向きを利用したりする。その処理の結果、ヒントオブジェクト特定部206は、同一方向に移動している可能性が高いオブジェクトを、ヒントオブジェクトとして優先して特定するようにする。このような処理を行うことで、利用者の同定判断に使える価値の高いヒントを選択することができる。 For example, when the comparison source person and the search result person are moving, an object having information having a high correlation with the movement is specified as a hint object. For example, if there is a person who has moved in the same direction in the same direction, the person who has moved in the same direction is preferentially displayed as a hint. In this case, the hint object specifying unit 206 acquires the frames of the front and rear monitoring images from the image storage unit 201, estimates the moving direction of the person from the moving image, and uses the face orientation. As a result of the processing, the hint object identification unit 206 preferentially identifies an object that is likely to move in the same direction as a hint object. By performing such processing, it is possible to select a high-value hint that can be used for the identification judgment of the user.

(第3の実施形態)
本発明の第3の実施形態について説明する。前述した第1の実施形態では、比較元の人物及び検索結果の人物の位置や時間から、ヒントオブジェクトとして使えるオブジェクトを判定して、そのオブジェクトがあれば処理を実施するようにしたが、これに限らない。図5に示したステップS502で検索結果を利用者が選択する際に、さらに、ヒント表示を行うか否かを利用者に問い合わせるようにする。この問い合わせに対する応答として利用者がヒント表示を指示した場合、情報処理装置が、ステップS503以降の処理を実施するようにしても良い。
(Third Embodiment)
A third embodiment of the present invention will be described. In the first embodiment described above, an object that can be used as a hint object is determined from the position and time of the person to be compared and the person in the search result, and if there is such an object, processing is performed. Not exclusively. When the user selects the search result in step S502 shown in FIG. 5, the user is further inquired as to whether or not to display the hint. When the user instructs the hint display as a response to this inquiry, the information processing apparatus may perform the processing after step S503.

このようにする場合、図6に構成例を示すように、情報処理装置がヒント表示指示受信部601をさらに有するようにすればよい。そして、ヒント表示指示受信部601が、監視システム208のユーザインタフェースを介して、利用者にヒント表示を行うか否かの問い合わせを行い、それに対する指示を受信し、受信した指示に応じてヒント表示を行うか否かを切り替えるようにすれば良い。これにより、例えば、利用者が検索結果を見るだけで同定できている場合にも処理を実施してしまうことによる、無駄なリソースの消費を抑制することができる。 In this case, as shown in FIG. 6, the information processing apparatus may further include the hint display instruction receiving unit 601. Then, the hint display instruction receiving unit 601 inquires the user whether or not to display the hint via the user interface of the monitoring system 208, receives the instruction for the inquiry, and displays the hint according to the received instruction. It is sufficient to switch whether or not to perform. As a result, for example, it is possible to suppress wasteful resource consumption due to processing even when the user can identify by just looking at the search result.

(第4の実施形態)
本発明の第4の実施形態について説明する。前述した第3の実施形態では、利用者がヒント表示を行うことを指示した場合に、処理を実施するようにしたが、これに限らない。図5に示したステップS502において選択された検索結果の周辺画像を取得し、比較元の人物画像ないし検索結果の人物画像の視覚特徴と、取得した周辺画像の視覚特徴との差が少ない場合、ヒントオブジェクトを特定する処理を実施するようにしても良い。
(Fourth Embodiment)
A fourth embodiment of the present invention will be described. In the third embodiment described above, the process is performed when the user instructs to display the hint, but the present invention is not limited to this. When the peripheral image of the search result selected in step S502 shown in FIG. 5 is acquired and the difference between the visual feature of the comparison source person image or the person image of the search result and the visual feature of the acquired peripheral image is small, A process for specifying a hint object may be performed.

このようにする場合、図7に構成例を示すように、情報処理装置が周辺オブジェクト類似判定部701をさらに有するようにすればよい。これにより、周辺オブジェクト類似判定部701が、例えば、比較元の人物ないし検索結果の人物の特徴量と、周辺のオブジェクトの一定数以上の特徴量とが、一定値以上類似しているか否かを判定する。判定の結果、周辺オブジェクト類似判定部701が、類似オブジェクトが周辺に多いと判定した場合には、ヒント表示にかかる処理を実施する。 In this case, as shown in FIG. 7, the information processing apparatus may further include the peripheral object similarity determination unit 701. As a result, the peripheral object similarity determination unit 701 determines whether or not, for example, the feature amount of the person to be compared or the person in the search result and the feature amount of a certain number or more of the peripheral objects are similar by a certain value or more. judge. As a result of the determination, when the peripheral object similarity determination unit 701 determines that there are many similar objects in the periphery, the process related to the hint display is performed.

例えば、比較元の人物ないし検索結果の人物がスーツを着用しており、その近傍にもスーツを着用した人物が多数いる場合のように、人物に視覚的な差が少ない場合、利用者は同一性の判断に、より時間がかかってしまう。このような状況で、ヒントになりうる人物を特定して提示できれば、利用者の同一性の判断作業をより支援することができる。 For example, if the person to be compared or the person in the search result wears a suit and there are many people wearing suits in the vicinity, and there is little visual difference between the people, the users are the same. It takes more time to judge the sex. In such a situation, if a person who can be a hint can be identified and presented, it is possible to further support the work of determining the identity of the user.

(第5の実施形態)
本発明の第5の実施形態について説明する。前述した第1の実施形態では、比較元の人物画像を、監視システム208の監視映像中から選択するようにしたが、これに限るものではない。監視システム208が有する情報と比較可能な撮影時間と撮影位置がわかり、かつ、比較元の人物の周辺画像が得られる全体画像があれば、その画像を入力としても構わない。
(Fifth Embodiment)
A fifth embodiment of the present invention will be described. In the first embodiment described above, the comparison source person image is selected from the surveillance images of the surveillance system 208, but the present invention is not limited to this. If there is an entire image in which the shooting time and shooting position comparable to the information possessed by the monitoring system 208 can be known and the peripheral image of the comparison source person can be obtained, that image may be input.

(第6の実施形態)
本発明の第6の実施形態について説明する。前述した第1の実施形態では、周辺画像取得部204で取得する画像を、比較元の人物及び検索結果の人物のそれぞれを含む撮影画像全体としたが、これに限らない。比較元の人物や検索結果の人物からオブジェクトが離れていくに従い同一性の判断を支援するヒントとして使いづらくなり、また、撮影範囲が広いと写りこむ人物やオブジェクトの数が増加するため、比較に係る処理コストも高くなり、精度も低下する。そのため、全体として判断支援の効果が低下する場合がある。そのような場合、あらかじめ、人物周囲において人物を含むx軸及びy軸方向の所定の範囲の画素数を切り出す設定をしておき、その範囲の画像を周辺画像として利用するようにしても構わない。これにより、前述したようなコストの増加を抑制することができる。
(Sixth Embodiment)
A sixth embodiment of the present invention will be described. In the first embodiment described above, the image acquired by the peripheral image acquisition unit 204 is the entire captured image including each of the comparison source person and the search result person, but the present invention is not limited to this. As the objects move away from the comparison source person and the search result person, it becomes difficult to use as a hint to support the judgment of identity, and the number of people and objects reflected increases when the shooting range is wide, so it is used for comparison. The processing cost is high and the accuracy is low. Therefore, the effect of judgment support may decrease as a whole. In such a case, the number of pixels in a predetermined range in the x-axis and y-axis directions including the person may be set in advance around the person, and the image in that range may be used as the peripheral image. .. As a result, the increase in cost as described above can be suppressed.

(第7の実施形態)
本発明の第7の実施形態について説明する。前述した第1の実施形態では、人物検索部202による検索結果をステップS502において選択指示された検索結果について、ヒント表示をするようにしたが、これに限るものではない。人物検索部202で得た検索結果の人物が複数いる場合、全体に対して、図5に示した処理を実施し、それぞれの結果毎に対応付けてヒント表示を行うようにしても構わない。このようにすることで、ヒント表示の有無で、もっともらしい結果を想定できるようになるため、利用者の同定作業をより支援できるようになる。
(7th Embodiment)
A seventh embodiment of the present invention will be described. In the first embodiment described above, the search result by the person search unit 202 is selected and instructed in step S502 to display a hint, but the present invention is not limited to this. When there are a plurality of people in the search result obtained by the person search unit 202, the process shown in FIG. 5 may be performed on the whole, and hints may be displayed in association with each result. By doing so, it becomes possible to assume a plausible result depending on the presence or absence of the hint display, so that the user identification work can be further supported.

(第8の実施形態)
本発明の第8の実施形態について説明する。前述した第1の実施形態では、比較元の人物を、人物検索部202への入力とした人物である場合を説明した。そのため、人物検索部202への入力とした人物の周辺のオブジェクトと、検索結果の人物の周辺のオブジェクトとを比較する処理を行っている。しかし、比較元の人物及びその周辺オブジェクトの動きが多様である場合、必ずしも、人物検索部202への入力時に存在した周辺のオブジェクトが、検索結果の人物周辺に現れるとは限らない。そこで、比較元の画像を、人物検索部202への入力とした人物から、検索結果として同定が行えた人物に置き換えて、連続して処理を実施しても構わない。
(8th Embodiment)
An eighth embodiment of the present invention will be described. In the first embodiment described above, the case where the comparison source person is the person input to the person search unit 202 has been described. Therefore, the process of comparing the object around the person input to the person search unit 202 with the object around the person as the search result is performed. However, when the movements of the comparison source person and its peripheral objects are various, the peripheral objects that existed at the time of input to the person search unit 202 do not always appear around the person in the search result. Therefore, the comparison source image may be replaced with a person who can be identified as a search result from the person input to the person search unit 202, and the processing may be continuously performed.

例えば、図8に示すようなケースを想定する。図8は、例えばショッピングモールのような場所であり、様々な方向に人物は移動しているものとする。図8において、801〜803及びA〜Dはそれぞれ人物を示しており、それぞれ第1のカメラ804、第2のカメラ805、第3のカメラ806で撮影される。図8は、その様子を概念的に示している。 For example, assume the case shown in FIG. FIG. 8 is a place such as a shopping mall, and it is assumed that a person is moving in various directions. In FIG. 8, 801 to 803 and A to D indicate a person, respectively, and are photographed by the first camera 804, the second camera 805, and the third camera 806, respectively. FIG. 8 conceptually shows the situation.

このとき、人物801が最初の比較元である人物であり、人物802、803が人物検索部202の検索結果として得られる人物であるとする。つまり、人物801は図8において矢印で示したように、人物802、803の位置へと移動を行っている。人物801の周辺には人物A、Bがおり、それぞれ点線の矢印の方向へ進んでいる。人物802の周辺には同様に人物A、Bが存在しているため、人物A、Bがヒントとして表示がなされる。 At this time, it is assumed that the person 801 is the person who is the first comparison source, and the people 802 and 803 are the people obtained as the search result of the person search unit 202. That is, the person 801 is moving to the positions of the people 802 and 803 as shown by the arrows in FIG. There are persons A and B around the person 801 and each of them advances in the direction of the dotted arrow. Since the persons A and B also exist around the person 802, the persons A and B are displayed as hints.

一方、人物803の周辺には人物A、Bは存在していないため、ヒント表示はされないことになる。しかし、すでに人物801と人物802とが同一人物であると同定したとすると、人物802の周辺には、人物C、Dが存在していてそれぞれ点線の矢印の方へ進んでいる。人物803の周辺にも同様に人物C、Dが存在していることから、人物802と人物803との間でのヒントとして人物C、Dを表示できる。 On the other hand, since the persons A and B do not exist around the person 803, the hint is not displayed. However, if it is already identified that the person 801 and the person 802 are the same person, the persons C and D exist around the person 802 and proceed in the direction of the dotted arrows, respectively. Since the persons C and D also exist around the person 803, the persons C and D can be displayed as hints between the person 802 and the person 803.

このように、同定できた人物を間に挟むことで、次々に比較元を推移させることにより、最初の比較元との間にヒント表示が行えない検索結果との間にも、ヒント表示を行うことができるようになる。なお、表示の仕方は限定するものではないが、例えば図8に示した例であれば、人物801、802、803のそれぞれの周辺画像にヒントオブジェクトを表示し、それぞれペアの違いがわかるように表示するようにすれば良い。以上述べた処理により、利用者が人物の同定を行う際のヒント表示の機会が増し、支援の効果が上がることが期待できる。 In this way, by sandwiching the identified person in between, the comparison source is changed one after another, and the hint is displayed even with the search result for which the hint cannot be displayed with the first comparison source. You will be able to do it. The display method is not limited, but in the example shown in FIG. 8, hint objects are displayed on the peripheral images of the persons 801, 802, and 803 so that the difference between the pairs can be understood. It should be displayed. It is expected that the above-mentioned processing will increase the chances of displaying hints when the user identifies a person, and the effect of support will be improved.

なお、前述した第1〜第8の実施形態を適宜組み合わせた実施形態も可能であり、それらの実施形態も本発明の実施形態に含まれる。 It should be noted that an embodiment in which the above-mentioned first to eighth embodiments are appropriately combined is also possible, and those embodiments are also included in the embodiment of the present invention.

(本発明の他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Embodiments of the present invention)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device read and execute the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

100:情報処理装置 101:CPU 102:ROM 103:RAM 104:記憶装置 105:入力デバイスインタフェース 106:出力デバイスインタフェース 107:システムバス 108:入力デバイス 109:出力デバイス 201:映像保管部 202:人物検索部 203:処理対象判定部 204:周辺画像取得部 205:ヒントオブジェクト候補抽出部 206:ヒントオブジェクト特定部 207:ヒント表示部 208:監視システム 601:ヒント表示指示受信部 701:周辺オブジェクト類似判定部 100: Information processing device 101: CPU 102: ROM 103: RAM 104: Storage device 105: Input device interface 106: Output device interface 107: System bus 108: Input device 109: Output device 201: Video storage unit 202: Person search unit 203: Processing target judgment unit 204: Peripheral image acquisition unit 205: Hint object candidate extraction unit 206: Hint object identification unit 207: Hint display unit 208: Monitoring system 601: Hint display instruction receiving unit 701: Peripheral object similarity judgment unit

Claims (13)

保管されている画像から比較元の人物に画像特徴が類似する人物を検索し検索結果を出力する検索手段と、
前記比較元の人物が含まれる第1の画像及び前記検索結果の人物が含まれる第2の画像をそれぞれ取得する画像取得手段と、
前記第1の画像及び前記第2の画像から、前記比較元の人物及び前記検索結果の人物とは異なる、処理対象のオブジェクトを抽出する抽出手段と、
前記第1の画像及び前記第2の画像から抽出した前記処理対象のオブジェクトの照合処理を行い、前記照合処理の結果に基づいて前記比較元の人物及び前記検索結果の人物の同一性の判断を支援する情報を特定して提供する特定手段とを有することを特徴とする情報処理装置。
A search method that searches for people with similar image characteristics to the person to be compared from the stored images and outputs the search results.
An image acquisition means for acquiring a first image including the person to be compared and a second image including the person from the search result, respectively.
An extraction means for extracting an object to be processed different from the comparison source person and the search result person from the first image and the second image.
The collation process of the object to be processed extracted from the first image and the second image is performed, and the identity of the person of the comparison source and the person of the search result is determined based on the result of the collation process. An information processing device characterized by having a specific means for specifying and providing information to be supported.
前記特定手段により特定した前記同一性の判断を支援する情報を、前記比較元の人物及び前記検索結果の人物をそれぞれ含む画像と合わせて表示する表示手段を有することを特徴とする請求項1記載の情報処理装置。 The first aspect of claim 1, wherein the information that supports the determination of the identity specified by the specific means is displayed together with an image including the person of the comparison source and the person of the search result. Information processing equipment. 前記第1の画像及び前記第2の画像に基づいて前記処理対象のオブジェクトを判定する判定手段を有することを特徴とする請求項1又は2記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, further comprising a determination means for determining an object to be processed based on the first image and the second image. 前記判定手段は、前記第1の画像及び前記第2の画像がそれぞれ撮影された位置及び時間の差に基づいて前記処理対象のオブジェクトを判定することを特徴とする請求項3記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the determination means determines an object to be processed based on a difference in position and time at which the first image and the second image are captured, respectively. .. 前記検索手段は、人物全体の画像特徴量に基づいて検索を行うことを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 4, wherein the search means performs a search based on an image feature amount of the entire person. 前記第1の画像は、前記比較元の人物を含む周辺画像であり、前記第2の画像は、前記検索結果の人物を含む周辺画像であることを特徴とする請求項1〜5の何れか1項に記載の情報処理装置。 Any of claims 1 to 5, wherein the first image is a peripheral image including the person of the comparison source, and the second image is a peripheral image including the person of the search result. The information processing apparatus according to item 1. 前記特定手段による前記同一性の判断を支援する情報の特定及び提供を行うか否かの指示を受信する受信手段を有することを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。 The information according to any one of claims 1 to 6, further comprising a receiving means for receiving an instruction as to whether or not to specify and provide information that supports the determination of the identity by the specific means. Processing equipment. 前記比較元の人物ないし前記検索結果の人物の特徴量と、該人物の周辺のオブジェクトの一定数以上の特徴量とが、一定値以上類似しているか否かを判定する類似判定手段を有し、
前記類似判定手段により一定値以上類似していると判定された場合、前記同一性の判断を支援する情報の特定に係る処理を実施することを特徴とする請求項1〜7の何れか1項に記載の情報処理装置。
It has a similarity determination means for determining whether or not the feature amount of the person of the comparison source or the person of the search result and the feature amount of a certain number or more of the objects around the person are similar by a certain value or more. ,
Any one of claims 1 to 7, wherein when it is determined by the similarity determination means that the information is similar by a certain value or more, a process relating to identification of information supporting the determination of identity is performed. The information processing device described in.
前記表示手段は、前記特定手段により特定した前記同一性の判断を支援する情報及び前記照合処理に係る情報を、前記比較元の人物及び前記検索結果の人物をそれぞれ含む画像と合わせて表示することを特徴とする請求項2記載の情報処理装置。 The display means displays information that supports the determination of the identity specified by the specific means and information related to the collation process together with an image including the person of the comparison source and the person of the search result, respectively. 2. The information processing apparatus according to claim 2. 前記判定手段は、前記第1の画像及び前記第2の画像がそれぞれ撮影された位置及び時間の差に基づく移動速度が人の移動速度であると判定した場合、前記処理対象のオブジェクトを人物であると判定することを特徴とする請求項3記載の情報処理装置。 When the determination means determines that the movement speed based on the difference in the position and time at which the first image and the second image are taken is the movement speed of a person, the object to be processed is a person. The information processing apparatus according to claim 3, wherein the information processing device is determined to be present. 前記判定手段は、前記第1の画像及び前記第2の画像がそれぞれ撮影された位置及び時間の差に基づく移動速度が車両の移動速度であると判定した場合、前記処理対象のオブジェクトを車両であると判定することを特徴とする請求項3又は10記載の情報処理装置。 When the determination means determines that the movement speed based on the difference in the position and time at which the first image and the second image are taken is the movement speed of the vehicle, the object to be processed is processed by the vehicle. The information processing apparatus according to claim 3 or 10, wherein the information processing apparatus is determined to be present. 保管されている画像から比較元の人物に画像特徴が類似する人物を検索し検索結果を出力する検索工程と、
前記比較元の人物が含まれる第1の画像及び前記検索結果の人物が含まれる第2の画像をそれぞれ取得する画像取得工程と、
前記第1の画像及び前記第2の画像から、前記比較元の人物及び前記検索結果の人物とは異なる、処理対象のオブジェクトを抽出する抽出工程と、
前記第1の画像及び前記第2の画像から抽出した前記処理対象のオブジェクトの照合処理を行い、前記照合処理の結果に基づいて前記比較元の人物及び前記検索結果の人物の同一性の判断を支援する情報を特定して提供する特定工程とを有することを特徴とする情報処理方法。
A search process that searches for people with similar image features to the person to be compared from the stored images and outputs the search results.
An image acquisition step of acquiring a first image including the person of the comparison source and a second image including the person of the search result, respectively.
An extraction step of extracting an object to be processed different from the comparison source person and the search result person from the first image and the second image.
The collation process of the object to be processed extracted from the first image and the second image is performed, and the identity of the comparison source person and the search result person is determined based on the result of the collation process. An information processing method characterized by having a specific process for specifying and providing information to be supported.
保管されている画像から比較元の人物に画像特徴が類似する人物を検索し検索結果を出力する検索ステップと、
前記比較元の人物が含まれる第1の画像及び前記検索結果の人物が含まれる第2の画像をそれぞれ取得する画像取得ステップと、
前記第1の画像及び前記第2の画像から、前記比較元の人物及び前記検索結果の人物とは異なる、処理対象のオブジェクトを抽出する抽出ステップと、
前記第1の画像及び前記第2の画像から抽出した前記処理対象のオブジェクトの照合処理を行い、前記照合処理の結果に基づいて前記比較元の人物及び前記検索結果の人物の同一性の判断を支援する情報を特定して提供する特定ステップとをコンピュータに実行させるためのプログラム。
A search step that searches for a person whose image characteristics are similar to the person to be compared from the stored image and outputs the search result,
An image acquisition step of acquiring a first image including the person of the comparison source and a second image including the person of the search result, respectively.
An extraction step of extracting an object to be processed different from the comparison source person and the search result person from the first image and the second image.
The collation process of the object to be processed extracted from the first image and the second image is performed, and the identity of the comparison source person and the search result person is determined based on the result of the collation process. A program that lets a computer perform specific steps that identify and provide information to assist.
JP2019132695A 2019-07-18 2019-07-18 Information processing device, information processing method, and program Pending JP2021018518A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019132695A JP2021018518A (en) 2019-07-18 2019-07-18 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019132695A JP2021018518A (en) 2019-07-18 2019-07-18 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021018518A true JP2021018518A (en) 2021-02-15

Family

ID=74563668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132695A Pending JP2021018518A (en) 2019-07-18 2019-07-18 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021018518A (en)

Similar Documents

Publication Publication Date Title
JP7375101B2 (en) Information processing device, information processing method and program
JP7282851B2 (en) Apparatus, method and program
JP6406241B2 (en) Information processing system, information processing method, and program
JP7039409B2 (en) Video analysis device, person search system and person search method
JP2022082561A (en) Analysis server, monitoring system, monitoring method, and program
JP2018198056A5 (en)
JP5936561B2 (en) Object classification based on appearance and context in images
CN109961472B (en) Method, system, storage medium and electronic device for generating 3D thermodynamic diagram
EP3438875A1 (en) Image processing apparatus and control method therefor
KR102043366B1 (en) Method for measuring trajectory similarity between geo-referenced videos using largest common view
WO2019033567A1 (en) Method for capturing eyeball movement, device and storage medium
JP2014016968A (en) Person retrieval device and data collection device
US9710708B1 (en) Method and apparatus for autonomously recognizing at least one object in an image
US20210089784A1 (en) System and Method for Processing Video Data from Archive
US20200097735A1 (en) System and Method for Display of Object Movement Scheme
US11227007B2 (en) System, method, and computer-readable medium for managing image
JP6752122B2 (en) Image processing device, image processing method
KR20160068281A (en) Method of object recognition
JP2021018518A (en) Information processing device, information processing method, and program
US11216969B2 (en) System, method, and computer-readable medium for managing position of target
JP2022058833A (en) Information processing system, information processing apparatus, information processing method, and program
JP2010244090A (en) Person information extraction device, person information extraction method, and person information extraction program
JP6762754B2 (en) Information processing equipment, information processing methods and programs
JP2021012631A (en) Image processing system, information processing device, information processing method, and program
JP2015187770A (en) Image recognition device, image recognition method, and program