JP2019082959A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2019082959A JP2019082959A JP2017211169A JP2017211169A JP2019082959A JP 2019082959 A JP2019082959 A JP 2019082959A JP 2017211169 A JP2017211169 A JP 2017211169A JP 2017211169 A JP2017211169 A JP 2017211169A JP 2019082959 A JP2019082959 A JP 2019082959A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- information processing
- feature
- distance
- registered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、対象のオブジェクトを検索する技術に関する。 The present invention relates to a technique for searching for an object of interest.
従来、監視対象である映像の各フレームから人物の顔を検出し、その顔から画像特徴量を算出して映像のフレームと対応づけて蓄積しておく装置が知られている(特許文献1参照)。その装置では、検索したい人の顔をクエリとして、蓄積した画像特徴量との照合を行い、その人物が映っている映像を表示することが可能である。 Conventionally, there is known an apparatus which detects the face of a person from each frame of a video to be monitored, calculates an image feature amount from the face, and stores it in association with the frame of the video (see Patent Document 1). ). In the device, it is possible to compare the accumulated image feature amount with the face of a person to be retrieved as a query, and to display a video in which the person is shown.
また、非特許文献1には、人物の顔の画像特徴量を用いた検索において、探索範囲を順次拡大しながら検索を行う方法が開示されている。この方法では、検索結果数が充分になった時点、もしくは、検索結果に対する十分な信頼性が得られた段階(1位得票数と2位得票数の比が所定以上に大きくなった時点)で検索処理を打ち切り、その結果を表示することが開示されている。
Further, Non-Patent
特許文献1に記載の方法も、非特許文献1に記載の方法も、全ての検索対象に対する検索が完了した後、結果を出力し表示する。しかしながら、多量の監視カメラの映像や、長時間の映像を検索対象とする場合、検索結果が得られるまでには時間がかかるため、上述の従来技術では、監視者(ユーザ)が検索の指示をした後、検索結果を確認できるようになるまでには時間がかかる。これは、監視カメラの映像中の人物の検索に限らず、その他のオブジェクトを対象とした検索においても同様である。
Both the method described in
検索処理の途中で、それまでの検索処理結果を出力、表示することによって、監視者(ユーザ)が確認するまでの時間を短くすることができる。しかしながら、検索結果が更新され、新たな検索結果が追加される際には、それまでの検索結果の順番を維持されることが望まれる。そこで、本発明は、検索結果の順番が維持されたまま新たな検索結果を順々に出力することを目的とする。 By outputting and displaying the search processing results so far in the middle of the search processing, it is possible to shorten the time until the observer (user) confirms. However, when the search results are updated and new search results are added, it is desirable to maintain the order of the search results so far. Therefore, an object of the present invention is to sequentially output new search results while maintaining the order of the search results.
本発明は、多次元空間における複数のグループに検索対象となる第1のベクトルを登録した記憶手段から、クエリデータから算出される特徴量を表す第2のベクトルに類似する前記第1のベクトルを出力する情報処理装置であって、前記クエリデータを入力する入力手段と、前記入力されたクエリデータから前記第2のベクトルを算出する算出手段と、前記グループに登録されている第1のベクトルと前記第2のベクトルとが取り得る最短の距離を、最短距離として決定する第1の決定手段と、前記決定した最短距離に基づいて、前記第2のベクトルと比較する前記複数のグループの順番を決定する第2の決定手段と、前記決定した順番に基づいて前記グループごとに前記第1のベクトルと前記第2のベクトルとの比較を行い、前記複数のグループそれぞれで前記第1のベクトルと前記第2のベクトルとの距離が前記最短距離よりも短い前記第1のベクトルを検索結果として出力する出力手段と、を有することを特徴とする。 According to the present invention, the first vector similar to the second vector representing the feature value calculated from the query data is stored from the storage means in which the first vectors to be searched are registered in a plurality of groups in the multidimensional space. An information processing apparatus for outputting, the input means for inputting the query data, the calculation means for calculating the second vector from the input query data, and the first vector registered in the group A first determining unit that determines the shortest distance that the second vector can take as the shortest distance, and an order of the plurality of groups to be compared with the second vector based on the determined shortest distance And comparing the first vector and the second vector for each group based on the determined second determining means and the determined order; Wherein the distance between said first vector and said second vector each over-flops and an output means for outputting the short first vector than the shortest distance search result.
本発明によれば、検索結果の順番が維持されたまま新たな検索結果を順々に出力することが可能となる。 According to the present invention, it is possible to sequentially output new search results while maintaining the order of the search results.
[第1の実施形態]
以下、本発明の第1の実施形態の詳細について図面を参照しつつ説明する。本実施形態では、監視カメラで撮影された映像中の人物の画像から顔画像特徴を算出し、その顔画像特徴量をカメラ情報、撮影時刻等と関連付けて記憶する。そして、クエリ(検索元)として与えられた顔画像をもとに顔画像検索を行う。その際、検索を行いながら順々に結果を表示する。
First Embodiment
Hereinafter, the details of the first embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a facial image feature is calculated from an image of a person in a video captured by a surveillance camera, and the facial image feature amount is stored in association with camera information, shooting time, and the like. Then, face image search is performed based on the face image given as a query (search source). At that time, the results are displayed one after another while performing a search.
図1は、本実施形態において、サーバ装置やクライアント装置を構成する情報処理装置100のハードウェア構成例を示すブロック図である。なお、サーバ装置やクライアント装置はそれぞれ単一の情報処理装置で実現してもよいし、必要に応じた複数の装置に各機能を分散して情報処理装置を実現するようにしてもよい。複数の装置で構成される場合は、互いに通信可能なようにLAN(Local Area Network)などで接続されている。また、情報処理装置は、パーソナルコンピュータ(PC)やワークステーション(WS)等の装置によって実現することができる。
FIG. 1 is a block diagram showing an example of the hardware configuration of an
図1において、CPU(Central Processing Unit)101は、情報処理装置100全体を制御する。ROM(Read Only Memory)102は、変更を必要としないプログラムやパラメータを格納するメモリである。RAM(Random Access Memory)103は、外部装置などから供給されるプログラムやデータを一時記憶するメモリである。外部記憶装置104は、情報処理装置100に固定して設置されたハードディスクやメモリカードなどの記憶装置である。なお、外部記憶装置104は、情報処理装置100から着脱可能なフレキシブルディスク(FD)やCD等の光ディスク、磁気や光カード、ICカード、メモリカードなどであってもよい。後述する各動作は、ROM102や外部記憶装置104に格納されたプログラムをCPU101が実行することにより実行される。
In FIG. 1, a CPU (Central Processing Unit) 101 controls the entire
入力デバイスインターフェイス105は、ユーザの操作を受け、データを入力するポインティングデバイスやキーボードなどの入力デバイス109とのインターフェイスである。出力デバイスインターフェイス106は、情報処理装置100の保持するデータや供給されたデータを表示するためのモニタ110とのインターフェイスである。通信インターフェイス107は、インターネットなどのネットワーク回線111に接続するための通信インターフェイスである。ネットワークカメラ112は、監視カメラなどの映像の撮像装置であり、ネットワーク回線111を介して情報処理装置100に接続されている。システムバス108は前述した各ユニットを通信可能に接続する伝送路である。
The input device interface 105 is an interface with an
図2は、本実施形態に係る情報処理装置100の機能構成例を示すブロック図である。映像入力部201は、ネットワークカメラ112から通信インターフェイス107を介して映像データ(連続画像)を入力する。映像蓄積部202は、映像入力部201に入力された映像データを外部記憶装置104に記憶する。このとき、映像のメタデータとして、撮影時刻や撮影カメラなどの情報を映像データに関連付けて記憶しておく。
FIG. 2 is a block diagram showing an example of the functional configuration of the
追尾処理部203は、映像入力部201から入力された映像中の人物の追尾を行う。人物追尾処理に関しては、例えば、特許文献2に示す公知技術を用いればよい。特許文献2に記載の方法では、動きベクトルから物体を検出し、次フレームでの探索位置を推定してテンプレートマッチングにより人物追尾を行っている。追尾処理部203では、同じ人物を追尾している追尾トラックに対して同じ追尾トラックIDを発行し、異なる人物の追尾トラックに対しては異なる追尾トラックIDを発行することにより一意性を担保し、追尾トラックIDから同一人物の特定を可能とする。また同じ人物であっても、追尾が途切れた場合は、異なる追尾トラックIDを発行する。
The
顔検出部204は、追尾処理部203で追尾された人物のフレーム画像のそれぞれから顔検出を行う。また、映像入力部201、後述するクエリ映像入力部208によって入力された顔画像を含む映像から顔検出を行う。画像から人物の顔を検出する方法については、例えば、特許文献3に示す公知技術を用いればよい。つまり、処理対象の画像に対し、片目候補領域を検出し、複数の片目候補領域からペアリングを行い、ペアリングされた両目位置に基づいて顔領域を決定する。
The
代表顔画像決定部205は、追尾された人物のフレーム画像群から、代表となる顔画像を選択する。代表顔画像の選択処理については、例えば、顔検出部204で検出された顔サイズの大きい画像を選択する。顔サイズの大きい画像を用いる理由として、顔画像が大きいほど、精度の高い画像特徴が得られるからである。すなわち、顔画像から画像特徴を算出する際、顔画像の大きさを一定の大きさに変倍する顔サイズ正規化処理を行う必要がある。その際、顔画像が上記一定の大きさよりも大きい場合には縮小処理を行い情報のロスは比較的小さいが、上記一定の大きさよりも小さい場合には超解像度処理の様な画素補完を行う必要が有り、情報の劣化が激しい。
The representative face
また、代表顔画像として、フレーム画像群から複数の画像を選択するようにしてもよい。例えば、複数の顔の向きの画像を選択する方法がある。同じ人の画像であっても、顔の向きが異なるとその画像から得られる画像特徴が異なるためである。画像から人物の顔向きを検出する方法については、例えば、非特許文献2に示す公知技術を用いればよい。非特許文献2に開示されている技術では、特徴量として勾配方向ヒストグラム(Histogram of Oriented Gradient,HOG)を抽出し、SVRで顔向きを推定している。勾配方向ヒストグラムは、画像の輝度勾配情報を画像の局所毎にヒストグラム化した特徴量で、局所的なノイズや画像の明暗にロバストな特徴量として知られている。ノイズや照明変動のような、顔の向きに関係のない変動にロバストな特徴量を選択することで、実環境においても安定した顔向き推定を実現している。
Further, a plurality of images may be selected from the frame image group as the representative face image. For example, there is a method of selecting a plurality of face orientation images. This is because even if the image of the same person is different in the face orientation, the image features obtained from the image are different. As a method of detecting the face direction of a person from an image, for example, a known technique shown in
更に、ブレが少ない画像を代表顔画像として選択するようにしてもよい。動画を撮影するカメラでも静止画のカメラと同様に、その場所の明るさに従いシャッター速度が変わる場合がある。従って、暗い場所や被写体の動き速度により、顔画像のブレが生じることがあり、これは直接的に画像特徴量や属性情報の劣化の原因となる。ブレの推定に関しては、顔画像領域の周波数成分を求め、低周波成分と高周波成分との比率を求め、これが低周波成分の比率が所定の値を超えた時にブレを生じていると判断する事が可能となる。その他、眼つぶり、口あきなどがないかどうかの観点で代表顔画像を選択するようにしてもよい。眼つぶりや口あき等があると、器官の画像特徴が変質する可能性があり、これらの画像は代表顔画像として選択しないようにする。 Furthermore, an image with less blurring may be selected as a representative face image. Even with a camera that shoots a moving image, the shutter speed may change according to the brightness of the location, as with a still image camera. Therefore, blurring of the face image may occur due to the dark place or the movement speed of the subject, which directly causes deterioration of the image feature amount and attribute information. In order to estimate blurring, the frequency component of the face image area is determined, the ratio of the low frequency component to the high frequency component is determined, and it is determined that blurring occurs when the ratio of the low frequency component exceeds a predetermined value. Is possible. In addition, the representative face image may be selected from the viewpoint of whether or not there are eyelids and mouths. If there is eyelid or mouth, there is a possibility that the image feature of the organ may be altered, and these images should not be selected as representative face images.
本実施形態では、追尾処理部203で人物の追尾を行い、顔検出部204で追尾された人物の顔を検出し、代表顔画像決定部205で追尾された人物のフレーム画像群から代表となる顔画像を選択している。しかしながら、映像入力部201に入力された映像から顔検出部204で人物の顔を検出し、それらすべての顔画像を後述の特徴算出部206に渡すようにしてもよい。
In this embodiment, the
特徴算出部206は、顔画像特徴の算出を行う。本実施形態では、顔全体をブロック分割して算出したLBP(Local Binary Pattern)特徴を用いる。なお、この特徴は一例であり、本実施形態はこれに限定されるものではない。人物の顔画像内の目、口などの器官点を求め、各器官点のSIFT(Scale Invariant Feature Transform)特徴を算出して用いても良いし、Deep Learningを行って特徴を算出しても良い。これらの顔画像特徴は、多次元のベクトル(多次元ベクトル)で表される。
The
特徴蓄積部207は、映像入力部201に入力された映像から追尾処理部203、顔検出部204、代表顔画像決定部205、特徴算出部206を経て算出された顔画像特徴(検索対象ベクトル)を外部記憶装置104に記憶する。加えて、顔画像特徴のメタデータとして、人物のIDや、人物を追尾したときの追尾トラックID、撮影時刻、撮影カメラなどの情報を顔画像特徴と関連付けて記憶しておく。その際、顔画像特徴の類似性を高速に検索できるようにするため、インデクスを作成する。具体的には、顔画像特徴をグループ化して登録し、かつ、グループの代表を記憶しておく。検索の際は、まずグループの代表と比較して比較対象とするグループを絞り込み、絞り込んだグループに登録されている顔画像特徴との比較を行う。これにより、登録されたすべての顔画像特徴との比較をしなくてもよくなり、高速検索が実現可能となる。また、本実施形態では、グループに登録する顔画像特徴とグループの代表との距離が最も長い距離を記憶しておく。この距離は後述する順次検索時に使用する。
The
図3は、特徴蓄積部207が蓄積する顔画像特徴の特徴量空間を表した概念図である。本実施形態で用いられる顔画像特徴は、256次元等の多次元ベクトルであるが、ここでは説明の簡略化のため2次元の図で説明する。
FIG. 3 is a conceptual diagram showing a feature amount space of face image features stored by the
点301は、特徴量空間上の特徴量である。特徴量空間はk−means法等により複数の空間に分割され、特徴量は分割により生成されたクラスタに登録される。特徴量空間を分割した領域302がクラスタ、特徴量空間を分割している線303が各クラスタの境界である。多次元の特徴量空間では、超面で各クラスタに分割される。
A
三角印304は、各クラスタを代表する特徴(代表ベクトル)である。代表特徴は、クラスタ内に含まれる顔画像特徴の多次元ベクトルの平均ベクトルでもよいし、クラスタの重心でもよいし、多次元ベクトルの平均やクラスタの重心に最も近い特徴であってもよい。
A
また、特徴蓄積部207は、クラスタごとに、クラスタの代表特徴と、このクラスタに登録する特徴との距離が最も長い距離r(例えば305)を記憶しておく。クラスタの代表特徴から半径rの円306(多次元の特徴量空間では超円)の内部に、そのクラスタの特徴量すべてが登録されていることになる。
In addition, the
クエリ映像入力部208は、監視者(ユーザ)により指定された、検索に用いる人の顔画像を入力する。具体的には、まず、外部記憶装置104に記憶された人の顔画像をモニタ110に表示し、ユーザの操作によって入力デバイス109を介して指定する。クエリ映像入力部208は、その指定された顔画像を入力する。本実施形態において、検索に用いる人の顔画像の指定方法は特定の方法に限定されるものではない。また、検索に用いる人の顔画像は1枚でもよいし複数枚であってもよい。
The query
検索部209は、クエリ画像(検索元画像)から顔検出部204、特徴算出部206を経て算出された顔画像特徴(検索対象ベクトルと同次元のクエリベクトル)をクエリとし、外部記憶装置104に記憶された多数の顔画像特徴から検索を行う。そして、顔画像特徴の類似度が所定の閾値TH1以上の顔画像を検索結果として特定する。なお、本実施形態において、LBP特徴の距離の逆数を正規化し、それを類似度として求める。検索部209は、検索処理を行いながら、検索した結果を順次、検索結果表示部210へと出力する。
The
図4は、検索部209が検索する際の顔画像特徴の特徴量空間を表した概念図である。検索の際に実際に用いられる特徴は、256次元等の多次元ベクトルであるが、ここでは説明の簡略化のため2次元の図で説明する。
FIG. 4 is a conceptual diagram showing a feature amount space of face image features when the
点401は特徴量空間上の特徴量、領域402はクラスタである。線403は各クラスタの境界、三角印404は各クラスタを代表する特徴(代表ベクトル)、405はクラスタ代表特徴とクラスタ内特徴との最長距離rである。ここでは、クラスタ402の一部のクラスタに対しクラスタ名称を付け、それらをG−1、G−2、G−3とする。
A
星印406は、クエリ顔画像特徴である。ここでは、クエリ顔画像特徴は、クラスタG−1の中に存在するものとする。検索部209は、まずクエリ顔画像特徴と各クラスタの代表特徴とを比較し、距離407(dk(k=1、2、・・・))を算出する。次に、クエリ顔画像特徴と各クラスタに登録されている画像特徴との最短距離を、クラスタの代表特徴とクラスタ内特徴との最長距離405(rk(k=1,2、・・・))を利用して推測する。
ここで、クラスタG−2に注目して説明すると、クエリ顔画像特徴とクラスタG−2の代表特徴との距離はd2である。また、クラスタ代表特徴とクラスタ内特徴との最長距離はr2である。このとき、(d2−r2)は、クエリ顔画像特徴とクラスタG−2の代表特徴を中心とした半径r2の円との最短距離である。クエリ顔画像特徴からこの距離(d2−r2)よりも短い範囲には、クラスタG−2の画像特徴は存在しないため、クエリ顔画像特徴とクラスタG−2に登録されている画像特徴との距離は最短でも(d2−r2)となる。すなわち、最短距離は、クエリ顔画像特徴と注目するクラスタに属する画像特徴とが取り得る最短の距離に相当する。 Here, when focusing on the cluster G-2, the distance between the query face image feature and the representative feature of the cluster G-2 is d2. Also, the longest distance between the cluster representative feature and the intra-cluster feature is r2. At this time, (d2-r2) is the shortest distance between the query face image feature and the circle of radius r2 centered on the representative feature of the cluster G-2. Since the image feature of cluster G-2 does not exist in the range shorter than this distance (d2-r2) from the query face image feature, the distance between the query face image feature and the image feature registered in cluster G-2 Is (d2-r2) at the shortest. That is, the shortest distance corresponds to the shortest distance that can be taken between the query face image feature and the image feature belonging to the cluster of interest.
検索部209は、その他のクラスタについても同様にして、クエリ顔画像特徴と、各クラスタに登録されている画像特徴との最短距離を推測する。そして、最初はクエリ画像特徴が存在するクラスタに登録されている画像特徴との比較を行う。その後は、各クラスタとの最短距離が短いクラスタから順に、クラスタに登録されている画像特徴との比較を行う。
The
その際、検索部209は、クエリ顔画像特徴と、各クラスタに登録されている画像特徴との比較を行った後は、比較結果のうち、次に比較を行うクラスタとの間で推測した最短距離よりも短い結果を出力する。例えば、図4において、まずクエリ顔画像特徴が存在するクラスタG−1との比較を行った後は、次に比較を行うクラスタG−2との間で推測した最短距離(d2−r2)を半径とした円408の内側の結果を出力する。そして、クラスタG−2との比較を行った後は、次に比較を行うクラスタG−3との間で推測した最短距離(d3−r3)を半径とした円409の内側の結果を出力する。
At this time, after the
このようにして、次に比較を行うクラスタとの間で推測した最短距離よりも短い(類似度が高い)結果を出力する。これによって、距離の短い順、すなわち、類似度が高い順を保証した検索結果を順々に出力することが可能となる。 In this way, a result shorter (higher in similarity) than the shortest distance estimated with the cluster to be compared next is output. As a result, it becomes possible to sequentially output search results in which the distance order is short, that is, the order in which the degree of similarity is high is guaranteed.
検索結果表示部210は、検索部209から順々に出力される検索結果を順々にモニタ110に表示する。図5は、検索結果表示部210による検索結果の表示例を示している。例えば、図5(A)に示すように、上段の左側に位置するほど類似度の高い画像であるとして、類似度順に検索結果をモニタ110に表示する。あるいは、図5(B)に示すように、カメラ毎に分類した上で類似度順に検索結果をモニタ110に表示するようにしてもよい。図5(A)、(B)の場合とも、検索結果表示部210は、検索部209の検索結果を順次表示していくことになる。ただし、本実施形態では、検索部209は、類似度が高い順に検索結果を順々に出力するため、追加される結果は、現状よりも類似度の低い検索結果追加されることになる。したがって、例えば、ユーザはモニタ110に表示される検索結果の確認を途中で打ち切っても、現状よりも類似度の高い検索結果が後から表示されるような事態は抑制される。なお、本実施形態では、検索部209より順次出力される検索結果を順次表示できる表示方法であれば、その表示方法はこれらに限定されるものではない。
The search
次に、図6を用いて、映像入力部201から入力された映像データを検索可能なように蓄積する処理の詳細を説明する。図6は、本実施形態に係る顔画像特徴を蓄積する処理手順を示すフローチャートである。本処理は、先に説明した映像入力部201から特徴蓄積部207までの処理に対応する。
Next, details of processing for storing video data input from the
ステップS601において、映像入力部201は、ネットワークカメラ112から通信インターフェイス107を介して映像データを入力する。
In step S601, the
ステップS602において、映像蓄積部202は、ステップS601で入力された映像データを外部記憶装置104に記憶する。加えて、映像のメタデータとして、撮影時刻や撮影したカメラなどの情報を関連付けて記憶しておく。
In step S602, the
ステップS603からステップS604は追尾処理部203で行われる処理である。まず、ステップS603において、追尾処理部203は、各フレーム画像から人物を検出し、追尾を行う。ここで、検出された人物にはフレーム画像ごとに別々の人物IDが割り振られ、フレーム画像中の人物の座標とともに一時記憶される。また、追尾を行っている人物に対しては、同じ追尾トラックIDが割り振られ、追尾を行っているフレーム画像のIDとともに一時記憶される。
Steps S603 to S604 are processes performed by the
ステップS604において、追尾処理部203は、追尾が途切れた人物があるか否かを判定する。この判定の結果、追尾が途切れた人物がある場合は、該人物の追尾画像群が決定することから次のステップS605に進む。一方、追尾が途切れた人物がない場合は、追尾を継続するため、ステップS601に戻る。
In step S604, the
ステップS605において、顔検出部204は、追尾処理部203で追尾された人物を含むフレーム画像のそれぞれから顔検出を行う。
In step S605, the
ステップS606において、顔検出部204は、ステップS605の処理によって顔が検出されたか否かを判定する。この判定の結果、顔が検出された場合はステップS607に進み、顔が検出されなかった場合は処理を終了する。
In step S606, the
ステップS607において、代表顔画像決定部205は、追尾された人物のフレーム画像群から、検出された顔の代表となる顔画像を1枚もしくは複数枚選択する。
In step S 607, the representative face
ステップS608において、特徴算出部206は、ステップS607で選択された1枚もしくは複数枚の代表顔画像から顔画像特徴の算出を行う。
In step S608, the
ステップS609において、特徴蓄積部207は、ステップS608で算出された顔画像特徴とそれまでに蓄積された顔画像特徴とでクラスタリングを行う。クラスタリングの手法は、前述(図3)の通りである。
In step S609, the
ステップS610において、特徴蓄積部207は、クラスタの重心を算出し、ステップS611ではクラスタに含まれる顔画像特徴のうちでクラスタの重心からの距離が最も長い距離を算出する。
In step S610, the
ステップS612において、特徴蓄積部207は、顔画像特徴を外部記憶装置104に記憶する。加えて、顔画像特徴のメタデータとして、人物IDや、人物を追尾したときの追尾トラックID、撮影時刻、撮影カメラなどの情報を顔画像特徴と関連付けて記憶する。
In step S612, the
ステップS613において、映像が継続している場合はステップS601に戻り、映像が終了している場合は処理を終了する。 In step S613, when the video continues, the process returns to step S601, and when the video ends, the process ends.
以上の処理により、ネットワークカメラ112から入力された映像に写る人物の顔画像の顔画像特徴が特徴蓄積部207によって外部記憶装置104に蓄積され、検索可能な状態になる。
By the above processing, the
なお、本実施形態では、映像が入力され顔が検出されるごとに、クラスタリングを行っている。しかしながら、登録されるデータ量が少ない場合はクラスタリングの効果も小さいため、検出された顔が所定数に達するまではクラスタリングせずにデータをそのまま登録しておいてもよい。また、クラスタリングはデータの分布を見てグループ化する比較的重い処理である。したがって、毎回クラスタリングを行う(クラスタを更新する)のではなく、クラスタリングを行った後しばらくの間は、登録する顔画像特徴は各クラスタへの分類のみを行うようにすることも可能である。その場合は、クラスタ重心からの距離が最長になる場合に、このクラスタの重心からの最長距離を更新する。 In the present embodiment, clustering is performed each time an image is input and a face is detected. However, when the amount of data to be registered is small, the effect of clustering is small, so data may be registered as it is without clustering until the number of detected faces reaches a predetermined number. Also, clustering is a relatively heavy process of looking at the distribution of data and grouping. Therefore, instead of performing clustering each time (updating clusters), it is also possible to perform classification of face image features to be registered into each cluster only for a while after clustering. In that case, when the distance from the cluster centroid is the longest, the longest distance from the cluster centroid is updated.
次に、図7を用いて、クエリ映像入力部208から入力されたクエリ画像から人物の顔画像を検索する処理の詳細を説明する。図7は、本実施形態において、人物の顔画像を検索する処理手順を示すフローチャートである。本処理は、先に説明した図2における顔検出部204、特徴算出部206、クエリ映像入力部208から検索結果表示部210までの処理に対応する。
Next, details of processing for searching for a face image of a person from the query image input from the query
ステップS701において、クエリ映像入力部208は、検索に用いる人の顔画像を入力する。
In step S701, the query
ステップS702において、顔検出部204は、クエリ映像入力部208によって入力された顔画像を含む映像から顔検出を行う。
In step S702, the
ステップS703において、特徴算出部206は、ステップS702で検出された顔画像から顔画像特徴の算出を行う。
In step S703, the
ステップS704において、検索部209は、ステップS703で算出された顔画像特徴をクエリとし、外部記憶装置104に記憶された各クラスタ重心との比較を行い、距離407(dk(k=1、2、・・・))を算出する。
In step S704, using the face image feature calculated in step S703 as a query, the
ステップS705において、検索部209は、各クラスタに登録されている画像特徴との最短距離を、クラスタの代表特徴とクラスタ内特徴との最長距離405(rk(k=1,2、・・・))を利用して推測し、ソートすることで比較順を決定する。この最短距離が短いクラスタから順番に比較する。
In step S 705, the
ステップS706において、検索部209は、クエリ顔特徴が存在するクラスタを比較対象クラスタに設定する。
In step S706, the
ステップS707において、クエリ顔特徴と比較対象クラスタ内の各画像特徴とを比較し、その距離を算出する。
In
ステップS708において、比較対象クラスタがまだ存在する場合はステップS709に進み、比較対象クラスタが存在しない場合はステップS712に進む。 In step S708, if the comparison target cluster still exists, the process proceeds to step S709, and if the comparison target cluster does not exist, the process proceeds to step S712.
ステップS709において、ステップS707における比較結果のうち、次の比較対象クラスタとの最短距離よりも距離が短い比較結果を出力する。 In step S709, among the comparison results in step S707, the comparison result whose distance is shorter than the shortest distance to the next comparison target cluster is output.
ステップS710において、検索結果表示部210は、ステップS709で出力された比較結果を前回の結果に追加してモニタ110に表示する。なお、同一カメラから複数の結果が得られたときは、すべての結果を表示するのではなく、顔画像の類似度が最も高いまたは高い方から所定数の結果を表示することも可能である。また、表示結果数が多い場合は分割して表示してもよいし、ユーザの指示があった後に更新して表示するようにしてもよい。
In step S710, the search
ステップS711において、最短距離が次に短いクラスタを比較対象クラスタに設定し、ステップS707に進む。 In step S711, the cluster with the shortest shortest distance is set as the comparison target cluster, and the process proceeds to step S707.
ステップS712では、すべての比較対象クラスタとの比較が完了したため、全比較結果を出力する。 In step S712, since comparison with all comparison target clusters is completed, all comparison results are output.
ステップS713において、検索結果表示部210は、ステップS712で出力された比較結果を前回の結果に追加してモニタ110に表示し、処理を終了する。
In step S713, the search
なお、登録データ量が少なく登録時にクラスタリングを行っていない場合は、本処理フローによらず、登録されているすべての特徴との比較を行い、その結果を出力するという通常の処理を行えばよい。 If the amount of registered data is small and clustering is not performed at the time of registration, a normal process of comparing with all registered features regardless of this processing flow may be performed, and the result may be output. .
以上のように、本実施形態によれば、監視カメラの映像中の人物を追尾して得られた同一人物の画像から顔画像特徴を算出し、それらをクラスタリングして記憶するようにした。そして、クエリとして与えられた顔画像をもとに顔画像検索を行う際、まず、クエリ顔特徴と各クラスタ内の特徴との最短距離を推測する。そして、最短距離が短いクラスタから順に、クエリ顔特徴と記憶されている画像特徴との比較を行い、その検索結果を順次出力するようにした。そのため、本実施形態では、ユーザが検索結果を確認できるようになるまでの時間を短くすることが可能になる。 As described above, according to the present embodiment, facial image features are calculated from images of the same person obtained by tracking the person in the video of the surveillance camera, and they are clustered and stored. Then, when performing face image search based on the face image given as a query, first, the shortest distance between the query face feature and the feature in each cluster is estimated. Then, the query face feature and the stored image feature are compared in order from the cluster with the shortest shortest distance, and the search result is sequentially output. Therefore, in the present embodiment, it is possible to shorten the time until the user can confirm the search result.
また、本実施形態ではクエリ顔特徴の存在するクラスタの各画像特徴との比較が終了した後は、最短距離の短い順に各クラスタ内特徴との比較を行い、次に比較を行うクラスタとの推測最短距離よりも短い結果を出力する。この構成によって、本実施形態では、距離の短い順、すなわち、類似度が高い順を保証した結果を順々に出力することが可能となる。 Further, in the present embodiment, after the comparison with each image feature of the cluster in which the query face feature is present is completed, the comparison with each intra-cluster feature is performed in ascending order of shortest distance, and estimation with the cluster to be compared next Output a result shorter than the shortest distance. According to this configuration, in the present embodiment, it is possible to sequentially output the results of guaranteeing the order of short distance, that is, the order of high similarity.
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。第1の実施形態では、特徴量空間をk−means法等により複数の空間に分割し、分割したクラスタに特徴量を登録した。本実施形態では、特徴量空間を所定のルールで分割し、分割したクラスタに特徴量を登録する。ここでは、各クラスタの境界を多次元式で表現可能なように分割する。なお、第1の実施形態で既に説明をした構成については同一の符号を付し、その説明を省略する。
Second Embodiment
Next, a second embodiment of the present invention will be described. In the first embodiment, the feature amount space is divided into a plurality of spaces by the k-means method or the like, and the feature amounts are registered in the divided clusters. In the present embodiment, the feature amount space is divided according to a predetermined rule, and the feature amounts are registered in the divided clusters. Here, the boundaries of each cluster are divided so that they can be expressed by multidimensional expressions. The components already described in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
図8は、本実施形態に係る特徴蓄積部207が蓄積する顔画像特徴の特徴量空間を表す概念図である。本実施形態において用いられる特徴は、256次元等の多次元ベクトルであるが、ここでは説明の簡略化のため2次元の図で説明する。なお、特徴蓄積部207は、第1の実施形態では、クラスタに登録する各画像特徴とクラスタの代表特徴との距離のうち最も長い距離を記憶していたが、本実施形態では不要である。
FIG. 8 is a conceptual diagram showing a feature amount space of face image features stored by the
点801は、特徴量空間上の特徴量である。特徴量空間は格子状の複数の空間に分割され、特徴量は分割されたクラスタに登録される。本実施形態では、正方格子の例を示しているが、三角格子や六角格子でも良い。また、多次元空間においては、単純超立方格子で分割してもよいし、面心超立方格子で分割してもよい。特徴量空間を分割した領域802がクラスタ、特徴量空間を分割している線803が各クラスタの境界である。多次元の特徴量空間では、超面で各クラスタに分割される。
A
図9は、本実施形態に係る検索部209が検索する顔画像特徴の特徴量空間を表す概念図ある。本実施形態において用いられる特徴は、256次元等の多次元ベクトルであるが、ここでは説明の簡略化のため2次元の図で説明する。
FIG. 9 is a conceptual diagram showing a feature amount space of face image features searched by the
点901は特徴量空間上の特徴量、領域902はクラスタである。線903は各クラスタの境界である。ここでは、クラスタ902の一部のクラスタに対してクラスタ名称を付け、それらをG−1、G−2、G−3、G−4とする。
A
星印904は、クエリ顔画像特徴である。ここでは、クエリ顔画像特徴は、クラスタG−1の中に存在する。検索部209は、まず、クエリ顔画像特徴と、各クラスタとの間で最短距離を算出する。例えば、クエリ顔画像特徴とクラスタG−2の最短距離は、クエリ画像特徴からクラスタG−1とクラスタG−2の境界への法線の距離である。クエリ顔画像特徴とクラスタG−3の最短距離は、クエリ画像特徴からクラスタG−1とクラスタG−3の境界への法線の距離である。クエリ顔画像特徴とクラスタG−4の最短距離は、クエリ画像特徴からクラスタG−1、クラスタG−2、クラスタG−3、クラスタG−4の交点までの距離である。
n次元空間におけるある点(q1,q2,…,qn)から数式1で表される超平面までの法線の距離は、数式2で算出できる。
The distance of the normal from a certain point (q 1 , q 2 ,..., q n ) in the n-dimensional space to the hyperplane represented by
また、n次元空間における2点(p1,p2,…,pn)、(q1,q2,…,qn)間の距離は、数式3で算出できる。
Further, the distance between two points (p 1 , p 2 ,..., P n ) and (q 1 , q 2 ,..., Q n ) in the n-dimensional space can be calculated by
検索部209は、まずクエリ顔特徴が存在するクラスタに登録されている各画像特徴との比較を行う。その後は、各クラスタとの最短距離が短いクラスタから順に、クラスタに登録されている各画像特徴との比較を行う。
The
本実施形態においても、各クラスタに登録されている各特徴との比較を行った後、比較結果を出力する際は、比較結果のうち、次に比較を行うクラスタとの推測最短距離よりも短い結果を出力する。例えば、図9において、クラスタG−1との比較を行った後は、次に比較を行うクラスタG−2との最短距離を半径とした円905の内側の結果を出力する。クラスタG−2との比較を行った後は、次に比較を行うクラスタG−3との最短距離を半径とした円906の内側の結果を出力する。このようにして、次に比較を行うクラスタとの最短距離よりも短い(類似度が高い)結果を出力することで、距離の短い順、すなわち、類似度が高い順を保証した結果を順々に出力することが可能となる。
Also in the present embodiment, after comparison with each feature registered in each cluster, when the comparison result is output, the comparison result is shorter than the estimated shortest distance to the cluster to be compared next. Output the result. For example, in FIG. 9, after the comparison with the cluster G-1, the result inside the circle 905 is output with the radius being the shortest distance to the cluster G-2 to be compared next. After the comparison with the cluster G-2, the result inside the
次に、図10を用いて、映像入力部201から入力された映像データを検索可能なように蓄積する処理の詳細を説明する。図10は、本実施形態において、顔画像特徴を蓄積する処理手順を示すフローチャートである。本処理は、先に説明した映像入力部201から特徴蓄積部207までの処理に対応する。
Next, details of processing for storing video data input from the
ステップS1001からステップS1008は、図6におけるステップS601からステップS608と同様である。 Steps S1001 to S1008 are the same as steps S601 to S608 in FIG.
ステップS1009において、特徴蓄積部207は、ステップS608で算出された顔画像特徴を所定のルールで決定されたクラスタに登録する。加えて、顔画像特徴のメタデータとして、人物IDや、人物を追尾したときの追尾トラックID、撮影時刻、撮影カメラなどの情報を顔画像特徴と関連付けて記憶する。上述のとおり、本実施形態で、各クラスタを決定する所定のルールとは、特徴量空間を格子状の複数の空間に分割するというものである。
In step S1009, the
ステップS1010は、図6におけるステップS613と同様である。 Step S1010 is the same as step S613 in FIG.
以上の処理により、ネットワークカメラ112から入力された映像に写る人物の顔画像の顔画像特徴が、特徴蓄積部207によって外部記憶装置104に検索可能な状態で蓄積される。
By the above-described processing, the
次に、図11を用いて、クエリ映像入力部208から入力されたクエリ画像から人物の顔画像を検索する処理の詳細を説明する。図11は、本実施形態において、人物の顔画像を検索する処理手順を示すフローチャートである。本処理は、先に説明した図2における顔検出部204、特徴算出部206、クエリ映像入力部208から検索結果表示部210までの処理に対応する。
Next, details of processing for searching for a face image of a person from the query image input from the query
ステップS1101からステップS1103は、図7におけるステップS701からステップS703と同様である。 Steps S1101 to S1103 are the same as steps S701 to S703 in FIG.
ステップS1104において、検索部209は、クエリ顔特徴から各クラスタへの最短距離を算出し、ソートすることで比較順を決定する。検索部209は、クエリ顔特徴が存在するクラスタの各画像特徴との比較の後は、この最短距離が短いクラスタから順に比較を行う。
In step S1104, the
ステップS1105からステップS1112は、図7におけるステップS706からステップS713と同様である。 Steps S1105 to S1112 are the same as steps S706 to S713 in FIG.
以上のように、本実施形態によれば、監視カメラの映像中の人物を追尾して得られた同一人物の画像から顔画像特徴を算出し、それらを所定のルールで分割したクラスタに記憶するようにした。そして、クエリとして与えられた顔画像をもとに顔画像検索を行う際、まず、クエリ顔特徴と各クラスタ内の特徴との最短距離を推測する。そして、最短距離が短いクラスタから順に、クエリ顔特徴と記憶されている画像特徴との比較を行い、その検索結果を順次出力するようにした。そのため、本実施形態では、ユーザが検索結果を確認できるようになるまでの時間を短くすることが可能になる。 As described above, according to the present embodiment, face image features are calculated from images of the same person obtained by tracking the person in the video of the monitoring camera, and these are stored in clusters divided according to a predetermined rule. I did it. Then, when performing face image search based on the face image given as a query, first, the shortest distance between the query face feature and the feature in each cluster is estimated. Then, the query face feature and the stored image feature are compared in order from the cluster with the shortest shortest distance, and the search result is sequentially output. Therefore, in the present embodiment, it is possible to shorten the time until the user can confirm the search result.
また、本実施形態ではクエリ顔特徴の存在するクラスタの各画像特徴との比較が終了した後は、最短距離の短い順に各クラスタ内特徴との比較を行い、次に比較を行うクラスタとの推測最短距離よりも短い結果を出力する。この構成によって、本実施形態では、距離の短い順、すなわち、類似度が高い順を保証した結果を順々に出力することが可能となる。 Further, in the present embodiment, after the comparison with each image feature of the cluster in which the query face feature is present is completed, the comparison with each intra-cluster feature is performed in ascending order of shortest distance, and estimation with the cluster to be compared next Output a result shorter than the shortest distance. According to this configuration, in the present embodiment, it is possible to sequentially output the results of guaranteeing the order of short distance, that is, the order of high similarity.
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。第1、第2の実施形態では、顔画像特徴を1つのインデクスに登録し、該インデクスを対象に検索を行った。第3の実施形態では、顔画像特徴を複数のインデクスに分割して登録し、それらの複数のインデクスを対象に検索を行う。なお、第1、第2の実施形態で既に説明をした構成については同一の符号を付し、その説明を省略する。
Third Embodiment
Next, a third embodiment of the present invention will be described. In the first and second embodiments, face image features are registered in one index, and a search is performed on the index. In the third embodiment, the face image feature is divided into a plurality of indexes and registered, and the search is performed on the plurality of indexes. The components already described in the first and second embodiments are denoted by the same reference numerals, and the description thereof will be omitted.
まず、顔画像特徴を複数のインデクスに分割して登録することの利点について説明する。例えば、カメラ毎にインデクスを分けることで、検索対象のカメラを限定した検索を簡単に行うことができる。また、一定時間ごとや一定数の顔画像特徴ごとにインデクスを分けることで、時間帯を指定した検索を簡単に行うことができる。インデクスを複数に分割するときは、インデクスごとに第1の実施形態もしくは第2の実施形態と同様の手順でインデクスを作成する。 First, an advantage of dividing and registering a face image feature into a plurality of indexes will be described. For example, by dividing an index for each camera, it is possible to easily carry out a search with limited cameras to be searched. Further, by dividing the index for each fixed time or for each fixed number of face image features, it is possible to easily perform a search specifying a time zone. When the index is divided into a plurality of indexes, the index is created for each index according to the same procedure as in the first embodiment or the second embodiment.
検索を行うときは、検索部209が、それぞれのインデクスに対して検索を行い、インデクスごとに検索結果を取得する。図12は、各インデクスの検索結果の一例を示す概念図である。同図では、各インデクスの検索結果を距離が短い順(類似度が高い順)に並べて表わしている。ここでは、インデクス1からは1201から1203、インデクス2からは1204から1207、インデクス3からは1208から1210が検索結果として取得されている。各検索結果の下部に記載の数字は、クエリ特徴からの距離である。
When the search is performed, the
この状態において、検索部209は、まずインデクスごとに最も長い距離を取得する。図12の例では、インデクス1の最長距離は110、インデクス2の最長距離は140、インデクス3の最長距離は120である。そして、検索部209は、これらの距離のうち、最も短い最長距離よりも距離が短い検索結果を出力する。図12の例では、各インデクスの最長距離のうち最も短い最長距離はインデクス1の110である。次の検索結果を取得する際、どのインデクスからも、距離が110よりも短い検索結果が取得されることは無い。そこで、距離が110よりも短い検索結果を出力する。以降も、各インデクスに対して検索結果を取得し、各インデクスの最長距離のうち最も短い最長距離よりも距離が短い検索結果を出力するという同様の処理を繰り返す。これにより、すべてのインデクスに対して距離の短い順、すなわち、類似度が高い順を保証した検索結果を順々に出力することが可能となる。
In this state, the
また、インデクスごとの検索結果を取得する際、そのインデクスがどの距離よりも短い結果を出力したか、すなわち次に比較するクラスタとの最短距離を取得することも可能である。例えば、図12のインデクス1において、次に比較するクラスタとの最短距離が118であって、かつ、それまでの比較結果には距離が110より長く118より短い結果が存在しないときを考える。このとき、インデクス1から取得できる比較結果は変わらない。もし、次に比較するクラスタとの最短距離が118である、という情報を予め取得することができていれば、次の検索結果を取得する際、どのインデクスからも距離が118よりも短い結果が取得されることは無いことがわかる。したがって、この値を用いて、距離が118よりも短い結果のみを出力することで、順位の確定した結果をより多く、すなわち、より早く出力することが可能となる。
In addition, when acquiring the search result for each index, it is also possible to acquire the result whose index is shorter than which distance, that is, the shortest distance to the cluster to be compared next. For example, in
以上、本実施形によれば、顔画像特徴を複数のインデクスに分割して登録した場合にも、ユーザが検索結果を確認できるようになるまでの時間を短くすることが可能になる。また、距離の短い順、すなわち、類似度が高い順を保証した結果を順々に出力することが可能となる。 As described above, according to the present embodiment, even when the face image feature is divided into a plurality of indexes and registered, it is possible to shorten the time until the user can confirm the search result. In addition, it is possible to sequentially output the results of guaranteeing the order in which the distances are short, that is, the order in which the degree of similarity is high.
[その他の実施形態]
上述した各実施形態では、監視カメラの映像中の人物の画像から顔画像特徴を抽出し、それらを記憶し、検索できるようにした。しかしながら本発明は、検索対象としてのオブジェクトは人物に限定するものではない。例えば、犬、猫などの動物や、車などの乗り物に適用しても良い。また、対象のオブジェクトから算出される特徴は、顔画像から算出される顔特徴に限定されない。例えば、人物検索の場合には、顔画像以外にも、全身、衣服、持ち物の画像から算出される特徴量であってもよい。本発明を動物に適用する場合は、顔画像、体の模様、衣服、全体的な形状や色を特徴として用いればよい。本発明を車に適用する場合は、識別番号周辺の画像、全体的な形状や色を特徴として用いればよい。
Other Embodiments
In each embodiment described above, face image features are extracted from the image of a person in the video of the surveillance camera, and they are stored and can be searched. However, the present invention does not limit the object as the search target to a person. For example, the present invention may be applied to animals such as dogs and cats and vehicles such as cars. In addition, the features calculated from the target object are not limited to the face features calculated from the face image. For example, in the case of a person search, other than face images, feature amounts calculated from images of the whole body, clothes, and belongings may be used. When the present invention is applied to animals, facial images, body patterns, clothes, overall shapes and colors may be used as features. When the present invention is applied to a car, an image around the identification number, an overall shape or color may be used as a feature.
また、本発明は、画像の局所的な特徴量(局所特徴量)を用いて類似画像を検索する際にも適用可能である。この方法では、まず、画像から特徴的な点(局所特徴点)を抽出する(非特許文献3)。次に、当該局所特徴点とその周辺の画像情報とに基づいて、当該局所特徴点に対応する特徴量(局所特徴量)を計算する(非特許文献4)。そのようにして得られた特徴量(多次元ベクトル)をクラスタリングして蓄積し、検索時はクラスタ内特徴と順次比較し、順次出力すればよい。 The present invention is also applicable to searching for similar images using local feature quantities (local feature quantities) of images. In this method, first, characteristic points (local feature points) are extracted from the image (Non-Patent Document 3). Next, a feature amount (local feature amount) corresponding to the local feature point is calculated based on the local feature point and image information on the periphery thereof (Non-Patent Document 4). The feature quantities (multidimensional vectors) obtained in this manner may be clustered and accumulated, and may be sequentially compared with the in-cluster features at the time of retrieval and sequentially output.
なお、上記各実施形態では検索対象のデータ、クエリデータの種類を画像として説明をしたが、データの種類は画像に限られず、例えば音声のような他の種類のデータであってもよい。 In the above embodiments, the data to be searched and the type of query data are described as images. However, the type of data is not limited to an image, and may be another type of data such as voice.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Processing is also feasible. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
100 情報処理装置
201 映像入力部
202 映像蓄積部
203 追尾処理部
204 顔検出部
205 代表顔画像決定部
206 特徴算出部
207 特徴蓄積部
208 クエリ映像入力部
209 検索部
210 検索結果表示部
100
Claims (14)
前記クエリデータを入力する入力手段と、
前記入力されたクエリデータから前記第2のベクトルを算出する算出手段と、
前記グループに登録されている第1のベクトルと前記第2のベクトルとが取り得る最短の距離を、最短距離として決定する第1の決定手段と、
前記決定した最短距離に基づいて、前記第2のベクトルと比較する前記複数のグループの順番を決定する第2の決定手段と、
前記決定した順番に基づいて前記グループごとに前記第1のベクトルと前記第2のベクトルとの比較を行い、前記複数のグループそれぞれで前記第1のベクトルと前記第2のベクトルとの距離が前記最短距離よりも短い前記第1のベクトルを検索結果として出力する出力手段と、
を有することを特徴とする情報処理装置。 Information processing for outputting the first vector similar to the second vector representing the feature value calculated from the query data from the storage means which registered the first vector to be searched in a plurality of groups in the multi-dimensional space A device,
Input means for inputting the query data;
Calculation means for calculating the second vector from the input query data;
First determining means for determining the shortest distance that the first vector registered in the group and the second vector can take as the shortest distance;
Second determining means for determining the order of the plurality of groups to be compared with the second vector based on the determined shortest distance;
The first vector and the second vector are compared for each of the groups based on the determined order, and the distance between the first vector and the second vector in each of the plurality of groups is the Outputting means for outputting the first vector shorter than the shortest distance as a search result;
An information processing apparatus comprising:
前記出力手段は、前記複数のインデクスそれぞれにおいて前記第1のベクトルと前記第2のベクトルとの比較を行い、前記複数のインデクスそれぞれで前記第1のベクトルと前記第2のベクトルとの距離が最長の距離を取得し、当該取得した前記複数のインデクスそれぞれの最長の距離のうち最も短い距離よりも距離が短い前記第1のベクトルを検索結果として出力することを特徴とする請求項7に記載の情報処理装置。 In the storage means, the first vector is registered for each of a plurality of indexes;
The output means compares the first vector with the second vector in each of the plurality of indexes, and the distance between the first vector and the second vector is longest in each of the plurality of indexes. 8. The method according to claim 7, further comprising: acquiring a first distance of the first vector, which is shorter than a shortest distance among the longest distances of the plurality of indexes acquired, as a search result. Information processing device.
前記入力手段は、前記クエリデータとしてクエリ画像を入力し、
前記算出手段は、前記第2のベクトルとして、前記入力されたクエリ画像から多次元ベクトルを算出することを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。 In the storage means, a multidimensional vector calculated from an image to be searched is registered as the first vector,
The input unit inputs a query image as the query data,
The information processing apparatus according to any one of claims 1 to 8, wherein the calculation means calculates a multidimensional vector from the input query image as the second vector.
前記第2のベクトルは、前記検出された人物の領域から抽出された特徴量を表す多次元のベクトルであることを特徴とする請求項9に記載の情報処理装置。 It further comprises detection means for detecting a person from the input query image,
10. The information processing apparatus according to claim 9, wherein the second vector is a multidimensional vector representing a feature amount extracted from the area of the detected person.
前記算出手段は、前記検索対象となるデータから前記第1のベクトルを算出し、当該算出した第1のベクトルを前記記憶手段に登録することを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。 The input unit inputs data to be searched.
12. The apparatus according to claim 1, wherein the calculation means calculates the first vector from the data to be searched, and registers the calculated first vector in the storage means. The information processing apparatus according to claim 1.
前記クエリデータを入力するステップと、
前記入力されたクエリデータから前記第2のベクトルを算出するステップと、
前記グループに登録されている第1のベクトルと前記第2のベクトルとが取り得る最短の距離を、最短距離として決定するステップと、
前記決定した最短距離に基づいて、前記第2のベクトルと比較する前記複数のグループの順番を決定するステップと、
前記決定した順番に基づいて前記グループごとに前記第1のベクトルと前記第2のベクトルとの比較を行い、前記複数のグループそれぞれで前記第1のベクトルと前記第2のベクトルとの距離が前記最短距離よりも短い前記第1のベクトルを検索結果として出力するステップと、
を有することを特徴とする情報処理方法。 Information processing for outputting the first vector similar to the second vector representing the feature value calculated from the query data from the storage means which registered the first vector to be searched in a plurality of groups in the multi-dimensional space Method,
Inputting the query data;
Calculating the second vector from the input query data;
Determining the shortest distance that the first vector registered in the group and the second vector can take as the shortest distance;
Determining an order of the plurality of groups to be compared with the second vector based on the determined shortest distance;
The first vector and the second vector are compared for each of the groups based on the determined order, and the distance between the first vector and the second vector in each of the plurality of groups is the Outputting the first vector shorter than the shortest distance as a search result;
An information processing method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017211169A JP2019082959A (en) | 2017-10-31 | 2017-10-31 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017211169A JP2019082959A (en) | 2017-10-31 | 2017-10-31 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019082959A true JP2019082959A (en) | 2019-05-30 |
Family
ID=66670542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017211169A Pending JP2019082959A (en) | 2017-10-31 | 2017-10-31 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019082959A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022526381A (en) * | 2019-08-22 | 2022-05-24 | シェンチェン センスタイム テクノロジー カンパニー リミテッド | Image processing methods and devices, electronic devices and storage media |
JP2022083920A (en) * | 2020-11-25 | 2022-06-06 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP2022083919A (en) * | 2020-11-25 | 2022-06-06 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
WO2023100664A1 (en) * | 2021-12-01 | 2023-06-08 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
-
2017
- 2017-10-31 JP JP2017211169A patent/JP2019082959A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022526381A (en) * | 2019-08-22 | 2022-05-24 | シェンチェン センスタイム テクノロジー カンパニー リミテッド | Image processing methods and devices, electronic devices and storage media |
JP2022083920A (en) * | 2020-11-25 | 2022-06-06 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP2022083919A (en) * | 2020-11-25 | 2022-06-06 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP7109522B2 (en) | 2020-11-25 | 2022-07-29 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
WO2023100664A1 (en) * | 2021-12-01 | 2023-06-08 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7375101B2 (en) | Information processing device, information processing method and program | |
US11232292B2 (en) | Activity recognition systems and methods | |
Happy et al. | Fuzzy histogram of optical flow orientations for micro-expression recognition | |
JP2017033547A (en) | Information processing apparatus, control method therefor, and program | |
JP2019082959A (en) | Information processing apparatus, information processing method, and program | |
US20130121535A1 (en) | Detection device and method for transition area in space | |
CN114616588A (en) | Image processing apparatus, image processing method, and non-transitory computer-readable medium storing image processing program | |
CN106557728B (en) | Query image processing and image search method and device and monitoring system | |
Boubou et al. | Classifying actions based on histogram of oriented velocity vectors | |
JP2016206795A (en) | Device, program, and method for tracking object using discriminator that learns by real space information | |
JP2015111339A (en) | Image search system, image search apparatus, search server device, image search method, and image search program | |
Reining et al. | Attribute representation for human activity recognition of manual order picking activities | |
Zahid et al. | Pedestrian identification using motion-controlled deep neural network in real-time visual surveillance | |
Batool et al. | Telemonitoring of daily activities based on multi-sensors data fusion | |
Colantonio et al. | Object tracking in a stereo and infrared vision system | |
Gościewska et al. | Silhouette-based action recognition using simple shape descriptors | |
JP7409499B2 (en) | Image processing device, image processing method, and program | |
Azorin-Lopez et al. | Constrained self-organizing feature map to preserve feature extraction topology | |
Chakraborty et al. | Person re-identification using multiple first-person-views on wearable devices | |
Yan et al. | Multiple binocular cameras-based indoor localization technique using deep learning and multimodal fusion | |
Yoganand et al. | Face detection approach from video with the aid of KPCM and improved neural network classifier | |
Vahora et al. | Comprehensive analysis of crowd behavior techniques: A thorough exploration | |
Willimon et al. | Interactive perception of rigid and non-rigid objects | |
JP7468642B2 (en) | Image processing device, image processing method, and program | |
WO2022249331A1 (en) | Image processing device, image processing method, and program |