JP2009027393A - Image searching system and personal searching method - Google Patents

Image searching system and personal searching method Download PDF

Info

Publication number
JP2009027393A
JP2009027393A JP2007187745A JP2007187745A JP2009027393A JP 2009027393 A JP2009027393 A JP 2009027393A JP 2007187745 A JP2007187745 A JP 2007187745A JP 2007187745 A JP2007187745 A JP 2007187745A JP 2009027393 A JP2009027393 A JP 2009027393A
Authority
JP
Japan
Prior art keywords
image
unit
search
person
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007187745A
Other languages
Japanese (ja)
Inventor
Seiya Ito
誠也 伊藤
Hiroshi Shojima
博 正嶋
Tatsuhiko Kagehiro
達彦 影広
Hiromasa Fujii
宏昌 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007187745A priority Critical patent/JP2009027393A/en
Publication of JP2009027393A publication Critical patent/JP2009027393A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a highly accurate personal searching system for extracting different characteristic amounts of the same person from images having various characteristics because the cameral setting conditions are different. <P>SOLUTION: An image monitoring system includes an image extracting unit for extracting signals from imaging devices such as one or more cameras and an image data unit for holding an input image obtained by the image extracting unit. The image monitoring system further includes a condition designating unit for designating personal characteristic, time, and camera from the input image, an image searching unit for searching, by image recognition, an image matched in the conditions designated by the condition designating unit from the input image groups stored in the image data unit and a result displaying unit for displaying the results of the image searching unit, in addition to the means for selecting a plurality of personal characteristics designated by the condition designating unit with the user designation or personal tracking method and for adding such personal characteristics to the searching conditions of the condition designating unit. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カメラなどの撮像装置から取得する映像から画像データや記録する機能を有する、いわゆる映像記録装置や画像認識による侵入者検知などの機能を実現する映像監視システムに係わる。   The present invention relates to a so-called video recording apparatus having a function of recording and recording image data from video acquired from an imaging apparatus such as a camera, and a video monitoring system that realizes functions such as intruder detection by image recognition.

カメラから取得した映像から画像認識により監視エリアに現れる人や車両などの移動物体を検知する機能を有する映像監視システムは、検出結果を利用することで移動物体の出現した映像のみ記録する機能や、表示装置に警告アイコンの提示する機能を有し、またブザー等を鳴らして監視員の注意を促すことができるため、従来は常時確認作業が必要であった監視業務の負担低減に役立つ。また、前述の映像監視システムでは、窃盗などの不正行為が発生した場合、記録した映像を事後の犯罪立証に役立てることも可能である。   A video monitoring system having a function of detecting a moving object such as a person or a vehicle that appears in a monitoring area by image recognition from a video acquired from a camera has a function of recording only a video in which a moving object appears by using a detection result, Since the display device has a function of presenting a warning icon and can be alerted by sounding a buzzer or the like, it is useful for reducing the burden of monitoring work that conventionally required constant confirmation work. In addition, in the above-described video monitoring system, when an illegal act such as theft occurs, the recorded video can be used for subsequent crime verification.

近年、犯罪の多様化,犯罪検挙数の増加などにより量販店や金融機関、ビル・オフィス等での防犯意識が高まり、映像監視システムの導入が進んでいる。映像記録装置も大容量化し、IPカメラなどの普及により様々な場所にカメラが設置されることで、カメラ台数も増加している。先に述べたように犯罪者を監視員の目視作業により記録映像から洗い出すことは非常に困難であり、監視業務を支援する機能への要望が高まっている。   In recent years, crime diversification and an increase in the number of criminal offenses have led to an increased awareness of crime prevention at mass retailers, financial institutions, buildings, offices, etc., and video surveillance systems have been introduced. The capacity of video recording apparatuses is also increasing, and the number of cameras is increasing as cameras are installed in various places due to the spread of IP cameras and the like. As described above, it is very difficult to identify a criminal from a recorded image by visual observation by a monitor, and there is an increasing demand for a function that supports monitoring work.

監視業務支援を目的として、犯罪者などの特定の人物を画像認識技術によって記録した画像データから洗い出す手段は、例えば特許文献1として知られている。特許文献1では検索条件を設定するための画像を指定し、その画像内に存在するオブジェクトまたはそれに類するキーワードを検索キーとして(特許文献1では主に顔領域)、検索キーと類似性の高い画像を画像データから取得し、提示する機能が示されている。   For example, Patent Document 1 discloses a means for identifying a specific person such as a criminal from image data recorded by an image recognition technique for the purpose of monitoring work support. In Patent Document 1, an image for setting a search condition is designated, and an object that is present in the image or a keyword similar thereto is used as a search key (mainly a face area in Patent Document 1), and an image having high similarity to the search key A function for acquiring and presenting image data from image data is shown.

特開2002−183205号公報JP 2002-183205 A

監視エリアに設置されたカメラから取得する映像は、画角,照明条件,人物の向きや姿勢など様々な状況が発生しうる。その場合、画像データの空間特徴,画像の色特徴、また姿勢が変化することによって物体の形状情報が同一の人物の場合でも多様に変化する。このため、特許文献1のように指定画像から取得した人物特徴では、ある特定条件の場合の人物特徴に限定されるため、これを検索キーとして画像内から特定人物を洗い出そうとした場合、同一の人物でありながら見逃してしまう失報が発生することが考えられる。   A video acquired from a camera installed in a monitoring area may have various situations such as an angle of view, lighting conditions, a person's orientation and posture. In that case, even if the shape information of the object is the same person due to changes in the spatial characteristics of the image data, the color characteristics of the image, and the posture, the information changes variously. For this reason, since the person feature acquired from the designated image as in Patent Document 1 is limited to the person feature in the case of a certain specific condition, when trying to identify a specific person from the image using this as a search key, Although it is the same person, it is possible that missed information that would be missed occurs.

これらの問題に対処するため、照明条件や向き姿勢の影響の少ないロバストな人物特徴を用いて検索する必要である。しかしながら、ロバストな特徴量であっても、人物の非剛体性や見えの多様さから失報を低減することは非常に困難であると考えられる。   In order to deal with these problems, it is necessary to search using robust human features that are less affected by lighting conditions and orientations. However, even with a robust feature amount, it is considered extremely difficult to reduce false alarms due to the non-rigidity of people and the variety of appearances.

本発明の目的は以上の問題を解決するもので、人物検索システムにおいて、人物検索の精度を向上させることにある。   An object of the present invention is to solve the above problems, and to improve the accuracy of person search in a person search system.

上記の課題を解決するために、本発明における映像検索システムは、検索対象物体の特徴を含む検索条件を指定する条件指定部と、前記画像データ部に保持した前記入力画像群から前記条件指定部で指定した条件に合致する画像を検索する画像検索部と、前記画像検索部の検索結果を表示する結果表示部と、前記結果表示部に表示された画像から前記検索対象物体の画像をユーザが選択できる画像選択手段と、前記画像選択手段により選択された画像を用いて前記条件指定部の前記検索対象物体の特徴を更新する手段と、を備えたものである。   In order to solve the above-described problem, a video search system according to the present invention includes a condition specifying unit that specifies a search condition including the characteristics of a search target object, and the condition specifying unit from the input image group held in the image data unit. The user searches for an image of the search target object from the image displayed on the result display unit, an image search unit that searches for an image that matches the condition specified in Step 1, a result display unit that displays the search result of the image search unit, and Image selecting means that can be selected, and means for updating the characteristics of the search target object of the condition designating unit using the image selected by the image selecting means.

また、本発明は、検索対象の人物特徴または検索の時間または撮像機器を指定する条件指定部と、前記画像データ部に保持した前記入力画像群から前記条件指定部で指定した条件に合致する画像を検索する画像検索部と、前記画像検索部の検索結果を表示する結果表示部とを有し、ユーザが検索対象の人物の画像を選択できる方法で前記結果表示部に表示し、ユーザにより選択された検索対象の人物の画像により前記条件指定部により指定された検索対象の前記人物特徴を更新する人物検索方法により、上記課題を解決するものである。   The present invention also provides a condition designating unit for designating a human characteristic to be searched for, a search time or an imaging device, and an image that matches a condition specified by the condition designating unit from the input image group held in the image data unit. And a result display unit for displaying the search result of the image search unit. The user can select an image of a person to be searched and displayed on the result display unit and selected by the user. The above-described problem is solved by a person search method for updating the person feature of the search target specified by the condition specifying unit from the search target person image.

本発明によれば、同一物体でありながら見かけの違う画像に対しても、人物検索することが可能となる。そのため、映像検索システムの検索精度を向上させることが実現できる。   According to the present invention, it is possible to perform a person search even for images that are the same object but have different appearances. Therefore, it is possible to improve the search accuracy of the video search system.

以下に、本発明の一実施形態について図面を参照しながら説明する。図1は人物検索機能を映像監視システムに適用した場合の構成であり、ハードウェアとしてはCPUを備えた電子計算機システムにより構成され、夫々の機能を実行するようになっている。映像は監視対象エリアに設置された1台もしくは複数台のTVカメラなどの撮像装置100より得られた信号を映像として取得する映像取得部101、映像取得部101からハードディスクドライブ等の記録媒体に画像データ群として記録している画像データ部102、画像データ部102から画像を選択して指定画像から人物特徴を取得することや、検索時間や検索対象となるカメラを検索条件として指定する条件指定部103、条件指定部103で指定された条件に基づく画像データ部102の画像と指定画像との類似度を算出する画像検索部104、画像検索部104の結果をモニタ等に出力する結果表示部105で構成される。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration in the case where the person search function is applied to a video surveillance system. The hardware is configured by an electronic computer system including a CPU and executes each function. The video is acquired from a video acquisition unit 101 that acquires a signal obtained from the imaging device 100 such as one or a plurality of TV cameras installed in the monitoring target area as a video, and is recorded on a recording medium such as a hard disk drive from the video acquisition unit 101. The image data section 102 recorded as a data group, selecting an image from the image data section 102 and acquiring a person feature from a designated image, or a condition designating section for designating a search time and a camera to be searched as a search condition 103, an image search unit 104 that calculates the similarity between the image of the image data unit 102 and the specified image based on the condition specified by the condition specifying unit 103, and a result display unit 105 that outputs the result of the image search unit 104 to a monitor or the like Consists of.

映像取得部101においては、画像データが記録されている映像記録装置などから入力された映像信号から1次元配列もしくは2次元配列の画像データとして取得してもよい。この画像データにおいては、ノイズやフリッカなどの影響を低減するために、前処理として平滑化フィルタや輪郭強調フィルタ、濃度変換などの処理を施してもよい。また、用途に応じてRGBカラーやモノクロなどのデータ形式を選択してもよい。さらには、処理コスト低減のために、所定の大きさで画像データに縮小処理を施してもよい。条件指定部103および結果表示部105はグラフィカルユーザインターフェースなどを介してユーザが条件指定もしくは結果の確認を行う。   The video acquisition unit 101 may acquire the image data as a one-dimensional array or a two-dimensional array from a video signal input from a video recording device or the like in which the image data is recorded. In order to reduce the influence of noise, flicker, etc., this image data may be subjected to processing such as a smoothing filter, contour enhancement filter, and density conversion as preprocessing. Further, a data format such as RGB color or monochrome may be selected according to the application. Furthermore, the image data may be reduced at a predetermined size in order to reduce processing costs. The condition designation unit 103 and the result display unit 105 allow the user to designate conditions or confirm results through a graphical user interface or the like.

次に、条件指定部103の詳細について図2を用いて説明する。条件指定部103では画像から人物の領域を指定し人物特徴を取得する人物指定手段200、指定された人物を同一カメラ内で追跡する人物追跡手段201、追跡した人物の画像データから特徴抽出を行う特徴抽出手段202、上述の処理により取得した人物特徴を保持する人物特徴保持手段203、検索時間や検索対象のカメラの指定などを行う検索条件指定手段204、人物画像を提示しユーザに正解を判断させる候補提示手段205により構成される。   Next, details of the condition specifying unit 103 will be described with reference to FIG. In the condition designating unit 103, a person designating unit 200 that designates a person region from an image and acquires a person feature, a person tracking unit 201 that tracks the designated person within the same camera, and a feature extraction from the image data of the tracked person. A feature extraction unit 202, a person feature holding unit 203 that holds the person feature acquired by the above processing, a search condition specifying unit 204 for specifying a search time, a camera to be searched, and the like, and presenting a person image and determining the correct answer to the user It is comprised by the candidate presentation means 205 to be made.

人物指定手段200は図3の(a)に示すようなメニュー画面を用いる。画像データ部102に記録された画像内のうち、例えば犯罪者と思われる人物の映っている画像を、カメラ指定300と時間指定302を調整して表示させ、画像出力301から人物領域をマウス等より指定する。ここでは、予め取得している人物画像を直接指定することも可能である。また、検索条件指定手段204は図3の(b)に示すようなメニュー画面において、検索の対象とする時刻を検索時間指定303にて、さらに検索対象とするカメラを対象カメラ指定304にて設定する。対象カメラ指定304はカメラ設置図と連動した仕様とすることがユーザにとって望ましい。   The person designation means 200 uses a menu screen as shown in FIG. Of the images recorded in the image data section 102, for example, an image showing a person who seems to be a criminal is displayed by adjusting the camera designation 300 and the time designation 302, and the person area is displayed from the image output 301 with a mouse or the like. Specify more. Here, it is also possible to directly specify a human image acquired in advance. Further, the search condition designating unit 204 sets the time to be searched in the search time designation 303 and the camera to be searched in the target camera designation 304 on the menu screen as shown in FIG. To do. It is desirable for the user that the target camera designation 304 has specifications linked to the camera installation drawing.

人物指定手段200で指定された画像に対して人物追跡手段201では、指定した画像の取得時刻前後に取得された画像データ内で指定人物を追跡する。これは、1枚の画像から、後述する特徴抽出を行った場合に、人物検索に適した特徴量が取得できないことに対処するためである。検索対象の人物の特徴抽出をあるカメラの単一の画像に依存した場合には、他のカメラでのこの人物の見え方は異なるため、検索精度の低下が考えられる。同一のカメラにより取得された画像であっても画像の取得時刻が異なれば、例えば人物正面から人物側面へと見かけが変化し、それに伴い特徴量も変化する。そこで、この人物の複数の特徴量を取得するために人物追跡手段201を導入している。人物追跡手段201による人物追跡は、人物指定手段200で取得した指定画像前後の時刻のフレーム間の画像照合や重心追跡などにより求めることが可能である。   For the image specified by the person specifying means 200, the person tracking means 201 tracks the specified person in image data acquired before and after the acquisition time of the specified image. This is to cope with the fact that a feature amount suitable for person search cannot be acquired when feature extraction described later is performed from one image. When the feature extraction of a person to be searched depends on a single image of a certain camera, the appearance of this person on other cameras is different, so that the search accuracy may be lowered. Even if the images are acquired by the same camera, if the image acquisition times are different, for example, the appearance changes from the front of the person to the side of the person, and the feature amount changes accordingly. Therefore, person tracking means 201 is introduced to acquire a plurality of feature quantities of the person. The person tracking by the person tracking unit 201 can be obtained by image collation between frames before and after the specified image acquired by the person specifying unit 200, tracking the center of gravity, or the like.

人物追跡手段201により、各々のフレームにて人物の領域が指定できる。これらの画像特徴を統合する特徴抽出を特徴抽出手段202にて実行する。図4に示すように、例えば人物特徴をRGB値のヒストグラムとした場合を例に説明する。追跡した結果がN個あった場合、夫々の追跡結果に対して特徴抽出を行うと(a)特徴ヒストグラムH1から(b)特徴ヒストグラムHNまでN個生成される。次に各々のヒストグラムの類似を、例えばヒストグラムインターセクションにより算出する。 The person tracking means 201 can designate a person area in each frame. The feature extraction unit 202 executes feature extraction that integrates these image features. As shown in FIG. 4, for example, a case where a person feature is a histogram of RGB values will be described as an example. If the tracking result is a N number is N pieces generated when performing feature extraction (a) from the feature histogram H 1 to (b), wherein the histogram H N for each of the tracking result. Next, the similarity of each histogram is calculated by, for example, histogram intersection.

Figure 2009027393
Kはヒストグラムの量子化数であり、iはヒストグラムの1つの要素である。
Figure 2009027393
K is the quantization number of the histogram, and i is one element of the histogram.

所定の閾値より類似性の低いヒストグラム、すなわち見かけの違う人物特徴を取得した場合、画像認識の間違いが発生している場合もある。そこで、図5に示すようにユーザに候補画像を候補提示手段205で提示し、同一人物であるか否かの判断をユーザにより決定させることで間違った特徴量を取得してしまうことを回避できる。ユーザは候補画像500のうち正解を選択し、追加ボタン501を押下することで、画像特徴が追加される。ユーザの識別を介すことにより画像認識で判断しきれない部分を補うことが可能である。   When a histogram having a similarity lower than a predetermined threshold, that is, a human feature having a different appearance, is acquired, an image recognition error may occur. Therefore, as shown in FIG. 5, it is possible to avoid acquiring the wrong feature amount by presenting the candidate image to the user with the candidate presenting means 205 and causing the user to determine whether or not they are the same person. . The user selects a correct answer from the candidate images 500 and presses an add button 501 to add an image feature. It is possible to compensate for a portion that cannot be determined by image recognition through user identification.

類似性の高いヒストグラムのペアは統合することで、同一の特徴ヒストグラムが存在した場合の冗長な検索処理となることを回避する。これにより、同一カメラ内において、同一人物の見かけの異なる特徴を複数取得することができ、人物検索の失報を抑制することが可能となる。他の特徴量として図4(c)に示すように、人物の大きさや顔が取得できれば顔データなどを組み合わせることが可能である。また、人物の形状データ,輝度情報,歩容状態など様々な特徴量を選択することができる。以上の処理により取得した指定人物特徴データ400は人物特徴保持手段203にて保持する。   By integrating histogram pairs having high similarity, it is possible to avoid redundant search processing when the same feature histogram exists. This makes it possible to acquire a plurality of different features of the same person in the same camera, and to suppress a person search misreport. As another feature amount, as shown in FIG. 4C, if the size and face of a person can be acquired, face data and the like can be combined. In addition, various feature amounts such as human shape data, luminance information, and gait state can be selected. The designated person feature data 400 acquired by the above processing is held by the person feature holding means 203.

次に画像検索部104の詳細について図6を用いて説明する。画像検索部104は、画像データ部102の画像から、条件指定部103にて指定した検索条件に基づいて、特定人物の洗い出しを行う部分である。画像検索部104は、画像データ部102に記録した画像から人物領域を抽出する人物領域抽出手段600、人物領域抽出手段600より取得した人物画像から人物特徴を抽出する特徴抽出手段601、特徴抽出手段601と条件指定部103にて予め取得した人物特徴を比較する類似度算出手段602、結果表示部105に表示された類似度の高い画像が特定人物かどうかの正否をユーザに判断させ、ユーザが正解と判断した画像の人物特徴を人物特徴保持手段203に保持された人物特徴に追加もしくは統合により更新する人物特徴追加手段603により構成される。ここで、人物の特徴の統合による更新は、例えば特徴抽出手段202で述べた方法で行ってもよい。   Next, details of the image search unit 104 will be described with reference to FIG. The image search unit 104 is a part that identifies a specific person from the image of the image data unit 102 based on the search condition specified by the condition specifying unit 103. The image search unit 104 includes a person region extraction unit 600 that extracts a person region from an image recorded in the image data unit 102, a feature extraction unit 601 that extracts a person feature from a person image acquired from the person region extraction unit 600, and a feature extraction unit. The similarity calculation means 602 that compares the person characteristics acquired in advance with the condition specifying unit 103 and the condition specifying unit 103 causes the user to determine whether the image with the high similarity displayed on the result display unit 105 is a specific person. A person feature adding unit 603 updates the person feature of the image determined to be correct to the person feature held in the person feature holding unit 203 by addition or integration. Here, the update by integrating the features of the person may be performed by the method described in the feature extracting unit 202, for example.

以下に画像検索部104の動作について詳細に説明する。   The operation of the image search unit 104 will be described in detail below.

まず、検索条件指定手段204にて指定した対象とするカメラや検索対象時間に基づいて検索対象を限定し、画像データ部102より画像を取得する。次に人物領域抽出手段600にて、人物領域を抽出する。人物領域の抽出は画像認識で良く用いられる背景差分法、フレーム差分法や、人物データの学習によって予め作成した人物識別器を介すことで、人物の存在する領域を特定し、人物領域を画像データとして取得する。   First, the search target is limited based on the target camera specified by the search condition specifying unit 204 and the search target time, and an image is acquired from the image data unit 102. Next, a person area extraction unit 600 extracts a person area. The person area is extracted by using the background subtraction method, the frame subtraction method, and a person classifier created in advance by learning human data to identify the human area and extract the human area. Get as data.

この人物領域抽出手段600による処理は、画像データ部102内の検索条件指定手段204により指定された画像データにおいて、条件指定部103で指定した画像と時間的に近い画像データから順に検索する。これは、指定された時間全体に対して検索を行う前に、検索途中で検索結果を提示し、ユーザに正解を選択させることで、前述の条件指定部103と同様に人物特徴を拡充し、検索精度を向上することを可能とするためである。この詳細は後述する。   In the processing by the person area extracting unit 600, the image data specified by the search condition specifying unit 204 in the image data unit 102 is searched in order from image data temporally close to the image specified by the condition specifying unit 103. This is because, before performing a search for the entire specified time, the search result is presented in the middle of the search, and the user is allowed to select the correct answer, thereby expanding the person feature in the same manner as the condition specifying unit 103 described above. This is because the search accuracy can be improved. Details of this will be described later.

次に、人物領域抽出手段600で取得した人物の画像データから特徴抽出手段601にてその人物特徴量を抽出する。この処理は条件指定部103内の特徴抽出手段202と同様の処理とする。すなわち、RGB値などの特徴ヒストグラムや顔画像をその画像から取得する。次にその特徴量と人物特徴保持手段203で保持した特定人物の人物特徴との比較処理を行い、抽出した人物が指定した人物と同一であるかを表す類似度を、人物特徴データの比較により類似度算出手段602にて実行する。特徴量の比較は色ヒストグラム,勾配ベクトルヒストグラム,顔照合,画像照合などあるがいずれかまたは複数の比較方法を用いてよい。   Next, the person feature amount is extracted by the feature extraction unit 601 from the image data of the person acquired by the person region extraction unit 600. This process is the same as the process performed by the feature extraction unit 202 in the condition specifying unit 103. That is, a feature histogram such as an RGB value and a face image are acquired from the image. Next, a comparison process between the feature amount and the person feature of the specific person held by the person feature holding unit 203 is performed, and a similarity indicating whether the extracted person is the same as the designated person is obtained by comparing the person feature data. The similarity calculation unit 602 executes this. The feature amount comparison includes a color histogram, a gradient vector histogram, face matching, and image matching, but any one or a plurality of comparison methods may be used.

次に結果表示部105の処理について図7を用いて説明する。算出した類似度に基づき特定人物の存在する画像を表示する方法は以下に示す形態の画面構成などが例として挙げられる。図7(a)はカメラと時刻その映像をサムネイル形式で類似度順に表示する方法である。フレーム番号の近い画像の場合同様の画像が多く存在し、上位に同じ画像が配列されることが考えられるため、一定時間内で最も類似度の高い画像を代表画像700として画像情報701と表示すると良い。   Next, the processing of the result display unit 105 will be described with reference to FIG. An example of a method for displaying an image in which a specific person exists based on the calculated similarity is a screen configuration in the form shown below. FIG. 7A shows a method of displaying the camera and time of the video in the thumbnail format in the order of similarity. In the case of images with similar frame numbers, there are many similar images, and the same image may be arranged at the top. Therefore, when the image having the highest similarity within a certain time is displayed as the image information 701 as the representative image 700, good.

さらに、ユーザが指定した人物と同一の場合は、ユーザの判断により人物特徴を拡充することができる。条件指定部103で指定した時間を、いくつかの期間やカメラ毎に分けるなどして、類似度計算の途中結果を提示しユーザに正解を指定させる。この処理を繰り返し検索条件に当てはまる画像データを全て検索し終えた場合に検索処理を終了とする。このようなユーザ対話型の処理を施すことで、画像認識のあいまいさを人物の判断にゆだねることができ、失報を低減した人物検索システムを実現することが可能となる。   In addition, when the user is the same person as specified by the user, the person feature can be expanded by the user's judgment. The time specified by the condition specifying unit 103 is divided into several periods or cameras, and the result of similarity calculation is presented to allow the user to specify the correct answer. When this process is repeated and all the image data satisfying the search condition is searched, the search process is terminated. By performing such user interactive processing, the ambiguity of image recognition can be left to the person's judgment, and it becomes possible to realize a person search system with reduced false alarms.

また、ユーザが検索結果表示部において、正しく検索対象の人物を抽出した画像をユーザに選択させ、選択された画像の人物の特徴を抽出し、人物特徴追加手段603により抽出した人物特徴を人物特徴保持手段203に追加または統合により更新することで、検索対象である人物の特徴は、あらゆる撮影条件でその人物を抽出することができるものとなるため、検索精度を向上させることができる。   In addition, the user causes the user to select an image from which the search target person has been correctly extracted in the search result display unit, extracts the person feature of the selected image, and extracts the person feature extracted by the person feature adding means 603 as the person feature. By updating the holding means 203 by addition or integration, the characteristics of the person to be searched can be extracted under any shooting conditions, so that the search accuracy can be improved.

また、図7(b)ではカメラと時刻およびカメラ間移動を表現できる表示方法の例である。これも図7(a)の例と同様に類似した画像群の中からもっとも類似度の高い画像を所定の時間間隔の中での代表画像702として表示する。これにより人物の移動経路と時刻の関係をユーザが把握することが可能となる。次に図7(c)ではカメラ設置位置と映像の関係を把握するようにしたもので、指定人物が存在する場合にカメラ設置情報704とその指定人物の画像のポップアップ表示703とを同一画面上に表示する。また画像スクロール705で画像を順送りや逆送りし確認できる方法が考えられる。これらの結果表示方法をユーザの使用方法によって選択できる。   FIG. 7B shows an example of a display method that can express the camera, time, and movement between cameras. Similarly to the example of FIG. 7A, an image having the highest similarity among the similar image groups is displayed as the representative image 702 within a predetermined time interval. As a result, the user can grasp the relationship between the movement path of the person and the time. Next, in FIG. 7C, the relationship between the camera installation position and the video is grasped. When the designated person exists, the camera installation information 704 and the pop-up display 703 of the image of the designated person are displayed on the same screen. To display. Further, a method is conceivable in which the image can be confirmed by forward or backward feeding with the image scroll 705. These result display methods can be selected according to the usage method of the user.

本発明は結果表示部105により不正解となった画像をユーザが選択することで、その画像に映っている人物を特定人物と異なるものとして、検索結果でその人物が存在した場合に類似度を低く調整することで誤報が抑制される機能も実現できる。   According to the present invention, when the user selects an image that is incorrect by the result display unit 105, the person shown in the image is different from the specific person, and the similarity is obtained when the person exists in the search result. A function that suppresses false alarms can be realized by adjusting it to a low level.

また、条件指定部103にて指定した人物が、あるカメラに存在した場合、同一時刻内のほかのカメラには存在しないという自明の条件を利用して、他のカメラ内に存在する人物を特定人物と異なるという条件を付加して検索を実行することで、前述と同様に誤報を抑制できる機能も実現できる。   In addition, if the person specified by the condition specifying unit 103 exists in a certain camera, the person existing in the other camera is identified using the obvious condition that it does not exist in the other camera within the same time. By performing a search by adding a condition that it is different from a person, a function that can suppress false alarms as described above can be realized.

さらに、カメラ設置情報を付加することで、例えば1階のカメラに移った人物が瞬時に他の階のカメラに存在することは不可能なため、カメラ設置情報から存在確率の低いカメラの類似度を低く調整する等を行うことで、検索の誤報の抑制が可能である。また、ユーザが結果表示部105で誤って不正解となっている人物を正解とした場合に、上述のカメラ設置情報から存在確率の低い箇所の画像を指定した場合に、ユーザに判断ミスをアラームできる機能も実現することが可能である。   Furthermore, by adding camera installation information, for example, it is impossible for a person who has moved to the camera on the first floor to instantaneously exist on a camera on another floor. It is possible to suppress misreporting by performing a low adjustment or the like. In addition, when the user corrects an incorrect person in the result display unit 105 and specifies an image of a location having a low existence probability from the above camera installation information, the user is notified of a determination error. It is possible to realize functions that can be performed.

本発明の実施例は映像監視システムについて言及したが、それに限らずTV映像,ビデオ映像、など様々な映像の人物検索にも利用することが可能である。   Although the embodiment of the present invention refers to the video surveillance system, the present invention is not limited to this, and the present invention can also be used for searching for various videos such as TV videos and video videos.

さらに、本発明の実施例では、人物の検索システムについて詳細に説明したが、本願の検索システムは言うまでもなく人物の検索に限定されるものではなく、例えば、立体駐車上における自動車や動物など、移動物体であれば適応可能である。   Furthermore, in the embodiments of the present invention, the person search system has been described in detail. However, the search system of the present application is not limited to the person search. Any object can be applied.

本発明によれば、画像認識による人物追跡やユーザの指定による対話型インターフェースにより、人物特徴を複数保持することができ、同一人物でありながら見かけの違いにより失報となりうる画像に対しても、高精度に人物検索することが可能となる。そのため、監視員の業務支援を可能とし、効率的な映像検索システムが実現できる。   According to the present invention, it is possible to hold a plurality of person features by means of a person tracking by image recognition or an interactive interface by user designation, and even for an image that can be reported as a person due to a difference in appearance while being the same person, It becomes possible to perform a person search with high accuracy. Therefore, it is possible to support the work of a supervisor and to realize an efficient video search system.

本発明における一実施例の全体構成を示した図である。It is the figure which showed the whole structure of one Example in this invention. 本発明における条件指定部の詳細を説明した図である。It is a figure explaining the detail of the condition designation | designated part in this invention. 本発明における条件指定部のユーザインターフェースの例を示した図である。It is the figure which showed the example of the user interface of the condition designation | designated part in this invention. 本発明における人物特徴の特徴例を示した図である。It is the figure which showed the feature example of the person feature in this invention. 本発明における類似人物選択を実現するユーザインターフェースを示した図である。It is the figure which showed the user interface which implement | achieves the similar person selection in this invention. 本発明における画像検索部の詳細を説明した図である。It is a figure explaining the detail of the image search part in this invention. 本発明における結果表示部の実施例について説明した図である。It is the figure explaining the Example of the result display part in this invention.

符号の説明Explanation of symbols

100 撮像装置
101 映像取得部
102 画像データ部
103 条件指定部
104 画像検索部
105 結果表示部
200 人物指定手段
201 人物追跡手段
202,601 特徴抽出手段
203 人物特徴保持手段
204 検索条件指定手段
205 候補提示手段
300 カメラ指定
301 画像出力
302 時間指定
303 検索時間指定
304 対象カメラ指定
400 指定人物特徴データ
500 候補画像
501 追加ボタン
600 人物領域抽出手段
602 類似度算出手段
603 人物特徴追加手段
700,702 代表画像
701 画像情報
703 ポップアップ表示
704 カメラ設置情報
705 画像スクロール
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Image | video acquisition part 102 Image data part 103 Condition specification part 104 Image search part 105 Result display part 200 Person specification means 201 Person tracking means 202,601 Feature extraction means 203 Person feature holding means 204 Search condition specification means 205 Suggestion presentation Means 300 Camera designation 301 Image output 302 Time designation 303 Search time designation 304 Target camera designation 400 Designated person feature data 500 Candidate image 501 Add button 600 Person region extraction means 602 Similarity calculation means 603 Person feature addition means 700 and 702 Representative image 701 Image information 703 Pop-up display 704 Camera installation information 705 Image scroll

Claims (10)

1台以上の撮像機器から信号を取得する映像取得部と、
前記映像取得部より取得した入力画像を保持する画像データ部とを有する映像検索システムにおいて、
検索対象物体の特徴を含む検索条件を指定する条件指定部と、
前記画像データ部に保持した前記入力画像群から前記条件指定部で指定した条件に合致する画像を検索する画像検索部と、
前記画像検索部の検索結果を表示する結果表示部と、
前記結果表示部に表示された画像から前記検索対象物体の画像をユーザが選択できる画像選択手段と、
前記画像選択手段により選択された画像を用いて前記条件指定部の前記検索対象物体の特徴を更新する手段と、
を備えたことを特徴とする映像検索システム。
A video acquisition unit that acquires signals from one or more imaging devices;
In a video search system having an image data unit that holds an input image acquired from the video acquisition unit,
A condition designating unit for designating a search condition including the characteristics of the search target object;
An image search unit for searching for an image that matches the condition specified by the condition specifying unit from the input image group held in the image data unit;
A result display unit for displaying a search result of the image search unit;
An image selection means that allows a user to select an image of the search target object from the images displayed on the result display section;
Means for updating the characteristics of the search target object of the condition specifying unit using the image selected by the image selection means;
A video search system characterized by comprising:
前記条件指定部は、ユーザが検索対象物体を指定できる検索対象指定手段と、
指定された前記検索対象物体の前後の画像内から抽出した複数の前記検索対象物体の特徴を保持する物体特徴保持手段と、を備える請求項1に記載の映像検索システム。
The condition designating unit includes a search target designating unit that allows a user to designate a search target object;
The video search system according to claim 1, further comprising: object feature holding means for holding features of a plurality of the search target objects extracted from images before and after the specified search target object.
前記画像検索部は、物体を抽出する物体抽出手段と、前記物体抽出手段により抽出された物体の特徴を抽出する特徴抽出手段と、前記特徴抽出手段により抽出された物体の特徴と前記条件指定部の検索対象物体の特徴の類似度を算出する類似度算出手段と、を有することを特徴とする、請求項1または2に記載の映像検索システム。   The image search unit includes an object extraction unit that extracts an object, a feature extraction unit that extracts a feature of the object extracted by the object extraction unit, a feature of the object extracted by the feature extraction unit, and the condition designation unit The video search system according to claim 1, further comprising: similarity calculation means for calculating the similarity of the characteristics of the search target object. 前記画像選択手段は、検索対象の人物と判断されない画像から前記人物特徴を取得し検索結果の修正する手段を有することを特徴とする請求項1乃至請求項3のいずれかに記載の映像検索システム。   The video search system according to any one of claims 1 to 3, wherein the image selection unit includes a unit that acquires the person feature from an image that is not determined to be a search target person and corrects a search result. . 前記条件指定部の検索条件は、カメラの設置位置情報を含み、
前記画像選択手段は、前記カメラ設置位置情報から検索対象物体の存在確率を判断し、ユーザが誤った画像を選択した場合にユーザに注意喚起する手段を有する、請求項1乃至請求項4のいずれかに記載の映像検索システム。
The search condition of the condition specifying unit includes camera installation position information,
The said image selection means has a means to judge a user's existence probability of a search target object from the said camera installation position information, and to alert a user when a user selects the wrong image. The video search system described in Crab.
1台以上の撮像機器から信号を取得する映像取得部と、
前記映像取得部より取得した入力画像を保持する画像データ部とを有する人物検索方法において、
検索対象の人物特徴または検索の時間または撮像機器を指定する条件指定部と、
前記画像データ部に保持した前記入力画像群から前記条件指定部で指定した条件に合致する画像を検索する画像検索部と、
前記画像検索部の検索結果を表示する結果表示部とを有し、ユーザが検索対象の人物の画像を選択できる方法で前記結果表示部に表示し、ユーザにより選択された検索対象の人物の画像により前記条件指定部により指定された検索対象の前記人物特徴を更新することを特徴とする人物検索方法。
A video acquisition unit that acquires signals from one or more imaging devices;
In a person search method having an image data unit that holds an input image acquired from the video acquisition unit,
A condition designating unit for designating a human characteristic to be searched or a search time or an imaging device;
An image search unit for searching for an image that matches the condition specified by the condition specifying unit from the input image group held in the image data unit;
And a result display unit for displaying a search result of the image search unit. The image of the search target person selected by the user and displayed on the result display unit by a method by which the user can select the search target person image. The person search method characterized in that the person feature of the search target specified by the condition specifying unit is updated.
前記条件指定部は、ユーザによって指定された前記検索対象の人物画像の前後の画像内から前記人物特徴を抽出し、複数の前記人物特徴を保持することを特徴とする請求項6に記載の人物検索方法。   The person according to claim 6, wherein the condition designating unit extracts the person feature from images before and after the person image to be searched designated by a user, and holds a plurality of the person features. retrieval method. 前記画像検索部は、人物を抽出し、前記人物の特徴を抽出し、前記人物の特徴と前記条件指定部により指定された検索対象の前記人物特徴との類似度を算出することを特徴とする請求項6または7に記載の人物検索方法。   The image search unit extracts a person, extracts a feature of the person, and calculates a similarity between the feature of the person and the person feature to be searched specified by the condition specifying unit. The person search method according to claim 6 or 7. 前記検索条件を更新する際に、検索対象の人物と判断されない画像から前記人物特徴を取得し、検索結果の修正する手段を有することを特徴とする請求項6乃至請求項8のいずれかに記載の人物検索方法。   9. The method according to claim 6, further comprising means for acquiring the person feature from an image that is not determined to be a person to be searched when the search condition is updated, and correcting the search result. Person search method. 前記検索条件を更新する際に、カメラ設置位置情報から検索対象の人物の存在確率を判断し、ユーザが誤った画像を選択した場合にユーザに注意喚起する手段を有することを特徴とする請求項6乃至請求項9のいずれかに記載の人物検索方法。   The update apparatus further comprises means for determining the existence probability of a person to be searched from camera installation position information when updating the search condition and alerting the user when the user selects an incorrect image. The person search method according to any one of claims 6 to 9.
JP2007187745A 2007-07-19 2007-07-19 Image searching system and personal searching method Pending JP2009027393A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007187745A JP2009027393A (en) 2007-07-19 2007-07-19 Image searching system and personal searching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007187745A JP2009027393A (en) 2007-07-19 2007-07-19 Image searching system and personal searching method

Publications (1)

Publication Number Publication Date
JP2009027393A true JP2009027393A (en) 2009-02-05

Family

ID=40398795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007187745A Pending JP2009027393A (en) 2007-07-19 2007-07-19 Image searching system and personal searching method

Country Status (1)

Country Link
JP (1) JP2009027393A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100175A (en) * 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> Device and program for deciding personal action
WO2014065033A1 (en) * 2012-10-26 2014-05-01 株式会社日立国際電気 Similar image retrieval device
WO2015111312A1 (en) 2014-01-23 2015-07-30 株式会社日立国際電気 Image search system and image search method
CN105335956A (en) * 2014-08-06 2016-02-17 腾讯科技(深圳)有限公司 Homologous image verification method and device
JPWO2014045843A1 (en) * 2012-09-19 2016-08-18 日本電気株式会社 Image processing system, image processing method, and program
US9589181B2 (en) 2013-02-28 2017-03-07 Hitachi Kokusai Electric Inc. Person search method and device for searching person staying on platform
CN107489341A (en) * 2017-01-17 2017-12-19 朱绪臻 Automobile automatic window-closing device
US10248868B2 (en) 2012-09-28 2019-04-02 Nec Corporation Information processing apparatus, information processing method, and information processing program
JP2020047069A (en) * 2018-09-20 2020-03-26 株式会社日立製作所 Information processing system, and method and program for controlling information processing system
US11068706B2 (en) 2018-03-15 2021-07-20 Canon Kabushiki Kaisha Image processing device, image processing method, and program
US11080338B2 (en) 2017-01-13 2021-08-03 Nec Corporation Information processing apparatus, information processing method, and program
US11403292B2 (en) 2019-10-18 2022-08-02 Fujifilm Business Innovation Corp. Query modification assistance system, search system, and computer readable medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146323A (en) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd Face feature collating device, face feature collating method, and program
JP2006178721A (en) * 2004-12-22 2006-07-06 Matsushita Electric Ind Co Ltd Image retrieval device
JP2006301995A (en) * 2005-04-21 2006-11-02 Matsushita Electric Ind Co Ltd Person search device and person search method
JP2007006033A (en) * 2005-06-22 2007-01-11 Omron Corp Object determining apparatus, imaging device, and supervisory apparatus
JP2007172384A (en) * 2005-12-22 2007-07-05 Matsushita Electric Ind Co Ltd Image retrieval device and image retrieval method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146323A (en) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd Face feature collating device, face feature collating method, and program
JP2006178721A (en) * 2004-12-22 2006-07-06 Matsushita Electric Ind Co Ltd Image retrieval device
JP2006301995A (en) * 2005-04-21 2006-11-02 Matsushita Electric Ind Co Ltd Person search device and person search method
JP2007006033A (en) * 2005-06-22 2007-01-11 Omron Corp Object determining apparatus, imaging device, and supervisory apparatus
JP2007172384A (en) * 2005-12-22 2007-07-05 Matsushita Electric Ind Co Ltd Image retrieval device and image retrieval method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100175A (en) * 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> Device and program for deciding personal action
US9984300B2 (en) 2012-09-19 2018-05-29 Nec Corporation Image processing system, image processing method, and program
JPWO2014045843A1 (en) * 2012-09-19 2016-08-18 日本電気株式会社 Image processing system, image processing method, and program
US10248868B2 (en) 2012-09-28 2019-04-02 Nec Corporation Information processing apparatus, information processing method, and information processing program
US11816897B2 (en) 2012-09-28 2023-11-14 Nec Corporation Information processing apparatus, information processing method, and information processing program
US11321947B2 (en) 2012-09-28 2022-05-03 Nec Corporation Information processing apparatus, information processing method, and information processing program
JPWO2014065033A1 (en) * 2012-10-26 2016-09-08 株式会社日立国際電気 Similar image search device
WO2014065033A1 (en) * 2012-10-26 2014-05-01 株式会社日立国際電気 Similar image retrieval device
US9589181B2 (en) 2013-02-28 2017-03-07 Hitachi Kokusai Electric Inc. Person search method and device for searching person staying on platform
WO2015111312A1 (en) 2014-01-23 2015-07-30 株式会社日立国際電気 Image search system and image search method
CN105335956A (en) * 2014-08-06 2016-02-17 腾讯科技(深圳)有限公司 Homologous image verification method and device
US11080338B2 (en) 2017-01-13 2021-08-03 Nec Corporation Information processing apparatus, information processing method, and program
CN107489341A (en) * 2017-01-17 2017-12-19 朱绪臻 Automobile automatic window-closing device
CN107489341B (en) * 2017-01-17 2019-06-21 上海工业控制安全创新科技有限公司 The vehicle of electronic transaction verification system based on identification technology is set
US11068706B2 (en) 2018-03-15 2021-07-20 Canon Kabushiki Kaisha Image processing device, image processing method, and program
JP2020047069A (en) * 2018-09-20 2020-03-26 株式会社日立製作所 Information processing system, and method and program for controlling information processing system
JP7018001B2 (en) 2018-09-20 2022-02-09 株式会社日立製作所 Information processing systems, methods and programs for controlling information processing systems
US11403292B2 (en) 2019-10-18 2022-08-02 Fujifilm Business Innovation Corp. Query modification assistance system, search system, and computer readable medium

Similar Documents

Publication Publication Date Title
JP2009027393A (en) Image searching system and personal searching method
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
CN107240124B (en) Cross-lens multi-target tracking method and device based on space-time constraint
US11308777B2 (en) Image capturing apparatus with variable event detecting condition
RU2393544C2 (en) Method and device to detect flame
US9141184B2 (en) Person detection system
JP5040258B2 (en) Video surveillance apparatus, video surveillance system, and image processing method
US20180115749A1 (en) Surveillance system and surveillance method
JP6806188B2 (en) Information processing system, information processing method and program
US20130266181A1 (en) Object tracking and best shot detection system
JPWO2016157327A1 (en) Video surveillance system and video surveillance method
JP5106302B2 (en) Moving object tracking device
JP2010140425A (en) Image processing system
JP6283008B2 (en) Tracking device
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
US20150112970A1 (en) Similar image search system
JP7314973B2 (en) VIDEO MONITORING DEVICE, VIDEO MONITORING METHOD AND PROGRAM
JP5752977B2 (en) Image monitoring device
US20200311438A1 (en) Representative image generation device and representative image generation method
US10783365B2 (en) Image processing device and image processing system
JP5752975B2 (en) Image monitoring device
JP6939065B2 (en) Image recognition computer program, image recognition device and image recognition method
JP7374632B2 (en) Information processing device, information processing method and program
JP2017028688A (en) Image managing device, image managing method and program
JP5864231B2 (en) Moving direction identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111004