JP2015114685A - Video search apparatus, video search method, and storage medium - Google Patents

Video search apparatus, video search method, and storage medium Download PDF

Info

Publication number
JP2015114685A
JP2015114685A JP2013253897A JP2013253897A JP2015114685A JP 2015114685 A JP2015114685 A JP 2015114685A JP 2013253897 A JP2013253897 A JP 2013253897A JP 2013253897 A JP2013253897 A JP 2013253897A JP 2015114685 A JP2015114685 A JP 2015114685A
Authority
JP
Japan
Prior art keywords
video
image
moving
search
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013253897A
Other languages
Japanese (ja)
Other versions
JP6200306B2 (en
Inventor
裕樹 渡邉
Hiroki Watanabe
裕樹 渡邉
健一 米司
Kenichi Yoneshi
健一 米司
智明 吉永
Tomoaki Yoshinaga
智明 吉永
廣池 敦
Atsushi Hiroike
敦 廣池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2013253897A priority Critical patent/JP6200306B2/en
Priority to PCT/JP2014/082373 priority patent/WO2015087820A1/en
Priority to CN201480053657.2A priority patent/CN105593850B/en
Publication of JP2015114685A publication Critical patent/JP2015114685A/en
Application granted granted Critical
Publication of JP6200306B2 publication Critical patent/JP6200306B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve search speed and reduce search noise, while reducing the work for selecting a query image.SOLUTION: A video search apparatus performs: detecting moving paths of one or more moving bodies from each of a first video formed of a plurality of frames captured in a first location and a second video formed of a plurality of frames captured in a second location, and storing them on a storage device; extracting image feature quantities of each of the frames, of a moving body selected from among the one or more moving bodies detected from the first video, and storing them on the storage device; selecting a query image feature quantity to be used as a search query, out of the image feature quantities extracted, on the basis of the moving path of the selected moving body detected from the first video and the moving paths of the one or more moving bodies detected from the second video; and searching for image feature quantities of the one or more moving bodies extracted from the second video, by use of the query image feature quantity, and outputting a result of the search.

Description

本発明は、映像検索技術に関する。   The present invention relates to a video search technique.

防犯カメラの普及に伴い、多地点で撮影された映像から所望の人物または車両などを探すことへのニーズが高まっている。しかし、従来の防犯カメラシステムの多くは、防犯カメラ、レコーダーおよび再生機からなるシステムであり、蓄積された膨大なデータから所望のシーンを探索することは困難だった。   With the widespread use of security cameras, there is an increasing need for searching for a desired person or vehicle from images taken at multiple points. However, many conventional security camera systems are systems including a security camera, a recorder, and a playback device, and it has been difficult to search for a desired scene from a huge amount of accumulated data.

これに対して、類似画像検索技術を導入したシステムに注目が集まっている。類似画像検索技術を用いると、大量の映像情報の中から、特定の人物または物体の映っているフレームを検索することができる。類似画像検索とは、ユーザによって指定された検索クエリの画像と、外見の特徴が似た画像をデータベースから取得する技術である。物体の類似度の算出には、物体同士を区別するために有効な領域(顕著領域)から特徴量と呼ばれる数値データを抽出し、比較する。防犯カメラシステムに適用する際には、人物の顔または服などの顕著領域から特徴量を抽出する。例えば、特許文献1では、カメラから取得した画像をブロックに分割し、色ヒストグラムにもとづいて、ブロックの特徴量を抽出し、類似画像検索のクエリとしている。   On the other hand, attention has been focused on a system using a similar image search technique. By using the similar image search technique, it is possible to search a frame in which a specific person or object is shown from a large amount of video information. The similar image search is a technique for acquiring, from a database, an image similar in appearance characteristics to an image of a search query designated by a user. In calculating the similarity of objects, numerical data called feature values are extracted from an effective area (significant area) for distinguishing between objects and compared. When applied to a security camera system, feature quantities are extracted from a salient region such as a person's face or clothes. For example, in Patent Document 1, an image acquired from a camera is divided into blocks, and the feature amount of the block is extracted based on a color histogram, which is used as a similar image search query.

一方で、映像から抽出した連続フレームから動的物体を検出し、フレーム間で動的物体の対応付けを行う技術が知られている。例えば、フレームを小領域に分割し、フレーム間で、それぞれの小領域の動きベクトルを算出することができる。動きベクトルを観測し、同様の動きをする小領域をまとめることで、動的物体を追跡することができる。これによって、フレーム内に存在する限りは、動的物体を追跡することができるため、ユーザの指定した物体を同一映像に含まれる別のフレームから探索することができる。   On the other hand, a technique is known in which a dynamic object is detected from continuous frames extracted from a video, and a dynamic object is associated between frames. For example, the frame can be divided into small areas, and the motion vector of each small area can be calculated between the frames. A dynamic object can be tracked by observing a motion vector and grouping small regions that move in the same manner. As a result, the dynamic object can be tracked as long as it exists in the frame, so that the object designated by the user can be searched from another frame included in the same video.

特開2011−18238号公報JP 2011-18238 A

特許文献1では、ユーザが指定したクエリを使用して検索を行うため、クエリが適切でない場合は、所望の検索結果が得られない可能性がある。また、特許文献1では、クエリの画像を含むフレームの前後のフレームからクエリと類似したブロックを探索し、それら全てを用いてデータベースに類似画像検索を行う方法を示しているが、この方法では、同一の動的物体上の顕著領域であってもユーザ指定のクエリと特徴量が大きく異なる場合は、検索クエリとして選ばれないため、検索結果の改善は限定的である。   In Patent Document 1, since a search is performed using a query specified by a user, a desired search result may not be obtained if the query is not appropriate. Further, Patent Document 1 shows a method of searching for a block similar to a query from frames before and after a frame including a query image, and performing a similar image search in a database using all of them. In this method, Even if the saliency area on the same dynamic object is significantly different from the query specified by the user, it is not selected as a search query, so the search results are limited.

上記の課題を解決するために、本発明は、プロセッサと、前記プロセッサに接続される記憶装置と、を有する映像検索装置であって、第1の場所で撮影された複数のフレームからなる第1の映像、および、第2の場所で撮影された複数のフレームからなる第2の映像のそれぞれから、一つ以上の移動体の移動経路を検出して前記記憶装置に格納し、前記第1の映像から検出された前記一つ以上の移動体のうち選択された移動体の、前記フレームごとの画像特徴量を抽出して前記記憶装置に格納し、前記第1の映像から検出された前記選択された移動体の移動経路、および、前記第2の映像から検出された前記一つ以上の移動体の移動経路に基づいて、前記抽出した画像特徴量のうち、検索クエリとして使用するクエリ画像特徴量を選択し、前記クエリ画像特徴量を用いて、前記第2の映像から抽出された前記一つ以上の移動体の画像特徴量を検索し、前記検索の結果を出力することを特徴とする。   In order to solve the above-described problem, the present invention provides a video search device having a processor and a storage device connected to the processor, wherein the first search device includes a plurality of frames taken at a first location. , And a second image made up of a plurality of frames taken at a second location, the moving path of one or more moving objects is detected and stored in the storage device, and the first An image feature amount for each frame of the selected moving body among the one or more moving bodies detected from the video is extracted and stored in the storage device, and the selection detected from the first video A query image feature to be used as a search query out of the extracted image feature amounts based on the movement route of the mobile object and the movement route of the one or more mobile objects detected from the second video. Select the amount and before Using the query image feature amount, and searches the image feature quantity of the one or more mobile extracted from the second image, and outputs the result of the search.

本発明に係る映像検索装置によれば、入力された多数の映像から動的物体の追跡と顕著領域の検出を行い、蓄積された追跡情報から撮影場所毎に適したクエリを決定するためのパラメータを推定し、ユーザが探したい物体を指定すると、その物体の動線上から検索に適したクエリ画像を自動的に決定し類似画像検索を行うことで、ユーザがクエリ画像を選別する作業を軽減することができる。また、撮影場所ごとに適したクエリのみが使用されるため、検索速度の向上および検索ノイズの低減といった効果を得ることができる。上記した以外の課題、構成、および効果は、以下の実施形態の説明により明らかになるであろう。   According to the video search apparatus of the present invention, parameters for tracking a dynamic object and detecting a saliency area from a large number of input videos and determining a query suitable for each shooting location from the accumulated tracking information. When the user specifies an object to search for, the query image suitable for the search is automatically determined from the flow line of the object, and the similar image search is performed to reduce the user's work of selecting the query image. be able to. In addition, since only a query suitable for each shooting location is used, effects such as an improvement in search speed and a reduction in search noise can be obtained. Problems, configurations, and effects other than those described above will become apparent from the following description of embodiments.

本発明の実施例1に係る映像検索システムの構成図である。1 is a configuration diagram of a video search system according to Embodiment 1 of the present invention. 本発明の実施例1に係る映像検索システムのハードウェア構成図である。It is a hardware block diagram of the image | video search system which concerns on Example 1 of this invention. 本発明の実施例1に係る映像データベースの構成およびデータ例を示す図である。It is a figure which shows the structure and data example of a video database which concern on Example 1 of this invention. 本発明の実施例1に係る映像検索システムの動作を説明するための図である。It is a figure for demonstrating operation | movement of the video search system which concerns on Example 1 of this invention. 本発明の実施例1に係る映像検索装置が、入力された映像を登録する処理を説明するフローチャートである。It is a flowchart explaining the process which the image | video search device which concerns on Example 1 of this invention registers the input image | video. 本発明の実施例1に係る映像検索装置が実行するクエリパラメータの推定処理を説明する図である。It is a figure explaining the estimation process of the query parameter which the video search device concerning Example 1 of the present invention performs. 本発明の実施例1に係る映像検索装置が顕著領域を判定するために使用する画像特徴量の分散比の説明図である。It is explanatory drawing of the dispersion | distribution ratio of the image feature-value used in order for the video search device which concerns on Example 1 of this invention to determine a remarkable area | region. 本発明の実施例1に係るクエリパラメータ蓄積部の構成およびデータ例を示す図である。It is a figure which shows the structure and example of a query parameter storage part which concern on Example 1 of this invention. 本発明の実施例1に係る映像検索装置が蓄積されたデータからクエリパラメータを推定する処理を説明するフローチャートである。It is a flowchart explaining the process which estimates a query parameter from the data which the video search device based on Example 1 of this invention accumulated. 本発明の実施例1に係るクエリ決定部が追跡情報を用いて検索クエリを決定する動作を説明する図である。It is a figure explaining the operation | movement which the query determination part which concerns on Example 1 of this invention determines a search query using tracking information. 本発明の実施例1に係る映像検索装置が、追跡情報を用いて決定した検索クエリによって類似画像検索を行う処理を説明するフローチャートである。It is a flowchart explaining the process which the image search apparatus which concerns on Example 1 of this invention performs a similar image search with the search query determined using tracking information. 本発明の実施例1に係る映像検索システムの処理シーケンスを説明する図である。It is a figure explaining the processing sequence of the image | video search system which concerns on Example 1 of this invention. 本発明の実施例1に係る映像検索装置を用いて、映像中の物体を検索する際に使用する操作画面の構成例を表す図である。It is a figure showing the structural example of the operation screen used when searching the object in an image | video using the image | video search device which concerns on Example 1 of this invention. 本発明の実施例2に係る映像検索システムによる、顕著領域を用いた追跡情報の補正を説明するための図である。It is a figure for demonstrating correction | amendment of the tracking information using the remarkable area | region by the video search system which concerns on Example 2 of this invention. 本発明の実施例2に係る映像検索装置が、顕著領域を用いて追跡情報を補正する処理を説明するフローチャートである。It is a flowchart explaining the process which the image | video search device which concerns on Example 2 of this invention correct | amends tracking information using a remarkable area | region. 本発明の実施例2に係る映像検索システムによる、奥行き情報を考慮した追跡情報の補正を説明するための図である。It is a figure for demonstrating correction | amendment of the tracking information which considered the depth information by the video search system which concerns on Example 2 of this invention. 本発明の実施例2に係る映像検索装置が、顕著領域を用いて追跡情報に奥行き情報を追加する処理を説明するフローチャートである。It is a flowchart explaining the process which the video search apparatus which concerns on Example 2 of this invention adds depth information to tracking information using a remarkable area | region. 本発明の実施例3における異なる映像に存在するクエリの提示に関する説明図である。It is explanatory drawing regarding presentation of the query which exists in the different image | video in Example 3 of this invention. 本発明の実施例3に係る映像検索装置が、異なる映像から新しい種別の顕著領域を探索する処理を説明するフローチャートである。It is a flowchart explaining the process which the image | video search device which concerns on Example 3 of this invention searches for a new type | mold remarkable area | region from a different image | video. 本発明の実施例4における追跡情報を用いた映像要約を説明するための図である。It is a figure for demonstrating the video summary using the tracking information in Example 4 of this invention. 本発明の実施例4に係る映像検索システムが実行する追跡情報を用いた映像要約の処理を表すフローチャートである。It is a flowchart showing the process of the video summary using the tracking information which the video search system which concerns on Example 4 of this invention performs.

<システム構成>   <System configuration>

図1Aは、本発明の実施例1に係る映像検索システム100の構成図である。   FIG. 1A is a configuration diagram of a video search system 100 according to Embodiment 1 of the present invention.

映像検索システム100は、ユーザが指定した映像中の物体を、その映像の異なる時間帯から(例えば、ユーザが指定した物体を含むフレームとは別の時刻のフレームから)、または異なる映像から(例えば、ユーザが指定した物体を含む映像とは別の場所で撮影された映像から)検索するためのシステムであり、映像中の動的物体(移動体)の追跡情報を用いて検索に適したクエリ画像を、それを用いた検索が行われる映像の撮影場所ごとに生成することで、検索の速度と精度を向上させることを目的としたシステムである。   The video search system 100 selects an object in the video specified by the user from a different time zone of the video (for example, from a frame at a time different from the frame including the object specified by the user) or from a different video (for example, , A system for searching (from a video taken at a location different from the video including the object specified by the user), and a query suitable for searching using tracking information of a dynamic object (moving object) in the video This system aims to improve the speed and accuracy of search by generating an image for each video shooting location where a search is performed using the image.

映像検索システム100は、映像記憶装置101、入力装置102、表示装置103、および映像検索装置104を備える。   The video search system 100 includes a video storage device 101, an input device 102, a display device 103, and a video search device 104.

映像記憶装置101は、映像データを保存する記憶媒体であり、コンピュータ内蔵のハードディスクドライブ、または、NAS(Network Attached Storage)もしくはSAN(Storage Area Network)などのネットワークで接続されたストレージシステムを用いて構成することができる。また、映像記憶装置101は、例えば、カメラから継続的に入力される映像データを一時的に保持するキャッシュメモリであっても良い。   The video storage device 101 is a storage medium for storing video data, and is configured using a hard disk drive built in a computer, or a storage system connected via a network such as NAS (Network Attached Storage) or SAN (Storage Area Network). can do. The video storage device 101 may be a cache memory that temporarily holds video data continuously input from a camera, for example.

なお、映像記憶装置101に保存される映像データは、撮影された動的物体の追跡に利用できるものである限り、どのような形式のデータであってもよい。例えば、保存される映像データは、ビデオカメラで撮影された動画像データであってもよいし、スチルカメラによって所定の間隔で撮影された一連の静止画像データであってもよい。   Note that the video data stored in the video storage device 101 may be data in any format as long as it can be used for tracking a captured dynamic object. For example, the stored video data may be moving image data shot by a video camera, or a series of still image data shot by a still camera at a predetermined interval.

入力装置102は、マウス、キーボード、タッチデバイスなど、ユーザの操作を映像検索装置104に伝えるための入力インタフェースである。表示装置103は、液晶ディスプレイなどの出力インタフェースであり、映像検索装置104の検索結果の表示、ユーザとの対話的操作などのために用いられる。   The input device 102 is an input interface for transmitting user operations to the video search device 104 such as a mouse, a keyboard, and a touch device. The display device 103 is an output interface such as a liquid crystal display, and is used for displaying a search result of the video search device 104, interactive operation with a user, and the like.

映像検索装置104は、与えられた映像データの各フレームから動的物体の追跡と顕著領域を検出し、蓄積する。ユーザが蓄積されたフレームから探したい物体を指定すると、映像検索装置104は、追跡情報を用いてその前後一連のフレーム内から、クエリ画像を用いた検索が行われる映像の撮影場所毎に適したクエリ画像を選択し、類似画像検索を実行する。映像検索装置104が扱う映像は、一箇所以上の場所で撮影された定点観測の映像であることを想定している。また、検索対象の物体は、人物または車両などの任意の動的物体である。映像検索装置104は、映像入力部105、フレーム登録部106、動的物体追跡部107、追跡情報登録部108、顕著領域検出部109、顕著領域登録部110、映像データベース111、クエリパラメータ推定部112、クエリパラメータ蓄積部113、クエリ入力部114、クエリ決定部115、および類似画像検索部116、を備える。   The video search device 104 detects and accumulates the tracking of the dynamic object and the saliency area from each frame of the given video data. When the user designates an object to be searched from the accumulated frames, the video search device 104 is suitable for each video shooting location where the search is performed using the query image from a series of frames before and after the tracking information. A query image is selected and a similar image search is executed. It is assumed that the video handled by the video search device 104 is a fixed-point observation video shot at one or more places. Further, the search target object is an arbitrary dynamic object such as a person or a vehicle. The video search device 104 includes a video input unit 105, a frame registration unit 106, a dynamic object tracking unit 107, a tracking information registration unit 108, a saliency area detection unit 109, a saliency area registration unit 110, a video database 111, and a query parameter estimation unit 112. A query parameter storage unit 113, a query input unit 114, a query determination unit 115, and a similar image search unit 116.

映像入力部105は、映像記憶装置101から、映像データを読み出し、映像検索装置104内部で使用するデータ形式に変換する。具体的には、映像入力部105は、映像(動画データ形式)をフレーム(静止画データ形式)に分解する動画デコード処理を行う。得られたフレームは、フレーム登録部106、動的物体追跡部107、および顕著領域検出部109に送られる。   The video input unit 105 reads video data from the video storage device 101 and converts it into a data format used inside the video search device 104. Specifically, the video input unit 105 performs a video decoding process that decomposes video (moving image data format) into frames (still image data format). The obtained frame is sent to the frame registration unit 106, the dynamic object tracking unit 107, and the saliency area detection unit 109.

フレーム登録部106は、抽出されたフレームと抽出元の映像の情報を映像データベース111に書き込む。映像データベース111に記録するデータの詳細については図2の説明として後述する。   The frame registration unit 106 writes information about the extracted frame and the source video to the video database 111. Details of data recorded in the video database 111 will be described later with reference to FIG.

動的物体追跡部107は、映像中の動的物体を検出し、前フレームの動的物体との対応付けを行うことによって、動的物体の追跡を行う。動的物体の検出および追跡は、例えばS. Baker and I. Matthews "Lucas-kanade 20 years on: A unifying framework", International Journal of Computer Vision, vol. 53, no. 3, 2004に記載された方法など、任意の方法を用いて実現することができる。得られた動的物体の追跡情報は、各フレームの動的物体の座標情報と各追跡にユニークに付与されるID(追跡ID)で構成される。   The dynamic object tracking unit 107 detects a dynamic object in the video and tracks the dynamic object by associating it with the dynamic object of the previous frame. The detection and tracking of dynamic objects is a method described in, for example, S. Baker and I. Matthews "Lucas-kanade 20 years on: A unifying framework", International Journal of Computer Vision, vol. 53, no. 3, 2004. It is realizable using arbitrary methods. The obtained tracking information of the dynamic object includes coordinate information of the dynamic object of each frame and an ID (tracking ID) uniquely assigned to each tracking.

追跡情報登録部108は、動的物体追跡部107で得られた各フレームの動的物体の領域から画像特徴量を抽出し、映像データベース111に登録する。画像特徴量は、例えば、固定長のベクトルで表現され、画像の色および形状などの外見の情報を数値化したデータである。また、追跡情報登録部108は、同一の追跡IDが付与された動的物体の座標から、動線(すなわちその動的物体の移動経路)の特徴量を抽出し、映像データベース111に登録する。   The tracking information registration unit 108 extracts an image feature amount from the dynamic object region of each frame obtained by the dynamic object tracking unit 107 and registers it in the video database 111. The image feature amount is, for example, data represented by a fixed-length vector, and is obtained by digitizing appearance information such as an image color and shape. Further, the tracking information registration unit 108 extracts the feature amount of the flow line (that is, the movement path of the dynamic object) from the coordinates of the dynamic object to which the same tracking ID is assigned, and registers it in the video database 111.

顕著領域検出部109は、フレーム中から顕著な領域を検出し、その座標を求める。顕著領域は、アプリケーションによって異なるが、例えば、人物を含む映像であれば顔領域、頭部領域、服色、服の模様、または持ち物であるし、車両を含む映像であればホイール、またはフロントグリルなどである。顕著領域検出部109は物体の種類に応じた顕著領域を抽出するための複数の検出モジュールを含み、映像に出現する物体の種類が限定できない場合は、複数の検出モジュールを同時並列に動作させても良い。   The saliency area detection unit 109 detects a saliency area from the frame and obtains its coordinates. The salient area differs depending on the application. For example, if the image includes a person, it is a face area, head region, clothing color, clothes pattern, or belongings. If the image includes a vehicle, the wheel or front grille is used. Etc. The saliency detection unit 109 includes a plurality of detection modules for extracting a saliency area corresponding to the type of the object. When the type of the object appearing in the video cannot be limited, the plurality of detection modules are operated simultaneously in parallel. Also good.

顕著領域登録部110は、検出された各顕著領域から画像特徴量を抽出し、検出元のフレーム情報および当該顕著領域の座標情報と合わせて映像データベース111に登録する。画像特徴量の抽出方法は、顕著領域の種類に応じて変えても良いが、同種の顕著領域については同様の方法で画像特徴量が抽出されなければならない。例えば、顔領域については形状特徴量、服領域には色特徴量を用いることができるが、異なるフレームで検出された顔領域A、Bに対して、Aについては色特徴量を用い、Bについては形状特徴量を用いることはできない。   The saliency area registration unit 110 extracts an image feature amount from each detected saliency area, and registers it in the video database 111 together with the frame information of the detection source and the coordinate information of the saliency area. The image feature amount extraction method may be changed according to the type of the salient region, but the image feature amount must be extracted by the same method for the salient region of the same type. For example, the shape feature amount can be used for the face region, and the color feature amount can be used for the clothing region. For the face regions A and B detected in different frames, the color feature amount is used for A and B Cannot use shape features.

映像データベース111は、映像、フレーム、追跡情報、動的物体、および顕著領域の情報を保存するためのデータベースである。画像特徴量が与えられた項目については、類似画像検索を行うことができる。類似画像検索は、クエリと画像特徴量が近い順にデータを並び替えて出力する機能である。画像特徴量の比較には、例えば、ベクトル間のユークリッド距離を用いることができる。映像データベース111へのアクセスは、フレーム登録部106、追跡情報登録部108、および顕著領域登録部110からの登録処理、クエリパラメータ推定部112、およびクエリ決定部115からの読み出し処理、並びに、類似画像検索部116からの検索処理の際に発生する。映像データベース111の構造について、詳しくは図2の説明として後述する。   The video database 111 is a database for storing video, frames, tracking information, dynamic objects, and saliency information. A similar image search can be performed for an item to which an image feature amount is given. The similar image search is a function of rearranging and outputting data in the order in which the query and the image feature amount are close to each other. For comparison of image feature amounts, for example, the Euclidean distance between vectors can be used. Access to the video database 111 includes registration processing from the frame registration unit 106, tracking information registration unit 108, and saliency registration unit 110, readout processing from the query parameter estimation unit 112, and query determination unit 115, and similar images. Occurs during search processing from the search unit 116. Details of the structure of the video database 111 will be described later with reference to FIG.

クエリパラメータ推定部112は、映像データベース111に蓄積された追跡情報と顕著領域の情報を用いて、映像の撮影場所毎に適したクエリの種別を決定するためのパラメータを推定する。推定されたパラメータは、クエリパラメータ蓄積部113に保存される。   The query parameter estimation unit 112 uses the tracking information and the saliency information stored in the video database 111 to estimate parameters for determining a query type suitable for each video shooting location. The estimated parameters are stored in the query parameter storage unit 113.

クエリパラメータ蓄積部113は、映像の撮影場所毎に適したクエリの種別を決定するためのパラメータを保持する。クエリパラメータ蓄積部113の構造について、詳しくは図7の説明として後述する。   The query parameter storage unit 113 holds parameters for determining a query type suitable for each video shooting location. Details of the structure of the query parameter storage unit 113 will be described later with reference to FIG.

クエリ入力部114は、ユーザが映像データベース111に蓄積された映像から探したい物体を指定する際に、入力装置102によって与えられたユーザの操作を、映像検索装置104に伝える。   The query input unit 114 informs the video search device 104 of the user's operation given by the input device 102 when the user specifies an object to be searched for from the video stored in the video database 111.

クエリ決定部115は、ユーザが指定した物体とその追跡情報およびクエリパラメータ蓄積部113から読みだしたパラメータを用いて、映像の撮影場所毎に最適な一つ以上のクエリを決定する。クエリは、動的物体追跡部107で検出された動的物体の領域の画像特徴量か、または、顕著領域検出部109で検出された顕著領域の画像特徴量である。   The query determination unit 115 determines one or more optimal queries for each video shooting location using the object specified by the user, tracking information thereof, and parameters read from the query parameter storage unit 113. The query is an image feature amount of the area of the dynamic object detected by the dynamic object tracking unit 107 or an image feature amount of the saliency area detected by the saliency area detection unit 109.

類似画像検索部116は、クエリ決定部115で選ばれた一つ以上のクエリ画像の特徴量を用いて、それぞれ映像データベース111に対して類似画像検索を実行する。クエリの顕著領域の種別が異なる場合は、異なる尺度での検索結果がえられる。そこで、類似画像検索部116は、例えば、類似度を正規化し、検索結果を統合して表示装置103に出力する。   The similar image search unit 116 performs a similar image search on the video database 111 using the feature amounts of one or more query images selected by the query determination unit 115. When the types of salient areas of the query are different, search results with different scales are obtained. Therefore, for example, the similar image search unit 116 normalizes the similarity, integrates the search results, and outputs the result to the display device 103.

図1Bは、本発明の実施例1に係る映像検索システム100のハードウェア構成図である。   FIG. 1B is a hardware configuration diagram of the video search system 100 according to the first embodiment of the present invention.

映像検索装置104は、例えば一般的な計算機によって実現することができる。例えば、映像検索装置104は、相互に接続されたプロセッサ121および記憶装置122を有してもよい。記憶装置122は任意の種類の記憶媒体によって構成される。例えば、記憶装置122は、半導体メモリと、ハードディスクドライブとの組み合わせによって構成されてもよい。   The video search device 104 can be realized by a general computer, for example. For example, the video search device 104 may include a processor 121 and a storage device 122 that are connected to each other. The storage device 122 is configured by any type of storage medium. For example, the storage device 122 may be configured by a combination of a semiconductor memory and a hard disk drive.

この例において、図1に示した映像入力部105、フレーム登録部106、動的物体追跡部107、追跡情報登録部108、顕著領域検出部109、顕著領域登録部110、クエリパラメータ推定部112、クエリ入力部114、クエリ決定部115および類似画像検索部116といった機能部は、プロセッサ121が記憶装置122に格納された処理プログラム123を実行することによって実現される。言い換えると、この例において、上記の各機能部が実行する処理は、実際には、上記の処理プログラム123に基づいて、プロセッサ121によって実行される。また、映像データベース111およびクエリパラメータ蓄積部113は、記憶装置122に含まれる。   In this example, the video input unit 105, the frame registration unit 106, the dynamic object tracking unit 107, the tracking information registration unit 108, the saliency area detection unit 109, the saliency area registration unit 110, the query parameter estimation unit 112, which are illustrated in FIG. Functional units such as the query input unit 114, the query determination unit 115, and the similar image search unit 116 are realized by the processor 121 executing the processing program 123 stored in the storage device 122. In other words, in this example, the processing executed by each functional unit described above is actually executed by the processor 121 based on the processing program 123 described above. In addition, the video database 111 and the query parameter storage unit 113 are included in the storage device 122.

映像検索装置104は、さらに、プロセッサに接続されたネットワークインターフェース装置(NIF)124を含み、映像記憶装置101は、ネットワークインターフェース装置を介して映像検索装置104に接続されたNASまたはSANであってもよい。あるいは、映像記憶装置101は、記憶装置122に含まれてもよい。   The video search device 104 further includes a network interface device (NIF) 124 connected to the processor, and the video storage device 101 may be NAS or SAN connected to the video search device 104 via the network interface device. Good. Alternatively, the video storage device 101 may be included in the storage device 122.

図2は、本発明の実施例1に係る映像データベース111の構成およびデータ例を示す図である。ここではテーブル形式の構成例を示すが、データ形式は任意でよい。   FIG. 2 is a diagram illustrating a configuration and a data example of the video database 111 according to the first embodiment of the present invention. Here, a configuration example of the table format is shown, but the data format may be arbitrary.

映像データベース111は、映像テーブル200、フレームテーブル210、追跡情報テーブル220、動的物体テーブル230、および顕著領域テーブル240からなる。図2のテーブル構成および各テーブルのフィールド構成は、本発明を実施する上で必要となる構成であり、アプリケーションに応じてテーブルおよびフィールドを追加しても良い。   The video database 111 includes a video table 200, a frame table 210, a tracking information table 220, a dynamic object table 230, and a saliency area table 240. The table configuration of FIG. 2 and the field configuration of each table are configurations necessary for implementing the present invention, and tables and fields may be added according to the application.

映像テーブル200は、映像IDフィールド201、ファイル名フィールド202、および撮影場所IDフィールド203を有する。映像IDフィールド201は、各映像データの識別番号を保持する。ファイル名フィールド202は、映像記憶装置101から読み込まれた映像データのファイル名を保持する。映像を直接カメラから入力する場合は、ファイル名を省略しても良い。撮影場所IDフィールド203は、定点観測された場所のIDを保持する。映像データのIDと撮影場所との対応は、アプリケーションで管理しても良いし、映像データベースに撮影場所の管理用テーブルを追加することで管理しても良い。固定カメラを使用する場合は、撮影場所IDをカメラIDと読み替えても良い。図2の例のように、一つの撮影場所に対して、複数の映像ファイルが登録されても良い。この場合、当該複数の映像ファイルには、例えば、設置場所および撮影方向が固定された一つのカメラがそれぞれ異なる時間帯に撮影した映像データが含まれる。   The video table 200 has a video ID field 201, a file name field 202, and a shooting location ID field 203. The video ID field 201 holds an identification number of each video data. The file name field 202 holds the file name of the video data read from the video storage device 101. When the video is input directly from the camera, the file name may be omitted. The shooting place ID field 203 holds the ID of the place where the fixed point is observed. The correspondence between the video data ID and the shooting location may be managed by an application or may be managed by adding a shooting location management table to the video database. When a fixed camera is used, the shooting location ID may be read as a camera ID. As in the example of FIG. 2, a plurality of video files may be registered for one shooting location. In this case, the plurality of video files include, for example, video data shot by different time zones by a single camera whose installation location and shooting direction are fixed.

フレームテーブル210は、フレームIDフィールド211、映像IDフィールド212および画像データフィールド213を有する。フレームIDフィールドは、映像データから抽出された各フレームの識別番号を保持する。映像IDフィールド212は、フレームの抽出元の映像の識別番号を保持するフィールドであり、この識別番号は、映像テーブル200で管理される映像IDフィールド201に保持される値に対応する。画像データフィールド213は、フレームの静止画像のバイナリデータであり、検索結果などを表示装置103に表示する際に用いられるデータを保持する。   The frame table 210 includes a frame ID field 211, a video ID field 212, and an image data field 213. The frame ID field holds the identification number of each frame extracted from the video data. The video ID field 212 is a field that holds an identification number of a video from which a frame is extracted, and this identification number corresponds to a value held in the video ID field 201 managed by the video table 200. The image data field 213 is binary data of a still image of a frame, and holds data used when displaying a search result or the like on the display device 103.

追跡情報テーブル220は、追跡IDフィールド221、動的物体IDリストフィールド222および動線特徴量フィールド223を有する。追跡IDフィールド221は、動的物体追跡部107で各動的物体を追跡するために用いられる識別番号を保持する。動的物体IDリストフィールド222は、同一の追跡IDを有する動的物体IDのリストを有する。動的物体のIDは後述する動的物体テーブル230で管理される識別番号である。動線特徴量フィールド223は、画像中の動的物体の座標の時系列変化から抽出した動線特徴量を保持する。映像によって画像サイズが異なるため、動線特徴量は動的物体の正規化座標から計算する。   The tracking information table 220 includes a tracking ID field 221, a dynamic object ID list field 222, and a flow line feature amount field 223. The tracking ID field 221 holds an identification number used for tracking each dynamic object by the dynamic object tracking unit 107. The dynamic object ID list field 222 has a list of dynamic object IDs having the same tracking ID. The ID of the dynamic object is an identification number managed in a dynamic object table 230 described later. The flow line feature value field 223 holds a flow line feature value extracted from a time-series change in the coordinates of the dynamic object in the image. Since the image size varies depending on the video, the flow line feature amount is calculated from the normalized coordinates of the dynamic object.

動的物体テーブル230は、動的物体IDフィールド231、追跡IDフィールド232、フレームIDフィールド233、座標フィールド234および特徴量フィールド235を有する。動的物体IDフィールド231は、動的物体追跡部107で検出された各動的物体の識別番号(すなわち動的物体ID)を保持する。追跡IDフィールド232は、動的物体追跡部107においてフレーム間で同一の動的物体を対応付けるために使用する識別番号(すなわち追跡ID)を保持する。この識別番号は、追跡情報テーブル220で管理される追跡IDフィールド221に保持された識別番号に対応する。フレームIDフィールド233は、動的物体が検出されたフレームの識別番号を保持する。この識別番号は、フレームテーブル210で管理されるフレームIDフィールド211に保持された識別番号に対応する。座標フィールド234は、動的物体の画像中での座標を保持する。座標は、例えば、動的物体の外接矩形の「左上隅の水平座標、左上隅の垂直座標、右下隅の水平座標、矩形の右下隅の垂直座標」という形式で表現される。特徴量フィールド235は、動的物体の画像から抽出された画像特徴量を保持する。画像特徴量は、例えば、固定長のベクトルで表現される。   The dynamic object table 230 includes a dynamic object ID field 231, a tracking ID field 232, a frame ID field 233, a coordinate field 234, and a feature amount field 235. The dynamic object ID field 231 holds an identification number (that is, dynamic object ID) of each dynamic object detected by the dynamic object tracking unit 107. The tracking ID field 232 holds an identification number (that is, a tracking ID) used in the dynamic object tracking unit 107 to associate the same dynamic object between frames. This identification number corresponds to the identification number held in the tracking ID field 221 managed in the tracking information table 220. The frame ID field 233 holds the identification number of the frame in which the dynamic object is detected. This identification number corresponds to the identification number held in the frame ID field 211 managed by the frame table 210. The coordinate field 234 holds the coordinates in the image of the dynamic object. The coordinates are expressed, for example, in the form of “the horizontal coordinates of the upper left corner, the vertical coordinates of the upper left corner, the horizontal coordinates of the lower right corner, and the vertical coordinates of the lower right corner of the rectangle” of the circumscribed rectangle of the dynamic object. The feature quantity field 235 holds an image feature quantity extracted from the dynamic object image. The image feature amount is expressed by, for example, a fixed-length vector.

なお、動的物体IDは、動的物体そのものを識別するものではなく、動的物体の画像を識別するものである。したがって、同一の動的物体の画像が複数のフレームに含まれる場合には、それらの画像の各々に別の(一意の)動的物体IDが与えられる。例えば、図2に示すように、追跡情報テーブル220の追跡ID:1に対応する動的物体IDリストフィールド222に動的物体ID:1、2および3が保持されている場合、少なくとも、動的物体ID:1、2および3で識別される三つの動的物体の画像(これらは、それぞれ別のフレームに含まれる)が、動的物体追跡部107によって、同一の動的物体の画像であると判定されたことを意味する。   The dynamic object ID does not identify the dynamic object itself, but identifies an image of the dynamic object. Therefore, when an image of the same dynamic object is included in a plurality of frames, a different (unique) dynamic object ID is given to each of the images. For example, as shown in FIG. 2, when dynamic object IDs 1, 2, and 3 are held in the dynamic object ID list field 222 corresponding to the tracking ID: 1 of the tracking information table 220, at least the dynamic The images of the three dynamic objects identified by the object IDs: 1, 2, and 3 (these are included in different frames, respectively) are images of the same dynamic object by the dynamic object tracking unit 107. It means that it was determined.

顕著領域テーブル240は、顕著領域IDフィールド241、フレームIDフィールド242、座標フィールド243および特徴量フィールド244を有する。顕著領域IDフィールド241は、顕著領域検出部109で検出された各顕著領域の識別番号を保持する。フレームIDフィールド242は、顕著領域が検出されたフレームの識別番号を保持する。この識別番号は、フレームテーブル210で管理されるフレームIDフィールド211に保持された識別番号に対応する。座標フィールド243は、顕著領域の画像中での座標を保持する。特徴量フィールド244は、顕著領域から抽出された画像特徴量を保持する。顕著領域テーブル240は、システム設計者が定めた顕著領域の種別分だけ用意される。また、顕著領域テーブルを用意せず、動的物体の画像特徴量だけで検索を行うことも可能である。   The saliency area table 240 includes a saliency area ID field 241, a frame ID field 242, a coordinate field 243, and a feature field 244. The saliency area ID field 241 holds the identification number of each saliency area detected by the saliency area detection unit 109. The frame ID field 242 holds the identification number of the frame in which the saliency area is detected. This identification number corresponds to the identification number held in the frame ID field 211 managed by the frame table 210. The coordinate field 243 holds the coordinates in the image of the saliency area. The feature quantity field 244 holds the image feature quantity extracted from the saliency area. The saliency area table 240 is prepared for the saliency area types determined by the system designer. It is also possible to perform a search using only the image feature amount of a dynamic object without preparing a saliency area table.

<各部の動作>   <Operation of each part>

以上、映像検索システム100の全体構成を説明した。以下では映像検索システム100の動作原理を概説した上で、各機能部の詳細動作を説明する。   The overall configuration of the video search system 100 has been described above. In the following, the operational principle of the video search system 100 is outlined, and the detailed operation of each functional unit is described.

図3は、本発明の実施例1に係る映像検索システム100の動作を説明するための図である。   FIG. 3 is a diagram for explaining the operation of the video search system 100 according to the first embodiment of the present invention.

映像検索システム100は、映像中の物体を検索する際に、例えば、映像の1フレームを表示し、そのフレームに映っている物体をクエリとして類似画像検索を行う。図3の説明図301は、ユーザが入力フレーム中の検索対象302を選択する様子を表している。検索対象302は、映像中の図示された入力フレームを含む複数のフレームに映っている動的物体である。後述する処理によって、それらの複数のフレームに含まれる検索対象302の画像(すなわち静止画像)のいずれかが検索クエリとして選択される。   When searching for an object in the video, the video search system 100 displays, for example, one frame of the video and performs a similar image search using the object shown in the frame as a query. An explanatory diagram 301 in FIG. 3 shows a state in which the user selects the search target 302 in the input frame. The search target 302 is a dynamic object shown in a plurality of frames including the illustrated input frame in the video. One of the images (that is, still images) of the search target 302 included in the plurality of frames is selected as a search query by the process described later.

検索対象302に付された矢印は、物体の向き(例えば検索対象302が人物である場合、体の正面の方向)を表している。一般に物体の向きが異なると画像特徴量が変化する。また、選択するフレームによっては、検索対象302を特徴付ける領域(顕著領域)がそもそも写っていない場合もある。例えば、人物の場合は、後ろを向いている場合には、特徴となる顔領域が写っていないため、顔特徴を用いた検索はできない。映像中の複数のフレームから類似画像検索に適切なクエリ探す作業は非常に手間がかかり、検索結果を得るまでの所要時間の増加や、検索精度の低下の要因となっていた。   An arrow attached to the search target 302 represents the direction of the object (for example, the direction of the front of the body when the search target 302 is a person). In general, when the direction of an object is different, the image feature amount changes. Further, depending on the frame to be selected, there may be a case where an area characterizing the search target 302 (a salient area) is not shown in the first place. For example, in the case of a person, if the face is facing backward, the face area that is the feature is not captured, and therefore, the search using the face feature cannot be performed. Searching for an appropriate query for similar image search from a plurality of frames in the video is very laborious, which increases the time required to obtain a search result and decreases the search accuracy.

本発明では、動的物体の追跡情報を用いることで、同一の動線上から、一つ以上の適切なクエリを決定し、そのクエリを用いた類似画像検索を行う。説明図303は、検索対象302の追跡情報を画像内で動いた経路(動線)の形で表したものである。具体的には、説明図303に表示された曲線は、映像から抽出された連続フレーム内の検索対象302の画面上の座標を、それぞれのフレームが撮影された時刻の順に連結したものであり、曲線の端の矢印の向きは、検索対象302が移動した方向を示し、説明図303の輪郭は各フレームの輪郭に相当する。また、説明図303に示す動線は、撮影場所を斜め上方向から俯瞰するように撮影した画面上の検索対象302の移動経路である。このため、画面の下側が手前側(すなわち当該撮影場所の撮影範囲のうちカメラに近い側)、画面の上側が奥側(すなわち当該撮影場所の撮影範囲のうちカメラから遠い側)に相当する。以降の説明図においても、特記しない限り、動的物体の動線は上記と同様の方法で表示される。   In the present invention, by using tracking information of a dynamic object, one or more appropriate queries are determined from the same flow line, and a similar image search using the query is performed. The explanatory diagram 303 represents the tracking information of the search target 302 in the form of a route (flow line) moved in the image. Specifically, the curve displayed in the explanatory diagram 303 is obtained by concatenating the coordinates on the screen of the search target 302 in the continuous frames extracted from the video in order of the time at which each frame was captured, The direction of the arrow at the end of the curve indicates the direction in which the search target 302 has moved, and the contour in the explanatory diagram 303 corresponds to the contour of each frame. In addition, the flow line shown in the explanatory diagram 303 is a moving path of the search target 302 on the screen shot so as to look down at the shooting location from an obliquely upward direction. For this reason, the lower side of the screen corresponds to the near side (that is, the side close to the camera in the shooting range at the shooting location), and the upper side of the screen corresponds to the back side (that is, the side far from the camera in the shooting range of the shooting location). Also in the following explanatory diagrams, unless otherwise specified, the flow line of the dynamic object is displayed in the same manner as described above.

なお、ある動線が、ある動的物体の画像の移動経路である場合、以下の説明では、当該動的物体を「動線上の動的物体」、当該動的物体の画像を「動線上の画像」、動線上の画像の顕著領域を「動線上の顕著領域」のように記載する場合がある。   When a certain flow line is a moving path of an image of a certain dynamic object, in the following description, the dynamic object is referred to as “dynamic object on the flow line”, and the dynamic object image is referred to as “on the flow line. In some cases, the “image” and the saliency area of the image on the flow line are described as “a saliency area on the flow line”.

説明図303において、例えば、動線上の地点A、B、C、Dにおける検索対象302の画像は、説明図304に示すように、同じ検索対象302(この例では人物)をそれぞれ異なる方向から撮影した画像となり、それぞれの画像に現れた外見が異なるため、異なる画像特徴量が得られる。このようにして得られた複数の画像はいずれも類似画像検索のクエリとして使用可能なクエリ候補であり、得られたクエリ候補を全て用いて、類似画像検索を行っても良い。しかし、上記のような連続フレームからは多数のクエリ候補が得られるため、それらの多数のクエリ候補を用いることで検索時間が増加する。また、検索結果の統合方法(例えば検索結果を表示する順序を決定する方法)についても課題が残る。   In the explanatory diagram 303, for example, the images of the search target 302 at the points A, B, C, and D on the flow line are taken from different directions as shown in the explanatory diagram 304. Since the appearances of the images differ from each other, different image feature amounts can be obtained. The plurality of images thus obtained are all query candidates that can be used as similar image search queries, and similar image searches may be performed using all of the obtained query candidates. However, since a large number of query candidates are obtained from the continuous frames as described above, the search time is increased by using the large number of query candidates. Also, there remains a problem with a search result integration method (for example, a method for determining the order in which search results are displayed).

これに対して本発明では、撮影場所毎に蓄積された動線情報を用いて、適切なクエリを自動的に決定し、検索回数を軽減する。例えば、説明図305には、ある場所(図3では場所1と記載)で撮影された映像に映っている各動的物体の動線を示す。この例では、動線の矢印が示すように、多くの動的物体が画面上の手前から奥に向かって動くため、この撮影場所で撮影された映像には動的物体の正面の画像が多く含まれていないと考えられる。このため、このような場所で撮影された映像を対象として、例えば人物の顔の特徴のような、物体正面に現れる特徴をクエリとした類似画像検索をすることは難しい。   On the other hand, in the present invention, an appropriate query is automatically determined using the flow line information accumulated for each photographing location, and the number of searches is reduced. For example, the explanatory diagram 305 shows a flow line of each dynamic object shown in a video imaged at a certain place (denoted as place 1 in FIG. 3). In this example, many dynamic objects move from the front to the back on the screen, as indicated by the arrow of the flow line, so there are many images of the front of the dynamic object in the video taken at this shooting location. It is thought that it is not included. For this reason, it is difficult to perform a similar image search using, as a query, a feature that appears in front of an object such as a feature of a person's face, for example, for a video shot at such a place.

説明図301に示す入力フレームには、ある方向を向いた検索対象302の画像が含まれている。この画像には、場所1で撮影された映像を検索するクエリとして適切な特徴が含まれているとは限らない。しかし、その前後のフレームには、説明図303および304に示すように、種々の方向を向いた検索対象302の画像が含まれ、それらの一部は、場所1で撮影された映像を検索するクエリとして適切な特徴を含む可能性がある。具体的には、入力フレームを含む連続フレームの中に、場所1における多くの動的物体と同様に、画面上の手前から奥に向かって移動する検索対象302の画像が含まれていれば、その画像には、場所1で撮影された映像を検索するクエリとして適切な特徴が含まれている可能性が高い。   The input frame shown in the explanatory diagram 301 includes an image of the search target 302 facing a certain direction. This image does not necessarily include a feature suitable as a query for searching for a video shot at the place 1. However, as shown in the explanatory diagrams 303 and 304, the frames before and after that include images of the search target 302 that face in various directions, and some of them search for the video shot at the location 1. May contain appropriate features as a query. Specifically, if the continuous frame including the input frame includes the image of the search target 302 that moves from the front to the back on the screen, like many dynamic objects in the place 1, There is a high possibility that the image includes a feature suitable as a query for searching for a video shot at the location 1.

そこで、映像検索システム100は、入力映像の追跡情報から、場所1における多くの動的物体と同様に、検索対象302が画面上奥に向かって動く瞬間を探し、そのときに撮影されたフレームの画像から抽出した、検索対象302の正面以外の顕著領域の特徴を用いて類似画像検索を行う。例えば、検索対象302が人物である場合は、正面の顔特徴ではなく、背面の服色特徴306をクエリとした検索が行われる。一方で、説明図307に示す撮影場所2では、画面上の手前から奥に向かって移動する動的物体の画像だけでなく、画面上の奥から手前に向かって移動する動的物体の画像が撮影されており、後者には顔が映っている可能性が高いため、顔特徴308をクエリとした検索が行われる。   Therefore, the video search system 100 searches for the moment when the search target 302 moves toward the back of the screen from the tracking information of the input video, as with many dynamic objects at the location 1, and the frame of the frame taken at that time is searched. A similar image search is performed using features of a salient region other than the front of the search target 302 extracted from the image. For example, when the search target 302 is a person, a search is performed using the clothes color feature 306 on the back instead of the face feature on the front as a query. On the other hand, in the shooting location 2 shown in the explanatory diagram 307, not only the image of the dynamic object moving from the front side to the back on the screen but also the image of the dynamic object moving from the back side to the front on the screen is displayed. Since there is a high possibility that a face is captured in the latter, a search using the facial feature 308 as a query is performed.

本実施例の効果として、追跡情報を用いて自動的にクエリを増やすため作業コストが軽減し、撮影場所に応じたクエリを選択することで、検索時間を減らすことができる。また、撮影場所毎に顕著な領域を表すクエリのみが選ばれるため、全てのクエリ候補を用いて検索する場合に比べて、検索ノイズを軽減する効果が期待できる。   As an effect of the present embodiment, since the number of queries is automatically increased using tracking information, the work cost is reduced, and the search time can be reduced by selecting a query according to the shooting location. In addition, since only a query representing a prominent region is selected for each shooting location, an effect of reducing search noise can be expected as compared with a case where a search is performed using all query candidates.

本発明を実施するためには、まず、映像の蓄積段階において動的物体の追跡と顕著領域の検出を行って、データベースに登録しておく必要がある。また、多数の映像が蓄積された後に、撮影場所ごとに適切なクエリを生成するためのパラメータを導出する必要がある。検索時には、これらの登録情報、蓄積情報を用いて一つ以上のクエリを生成して検索する。以下では、映像の登録、パラメータの導出、検索における、各部の動作についてそれぞれ説明する。   In order to implement the present invention, it is necessary to first track a dynamic object and detect a saliency area in the video accumulation stage and register it in a database. Further, after a large number of videos are accumulated, it is necessary to derive parameters for generating an appropriate query for each shooting location. At the time of search, one or more queries are generated and searched using these registration information and accumulated information. In the following, the operation of each unit in video registration, parameter derivation, and search will be described.

図4は、本発明の実施例1に係る映像検索装置104が、入力された映像を登録する処理を説明するフローチャートである。以下、図4の各ステップについて説明する。   FIG. 4 is a flowchart for explaining processing in which the video search apparatus 104 according to the first embodiment of the present invention registers the input video. Hereinafter, each step of FIG. 4 will be described.

(図4:ステップS401)
映像入力部105は、映像記憶装置101から入力された映像データをデコードし、フレームを静止画として抽出する。
(FIG. 4: Step S401)
The video input unit 105 decodes video data input from the video storage device 101 and extracts a frame as a still image.

(図4:ステップS402〜S410)
映像検索装置104内の各部が、ステップS401で抽出された各フレームに対して、ステップS402〜S410を実行する。
(FIG. 4: Steps S402 to S410)
Each unit in the video search device 104 executes steps S402 to S410 for each frame extracted in step S401.

(図4:ステップS403)
フレーム登録部106は、フレームと抽出元の映像情報を映像データベース111に登録する。
(FIG. 4: Step S403)
The frame registration unit 106 registers the frame and extraction source video information in the video database 111.

(図4:ステップS404)
動的物体追跡部107は、フレームから動的物体を検出する。
(FIG. 4: Step S404)
The dynamic object tracking unit 107 detects a dynamic object from the frame.

(図4:ステップS405)
動的物体追跡部107は、ステップS404で検出された動的物体が、前フレームにも存在したものであるか否かを判定し、前フレーム(現フレームの一つ前の時刻のフレーム)にも存在したものであれば、追跡情報登録部108がステップS407を実施する。一方、ステップS404で検出された動的物体が、前フレームにも存在したものでない場合、当該動的物体は現フレームで新たに出現した動的物体であるため、追跡情報登録部108がステップS406を実行する。
(FIG. 4: Step S405)
The dynamic object tracking unit 107 determines whether or not the dynamic object detected in step S404 is also present in the previous frame, and sets it to the previous frame (the frame at the time immediately before the current frame). If it also exists, the tracking information registration unit 108 executes step S407. On the other hand, if the dynamic object detected in step S404 does not exist in the previous frame, the dynamic information is a new dynamic object that has appeared in the current frame, and the tracking information registration unit 108 determines in step S406. Execute.

(図4:ステップS406)
追跡情報登録部108は、ステップS405で新たに検出された動的物体を追跡対象として、映像データベース111の追跡情報テーブル220に新規登録する。
(FIG. 4: Step S406)
The tracking information registration unit 108 newly registers the dynamic object newly detected in step S405 as a tracking target in the tracking information table 220 of the video database 111.

(図4:ステップS407)
追跡情報登録部108は、各動的物体から画像特徴量を抽出し、抽出した画像特徴量、ステップS405で特定された前フレームの動的物体と同一の追跡ID、現フレームのフレームID、および現フレームにおける各動的物体の座標を、それぞれ、動的物体テーブル230の特徴量フィールド235、追跡IDフィールド232、フレームIDフィールド233および座標フィールド234に登録する。また、追跡情報登録部108は、得られた動的物体IDを追跡情報テーブル220の動的物体IDリストフィールド222に追加する。
(FIG. 4: Step S407)
The tracking information registration unit 108 extracts the image feature amount from each dynamic object, extracts the extracted image feature amount, the same tracking ID as the dynamic object of the previous frame specified in step S405, the frame ID of the current frame, and The coordinates of each dynamic object in the current frame are registered in the feature quantity field 235, tracking ID field 232, frame ID field 233, and coordinate field 234 of the dynamic object table 230, respectively. In addition, the tracking information registration unit 108 adds the obtained dynamic object ID to the dynamic object ID list field 222 of the tracking information table 220.

(図4:ステップS408)
顕著領域検出部109は、フレームから顕著領域を検出する。複数種類の顕著領域検出モジュールを用意した場合は、検出モジュールの数だけ検出処理を行う。
(FIG. 4: Step S408)
The saliency detection unit 109 detects a saliency area from the frame. When a plurality of types of saliency detection modules are prepared, detection processing is performed for the number of detection modules.

(図4:ステップS409)
顕著領域登録部110は、ステップS408で検出された顕著領域から画像特徴量を抽出し、映像データベース111の顕著領域テーブル240に登録する。
(FIG. 4: Step S409)
The saliency area registration unit 110 extracts an image feature amount from the saliency area detected in step S <b> 408 and registers it in the saliency area table 240 of the video database 111.

ステップS404〜S407と、ステップS408〜S409とは独立した処理であるため、複数の計算リソースを用いて並列に実行しても良い。   Since steps S404 to S407 and steps S408 to S409 are independent processes, they may be executed in parallel using a plurality of calculation resources.

以上が、映像の登録処理に関する説明である。次に、登録されたデータを用いて、適切なクエリの決定に用いられるパラメータを推定する処理について説明する。   This completes the description of the video registration process. Next, processing for estimating parameters used for determining an appropriate query using registered data will be described.

図5は、本発明の実施例1に係る映像検索装置104が実行するクエリパラメータの推定処理を説明する図である。   FIG. 5 is a diagram for explaining query parameter estimation processing executed by the video search apparatus 104 according to the first embodiment of the present invention.

一定数以上の映像が映像データベース111に蓄積されると、各撮影場所に関して、多数の動線を得ることができる。説明図501には、例として、図3の説明図307と同様の場所2に関して得られた動線を示す。各動線については追跡情報テーブル220に動線特徴量が保存されている。クエリパラメータ推定部112は、まずこれらの動線特徴量に対してクラスタリング処理を行い、説明図502に太線の矢印で示す代表動線502Aおよび502Bを見つける。クラスタリング処理には、k−means法のような一般的な手法を用いることができる。   When a certain number of videos or more are accumulated in the video database 111, a large number of flow lines can be obtained for each shooting location. In the explanatory diagram 501, the flow line obtained with respect to the place 2 similar to the explanatory diagram 307 in FIG. 3 is shown as an example. For each flow line, a flow line feature amount is stored in the tracking information table 220. The query parameter estimation unit 112 first performs clustering processing on these flow line feature quantities to find representative flow lines 502A and 502B indicated by thick arrows in the explanatory diagram 502. A general technique such as the k-means method can be used for the clustering process.

次に、クエリパラメータ推定部112は、各クラスタに属する動線上で検出された顕著領域を映像データベース111から取得する。この結果、顕著領域の種別毎に、検出された顕著領域の数、および、検出された顕著領域の画像特徴量の集合が得られる。この段階で検出された数が所定数に満たない種別の顕著領域は除外され、残った顕著領域の中で最も検索に適したものが選ばれる。   Next, the query parameter estimation unit 112 acquires the saliency area detected on the flow line belonging to each cluster from the video database 111. As a result, for each type of saliency area, the number of detected saliency areas and a set of image feature quantities of the detected saliency areas are obtained. The saliency areas of the type in which the number detected at this stage is less than the predetermined number are excluded, and the most suitable saliency area is selected from the remaining saliency areas.

検索に適した顕著領域を判定する方法として、例えば、画像特徴量の分散比を用いる方法が考えられる。   As a method for determining a saliency area suitable for search, for example, a method using a dispersion ratio of image feature values is conceivable.

図6は、本発明の実施例1に係る映像検索装置104が顕著領域を判定するために使用する画像特徴量の分散比の説明図である。   FIG. 6 is an explanatory diagram of a dispersion ratio of image feature values used by the video search apparatus 104 according to the first embodiment of the present invention to determine a saliency area.

画像特徴量の分散比は、同一動線内で検出された顕著領域の画像特徴量の分散値(動線内分散)と、動線間の分散値(動線間分散)との比である(分散比=動線間分散/平均動線内分散)。説明図601には、分散比が大きい場合の各動線の顕著領域の画像特徴量の分散の例を模式的に示す。この例では、同一動線内、すなわち同一物体の画像特徴量の時間変動が少なく、動線間、すなわち異なる物体間での画像特徴量の差が大きいため、特徴量ベクトルの検索によって対象物を発見しやすい。   The dispersion ratio of the image feature amount is a ratio between the dispersion value of the image feature amount in the salient region detected within the same flow line (intra-flow line dispersion) and the dispersion value between the flow lines (inter-flow line dispersion). (Dispersion ratio = distribution between flow lines / average dispersion within flow lines). An explanatory diagram 601 schematically shows an example of the dispersion of the image feature amount in the salient region of each flow line when the dispersion ratio is large. In this example, the time variation of the image feature amount in the same flow line, that is, the same object is small, and the difference in the image feature amount between the flow lines, that is, between different objects is large. Easy to find.

一方、説明図602には、分散比が小さい場合の各動線の顕著領域の画像特徴量の分散の例を模式的に示す。この例では、一つの物体の特徴量空間とそれとは異なる物体の特徴量空間とを分離できないため、本来検索したい対象物とは異なる対象物を誤って発見する可能性が高く、有効な検索結果を得ることは難しい。   On the other hand, an explanatory diagram 602 schematically shows an example of the dispersion of the image feature amount in the saliency area of each flow line when the dispersion ratio is small. In this example, the feature amount space of one object and the feature amount space of a different object cannot be separated, so there is a high possibility that an object that is different from the object to be originally searched is erroneously found, and an effective search result. Hard to get.

クエリパラメータ推定部112は、各顕著領域に対して画像特徴量の分散比を求め、分散比の高くなる顕著領域を選んで、クエリパラメータ蓄積部113に登録する。   The query parameter estimation unit 112 obtains a variance ratio of the image feature amount for each saliency area, selects a saliency area having a high variance ratio, and registers it in the query parameter accumulation unit 113.

図5の例では、説明図501および502に示すように、取得された複数の動線が、画面上の手前から左奥に向かう複数の動線を含むクラスタと、左奥から手前に向かう複数の動線を含むクラスタと、に分類される。この例において、それぞれのクラスタの代表動線502Aおよび502Bは、実際に取得された複数の動線のうちの一つではなく、それぞれのクラスタに含まれる複数の動線から生成された代表的な動線である。また、それぞれのクラスタに含まれる動線を、それぞれのクラスタの代表動線の類似動線とも記載する。   In the example of FIG. 5, as shown in the explanatory diagrams 501 and 502, the acquired plurality of flow lines includes a cluster including a plurality of flow lines from the front side to the left back side and a plurality of flow lines from the left back side to the front side. And a cluster including the flow line. In this example, the representative flow lines 502A and 502B of each cluster are not one of a plurality of actually acquired flow lines, but representative ones generated from a plurality of flow lines included in each cluster. It is a flow line. In addition, the flow line included in each cluster is also referred to as a similar flow line of the representative flow line of each cluster.

図5の説明図503および505は、それぞれ、代表動線502Aおよび代表動線502Bの類似動線上で検出された顕著領域に関する情報の例を示す。具体的には、説明図503および505には、顕著領域に関する情報の例として、顕著領域の種別、検出されたそれぞれの種別の顕著領域の数、顕著領域の画像の例、および特徴量の分散比が表示されている。図5の例において、各動的物体は人物であるため、顕著領域の種別は「動体」(すなわち動的物体全体)、「顔」および「服色」を含むが、他の種別を含んでもよい。   Explanation diagrams 503 and 505 in FIG. 5 show examples of information related to the saliency areas detected on the similar flow lines of the representative flow line 502A and the representative flow line 502B, respectively. Specifically, in the explanatory diagrams 503 and 505, as examples of information regarding the saliency area, the saliency area type, the number of saliency areas detected for each type, an example of the saliency area image, and the distribution of the feature amount The ratio is displayed. In the example of FIG. 5, since each dynamic object is a person, the types of saliency areas include “moving object” (that is, the entire dynamic object), “face”, and “clothing color”, but other types may also be included. Good.

図5の例において、代表動線502Aの類似動線は、画面上の手前から左奥に向かう動線を多く含むため、種別が「動体」および「服色」である顕著領域は多く検出されるが、種別が「顔」である顕著領域は検出されない。この例では、「動体」より「服色」の画像特徴量の分散比が大きいため、「服色」が検索に適した顕著領域の種別504(以下、「有効な顕著領域の種別」とも記載する)として選択される。一方、代表動線502Aの類似動線は、画面上の左奥から手前に向かう動線を多く含むため、種別が「顔」である十分な数の顕著領域が検出され、その画像特徴量の分散比が最も大きいため、「顔」が有効な顕著領域の種別506として選択される。   In the example of FIG. 5, since the similar flow line of the representative flow line 502A includes many flow lines from the front side to the left back side on the screen, a large number of saliency areas whose types are “moving object” and “clothing color” are detected. However, a saliency area whose type is “face” is not detected. In this example, since the variance ratio of the image feature quantity of “clothing color” is larger than that of “moving object”, “clothing color” is also described as a saliency area type 504 suitable for search (hereinafter referred to as “effective saliency area type”). Selected). On the other hand, since the similar flow line of the representative flow line 502A includes many flow lines from the left back to the front on the screen, a sufficient number of salient regions whose type is “face” is detected, and the image feature amount Since the variance ratio is the largest, “face” is selected as the effective area type 506 in which the face is effective.

より具体的には、例えば検出数および分散値がいずれも所定の値を越えるなど、所定の条件を満たす種別が選択されてもよい。一つのクラスタについて複数の種別が上記の条件を満たす場合、それらの全てが選択されてもよいし、例えば分散値が最大である一つを選択するなど、さらに別の条件に従って種別が絞り込まれてもよい。   More specifically, a type that satisfies a predetermined condition may be selected, for example, the number of detections and the variance value both exceed a predetermined value. When a plurality of types satisfy one of the above conditions for one cluster, all of them may be selected, or the types are further narrowed down according to other conditions, such as selecting one with the maximum variance value. Also good.

図7は、本発明の実施例1に係るクエリパラメータ蓄積部113の構成およびデータ例を示す図である。ここではテーブル形式の構成例を示すが、データ形式は任意でよい。   FIG. 7 is a diagram illustrating a configuration and a data example of the query parameter storage unit 113 according to the first embodiment of the present invention. Here, a configuration example of the table format is shown, but the data format may be arbitrary.

クエリパラメータ蓄積部113は、パラメータIDフィールド700、撮影場所IDフィールド701、領域座標フィールド702、代表動線特徴量フィールド703、および顕著領域種別フィールド704を有するテーブル構造で表現することができる。   The query parameter storage unit 113 can be expressed by a table structure having a parameter ID field 700, a shooting location ID field 701, an area coordinate field 702, a representative flow line feature quantity field 703, and a salient area type field 704.

パラメータIDフィールド700は、各パラメータの識別番号(すなわちパラメータID)を保持する。これは、前述した動線のクラスタ毎に与えられるIDである。   The parameter ID field 700 holds an identification number (that is, parameter ID) of each parameter. This is an ID given to each cluster of flow lines described above.

撮影場所IDフィールド701は、各撮影場所の識別番号(すなわち撮影場所ID)を保持する。撮影場所IDは、映像データベース111における映像テーブル200の撮影場所IDフィールド203に保持された値に対応する。領域座標フィールド702は、動線のクラスタに属する動線の分布範囲を表す座標を保持する。代表動線特徴量フィールド703は、動線クラスタの平均特徴量(すなわち、動線クラスタに属する動線の動線特徴量の平均)を保持する。顕著領域種別フィールド704は、図5と図6の説明として前述した方法で選択された、一つ以上の有効な顕著領域の種別を保持する。   The shooting location ID field 701 holds an identification number (that is, shooting location ID) of each shooting location. The shooting location ID corresponds to the value held in the shooting location ID field 203 of the video table 200 in the video database 111. The area coordinate field 702 holds coordinates representing the distribution range of flow lines belonging to the flow line cluster. The representative flow line feature quantity field 703 holds an average feature quantity of flow line clusters (that is, an average of flow line feature quantities of flow lines belonging to the flow line cluster). The salient region type field 704 holds one or more effective salient region types selected by the method described above with reference to FIGS. 5 and 6.

図8は、本発明の実施例1に係る映像検索装置104が、蓄積されたデータからクエリパラメータを推定する処理を説明するフローチャートである。以下、図8の各ステップについて説明する。   FIG. 8 is a flowchart for explaining processing in which the video search device 104 according to the first embodiment of the present invention estimates query parameters from accumulated data. Hereinafter, each step of FIG. 8 will be described.

(図8:ステップS801〜S809)
クエリパラメータ推定部112は、各撮影場所を処理対象としてステップS801〜S809を実行する。
(FIG. 8: Steps S801 to S809)
The query parameter estimation unit 112 executes steps S801 to S809 with each shooting location as a processing target.

(図8:ステップS802)
クエリパラメータ推定部112は、処理対象の撮影場所の映像から抽出された追跡情報を、映像データベース111から取得する。これによって、例えば図5の説明図501に示すような動線に関する情報が取得される。
(FIG. 8: Step S802)
The query parameter estimation unit 112 acquires tracking information extracted from the video of the shooting location to be processed from the video database 111. Thereby, for example, information on the flow line as shown in the explanatory diagram 501 of FIG. 5 is acquired.

(図8:ステップS803)
クエリパラメータ推定部112は、ステップS802で取得した追跡情報を動線特徴量に基づいてクラスタリングする。これによって、例えば図5に示すように複数の動線が二つのクラスタに分類され、それぞれのクラスタを代表する代表動線502Aおよび502Bが得られる。
(FIG. 8: Step S803)
The query parameter estimation unit 112 clusters the tracking information acquired in step S802 based on the flow line feature amount. Thus, for example, as shown in FIG. 5, a plurality of flow lines are classified into two clusters, and representative flow lines 502A and 502B representing the respective clusters are obtained.

(図8:ステップS804〜S808)
クエリパラメータ推定部112は、ステップS803で得られた各クラスタを処理対象としてステップS804〜S808を実行する。
(FIG. 8: Steps S804 to S808)
The query parameter estimation unit 112 executes steps S804 to S808 with each cluster obtained in step S803 as a processing target.

(図8:ステップS805)
クエリパラメータ推定部112は、処理対象のクラスタに属する追跡情報から、動線上の顕著領域を取得する。例えば、クエリパラメータ推定部112は、ある追跡IDおよびあるフレームIDに対応する動的物体の座標(すなわち座標フィールド234に保持された値)と、それと同一のフレームIDに対応する顕著領域の座標(すなわち座標フィールド243の値)との重畳率が所定値以上である場合に、当該顕著領域が当該追跡IDによって識別される動線上の顕著領域であると判定する。重畳率とは、例えば、顕著領域の座標の範囲の大きさに対する、その範囲と動的物体の座標の範囲との重畳部分の大きさの比率である。このようにして得られた各動線上の顕著領域を処理対象のクラスタについて集計することによって、例えば図5の説明図503または505に示すような顕著領域が取得される。
(FIG. 8: Step S805)
The query parameter estimation unit 112 acquires a salient region on the flow line from the tracking information belonging to the processing target cluster. For example, the query parameter estimation unit 112 may determine the coordinates of the dynamic object corresponding to a certain tracking ID and a certain frame ID (that is, the value held in the coordinate field 234) and the coordinates of the salient region corresponding to the same frame ID ( That is, when the overlapping ratio with the value of the coordinate field 243 is equal to or greater than a predetermined value, it is determined that the saliency area is a saliency area on the flow line identified by the tracking ID. The superimposition rate is, for example, the ratio of the size of the overlapping portion between the range and the coordinate range of the dynamic object to the size of the coordinate range of the saliency area. By collecting the saliency areas on each flow line obtained in this way for the cluster to be processed, for example, a saliency area as shown in the explanatory diagram 503 or 505 in FIG. 5 is acquired.

(図8:ステップS806)
クエリパラメータ推定部112は、顕著領域の種別ごとに検出数と特徴量の分散値を導出し、図5および図6の説明で述べた方法で有効な顕著領域の種別を推定する。これによって、例えば図5に示す顕著領域の種別504または506等が取得される。
(FIG. 8: Step S806)
The query parameter estimation unit 112 derives the number of detections and the variance of the feature amount for each saliency area type, and estimates the effective saliency type by the method described with reference to FIGS. 5 and 6. Thus, for example, the saliency area type 504 or 506 shown in FIG. 5 is acquired.

(図8:ステップS807)
クエリパラメータ推定部112は、ステップS806で得られたパラメータを、クエリパラメータ蓄積部113に登録する。
(FIG. 8: Step S807)
The query parameter estimation unit 112 registers the parameter obtained in step S806 in the query parameter storage unit 113.

以上が、動的物体の追跡情報を用いて類似画像検索を効率化するための事前処理に関する説明である。以下では、本発明の検索処理について説明する。   The above is the description regarding the pre-processing for improving the efficiency of the similar image search using the tracking information of the dynamic object. Below, the search process of this invention is demonstrated.

図9は、本発明の実施例1に係るクエリ決定部115が、追跡情報を用いて検索クエリを決定する動作を説明する図であり、図3の概念図をより詳細に説明する図である。   FIG. 9 is a diagram for explaining an operation in which the query determination unit 115 according to the first embodiment of the present invention determines a search query using tracking information, and is a diagram for explaining the conceptual diagram of FIG. 3 in more detail. .

ユーザが検索対象の動的物体(例えば図3の検索対象302)を指定すると、説明図901に示すように、その物体の動線情報が得られる。例えば、図3の説明図303と同様の動線に関する情報が得られる。次に、クエリ決定部115は、得られた動線を一つ以上の部分動線に分割する。図9の例では、分割によって部分動線901a〜901eが得られる。   When the user designates a dynamic object to be searched (for example, search target 302 in FIG. 3), as shown in an explanatory diagram 901, flow line information of the object is obtained. For example, the information regarding the flow line similar to the explanatory diagram 303 of FIG. 3 is obtained. Next, the query determination unit 115 divides the obtained flow line into one or more partial flow lines. In the example of FIG. 9, partial flow lines 901a to 901e are obtained by the division.

動線の分割は、それぞれの部分動線上の全ての(またはほとんどの)画像が、いずれも、一つの動的物体を概ね同じ方向から撮影した画像であるように(言い換えると、一つの動的物体を概ね同じ方向から撮影した複数の画像の座標を撮影時刻の順に連結したものが一つの部分動線となるように)行うことが望ましい。具体的には、例えば、動線上のそれぞれの画像の撮影時刻に着目して、所定の時間間隔で動線を分割してもよいし、動線の方向の変動を利用して(例えば一つの部分動線内の各地点における動線の進行方向が所定の範囲内に含まれるように)動線を分割してもよい。クエリ決定部115は、このようにして得られた部分動線の集合902に含まれる各部分動線901a〜901e等から動線特徴量を抽出し、検索可能な状態にしておく。   The flow line segmentation is performed so that all (or most) images on each partial flow line are images obtained by photographing one dynamic object from substantially the same direction (in other words, one dynamic object). It is desirable that the coordinates of a plurality of images obtained by photographing an object from substantially the same direction be connected in the order of photographing times to form one partial flow line). Specifically, for example, paying attention to the shooting time of each image on the flow line, the flow line may be divided at a predetermined time interval, or using the change in the direction of the flow line (for example, one The flow line may be divided so that the traveling direction of the flow line at each point in the partial flow line is included in a predetermined range. The query determination unit 115 extracts the flow line feature amount from each of the partial flow lines 901a to 901e included in the partial flow line set 902 obtained in this way, and makes it searchable.

次に、クエリ決定部115は、クエリパラメータ蓄積部113に蓄積された各代表動線をクエリとして部分動線の集合に対して最近傍動線探索903を行う。最近傍動線探索は、クエリとの特徴量ベクトル間の距離が最も小さくなる要素を集合から見つける処理である。   Next, the query determination unit 115 performs a nearest neighbor flow line search 903 for a set of partial flow lines using each representative flow line accumulated in the query parameter accumulation unit 113 as a query. The nearest-neighbor flow line search is a process of finding an element having the smallest distance between the feature vector and the query from the set.

例えば、説明図307の場所2で撮影された映像について、クエリ画像を用いた検索を行おうとする場合、最近傍動線探索903では、各代表動線502Aおよび502Bが動線クエリとなり、それぞれの動線特徴量ベクトルとの距離が最も小さい部分動線が検索される。図9の例では、代表動線502Aおよび502Bをクエリとした最近傍動線探索903によって、それぞれ部分動線901aおよび901dが得られる。   For example, when a search using a query image is performed for a video shot at location 2 in the explanatory diagram 307, in the nearest flow line search 903, each representative flow line 502A and 502B becomes a flow line query. A partial flow line having the smallest distance from the flow line feature vector is searched. In the example of FIG. 9, partial flow lines 901a and 901d are obtained by the nearest flow line search 903 using the representative flow lines 502A and 502B as queries.

代表動線502Aの動線特徴量と部分動線901aの動線特徴量との距離が小さいことは、代表動線502Aの類似動線と部分動線901aとが類似していることを意味する。図9の例では、代表動線502Aおよび部分動線901aは、いずれも、動的物体が画面の手前から奥に向けて移動する動きに相当する。   A small distance between the flow line feature amount of the representative flow line 502A and the flow line feature amount of the partial flow line 901a means that the similar flow line of the representative flow line 502A and the partial flow line 901a are similar. . In the example of FIG. 9, both the representative flow line 502A and the partial flow line 901a correspond to the movement of the dynamic object moving from the front of the screen toward the back.

このため、代表動線502Aの類似動線上の動的物体の画像と、部分動線901a上の動的物体の画像とが、それぞれの動的物体を概ね同一の方向から撮影した画像である可能性が高い。このことは、前者に関する有効な顕著領域の種別と同一の種別の顕著領域が後者にも含まれる可能性が高いことを意味する。代表動線502Bと部分動線901dとの関係も同様である。   For this reason, the image of the dynamic object on the similar flow line of the representative flow line 502A and the image of the dynamic object on the partial flow line 901a may be images obtained by capturing the respective dynamic objects from substantially the same direction. High nature. This means that the saliency area of the same type as that of the effective saliency area related to the former is likely to be included in the latter. The relationship between the representative flow line 502B and the partial flow line 901d is the same.

図9の例では、上記のように、服色の顕著領域が有効な代表動線502Aについては、部分動線901aが、顔の顕著領域が有効な代表動線502Bについては、部分動線901dが選ばれる。この場合、説明図904に示すように、クエリ決定部115は、検索クエリとして、部分動線901a上の画像から抽出された服色の画像特徴量と、部分動線901d上の画像から抽出された顔の画像特徴量とが検索クエリとして決定される。   In the example of FIG. 9, as described above, the partial flow line 901a for the representative flow line 502A in which the clothing color saliency area is effective, and the partial flow line 901d for the representative flow line 502B in which the saliency area of the face is effective. Is selected. In this case, as shown in the explanatory diagram 904, the query determination unit 115 is extracted from the image feature amount of clothes color extracted from the image on the partial flow line 901a and the image on the partial flow line 901d as a search query. The face image feature amount is determined as a search query.

なお、部分動線内に複数の顕著領域が存在する場合(例えば部分動線を構成する複数のフレームに顕著領域が含まれている場合)には、クエリ決定部115は、それらのいずれを選択して、それを検索クエリとして決定してもよいが、さらに他の条件に基づいて、検索クエリとしてより適した顕著領域を選択してもよい。例えば、クエリ決定部115は、顕著領域のサイズの大きい場所、または、動的物体の速度の遅い場所(被写体ブレの軽減のため)などを選択してそれを検索クエリと決定しても良い。また、顕著領域の検出モジュールに検出結果の信頼度を出力する機能があれば、その値を使用して、例えば信頼度が高い顕著領域の画像特徴量を検索クエリと決定しても良い。   When there are a plurality of saliency areas in the partial flow line (for example, when a plurality of saliency areas are included in a plurality of frames constituting the partial flow line), the query determination unit 115 selects any of them. Then, it may be determined as a search query, but a more prominent region more suitable as a search query may be selected based on other conditions. For example, the query determination unit 115 may select a place where the size of the saliency area is large or a place where the speed of the dynamic object is slow (to reduce subject blurring) and determine it as a search query. Further, if the saliency area detection module has a function of outputting the reliability of the detection result, the value may be used to determine, for example, the image feature amount of the saliency area with high reliability as the search query.

図10は、本発明の実施例1に係る映像検索装置104が、追跡情報を用いて決定した検索クエリによって類似画像検索を行う処理を説明するフローチャートである。以下、図10の各ステップについて説明する。   FIG. 10 is a flowchart illustrating a process in which the video search apparatus 104 according to the first embodiment of the present invention performs a similar image search using a search query determined using tracking information. Hereinafter, each step of FIG. 10 will be described.

(図10:ステップS1001)
クエリ決定部115は、クエリ入力部114を通じてユーザが指定した検索対象302の追跡情報を映像データベース111から読み出す。これによって、例えば図9の説明図901に示すような動線の情報が読み出される。
(FIG. 10: Step S1001)
The query determination unit 115 reads tracking information of the search target 302 specified by the user through the query input unit 114 from the video database 111. As a result, for example, flow line information as shown in the explanatory diagram 901 of FIG. 9 is read.

(図10:ステップS1002)
クエリ決定部115は、ステップS1001で得られた追跡情報を元に、部分動線集合を生成し、各部分動線の動線特徴量を抽出する。これによって、例えば図9に示す部分動線の集合902が得られる。
(FIG. 10: Step S1002)
The query determination unit 115 generates a partial flow line set based on the tracking information obtained in step S1001, and extracts the flow line feature quantity of each partial flow line. Thereby, for example, a set of partial flow lines 902 shown in FIG. 9 is obtained.

(図10:ステップS1003)
クエリ決定部115は、クエリパラメータ蓄積部113から、各撮影場所の各代表動線のパラメータを読み出す。これによって、例えば図9に示す代表動線502Aおよび502Bのパラメータが読み出される。
(FIG. 10: Step S1003)
The query determination unit 115 reads the parameters of each representative flow line at each shooting location from the query parameter storage unit 113. Thereby, for example, the parameters of the representative flow lines 502A and 502B shown in FIG. 9 are read.

(図10:ステップS1004〜S1008)
クエリ決定部115は、ステップS1003で読み出された代表動線のパラメータ毎にステップS1004〜S1008を実行する。
(FIG. 10: Steps S1004 to S1008)
The query determination unit 115 executes steps S1004 to S1008 for each representative flow line parameter read in step S1003.

(図10:ステップS1005)
クエリ決定部115は、部分動線集合から代表動線の特徴量をクエリとして最近傍動線を探索する。この手順は、図9の最近傍動線探索903に相当する。
(FIG. 10: Step S1005)
The query determination unit 115 searches for the nearest flow line from the partial flow line set using the feature quantity of the representative flow line as a query. This procedure corresponds to the nearest flow line search 903 in FIG.

(図10:ステップS1006)
クエリ決定部115は、ステップS1005で得られた最近傍動線上の顕著領域を選択して、その顕著領域の画像特徴量を含む検索クエリを、ステップS1003で読み出された代表動線のパラメータで指定された撮影場所および領域に対する検索クエリとして決定する。これによって、例えば、図9の説明図904に示すように、代表動線502Aについては服色の画像特徴量を含む検索クエリが、代表動線502Bについては顔の画像特徴量を含む検索クエリが決定される。
(FIG. 10: Step S1006)
The query determination unit 115 selects the saliency area on the nearest flow line obtained in step S1005, and uses the parameters of the representative flow line read in step S1003 as the search query including the image feature amount of the saliency area. It is determined as a search query for the specified shooting location and area. Accordingly, for example, as shown in an explanatory diagram 904 of FIG. 9, a search query including an image feature quantity of clothes color is represented for the representative flow line 502A, and a search query including an image feature quantity of the face is represented for the representative flow line 502B. It is determined.

(図10:ステップS1007)
類似画像検索部116は、ステップS1006で決定された検索クエリを用いて、映像データベース111から、類似画像検索結果を取得する。この処理には、一般的な類似画像検索の技術を用いることができる。
(FIG. 10: Step S1007)
The similar image search unit 116 acquires a similar image search result from the video database 111 using the search query determined in step S1006. A general similar image search technique can be used for this processing.

(図10:ステップS1009)
各代表動線のパラメータについてステップS1004〜S1008の実行が終了すると、類似画像検索部116は、ステップS1004〜S1008によって得られた撮影場所ごと、および代表動線ごとの検索結果を統合して、表示装置103に表示する。各検索結果は、異なる種別の顕著領域をクエリとした検索結果であるため、類似画像検索部116は統合する際に類似度を正規化する。また、撮影場所ごとに分けて検索結果を表示しても良い。
(FIG. 10: Step S1009)
When the execution of steps S1004 to S1008 is completed for the parameters of each representative flow line, the similar image search unit 116 integrates and displays the search results for each shooting location and each representative flow line obtained in steps S1004 to S1008. Display on the device 103. Since each search result is a search result using different types of salient regions as queries, the similar image search unit 116 normalizes the similarity when integrating. The search results may be displayed separately for each shooting location.

図11は、本発明の実施例1に係る映像検索システム100の処理シーケンスを説明する図であり、具体的には、以上に説明した映像検索システム100の映像登録処理、クエリパラメータ推定処理、検索処理における、ユーザ1101、計算機1102、映像データベース111、クエリパラメータ蓄積部113の処理シーケンスを説明する図である。なお、計算機1102は、映像検索装置104を実現する計算機である。図11では説明のために映像データベース111およびクエリパラメータ蓄積部113を計算機1102と区別して表示しているが、これらは計算機1102に含まれてもよい。図11のステップS1132、S1133、S1134はそれぞれ、映像登録処理、クエリパラメータ推定処理、検索処理に関する処理である。以下、図11の各ステップについて説明する。   FIG. 11 is a diagram illustrating a processing sequence of the video search system 100 according to the first embodiment of the present invention. Specifically, the video registration process, the query parameter estimation process, and the search of the video search system 100 described above are illustrated. It is a figure explaining the processing sequence of the user 1101, the computer 1102, the video database 111, and the query parameter storage part 113 in a process. A computer 1102 is a computer that implements the video search device 104. In FIG. 11, the video database 111 and the query parameter storage unit 113 are displayed separately from the computer 1102 for the sake of explanation, but these may be included in the computer 1102. Steps S1132, S1133, and S1134 in FIG. 11 are processes related to video registration processing, query parameter estimation processing, and search processing, respectively. Hereinafter, each step of FIG. 11 will be described.

[映像登録処理](図11:ステップS1003〜S1112)
ユーザ1101が映像記憶装置101から計算機1102に映像を入力すると(S1103)、計算機1102では、映像入力部105が抽出したフレームを、フレーム登録部106が映像データベース111に登録し(S1104)、映像データベース111が登録完了を通知する(S1105)。
[Video Registration Process] (FIG. 11: Steps S1003 to S1112)
When the user 1101 inputs video from the video storage device 101 to the computer 1102 (S1103), in the computer 1102, the frame registration unit 106 registers the frame extracted by the video input unit 105 in the video database 111 (S1104). 111 notifies the completion of registration (S1105).

次に、計算機1102では、動的物体追跡部107が、抽出されたフレーム内の動的物体を検出および追跡し(S1106)、追跡情報登録部108が追跡情報を映像データベース111に登録し(S1107)、映像データベース111が登録完了を通知する(S1108)。さらに、顕著領域検出部109が抽出されたフレーム内の顕著領域を検出し(S1109)、顕著領域登録部110が顕著領域を映像データベース111に登録し(S1110)、映像データベース111が登録完了を通知する(S1111)。全てのフレームの処理が終わると、映像登録完了がユーザ1101に通知される(S1112)。   Next, in the computer 1102, the dynamic object tracking unit 107 detects and tracks the dynamic object in the extracted frame (S1106), and the tracking information registration unit 108 registers the tracking information in the video database 111 (S1107). ), The video database 111 notifies registration completion (S1108). Further, the saliency area detection unit 109 detects the saliency area in the extracted frame (S1109), the saliency area registration unit 110 registers the saliency area in the video database 111 (S1110), and the video database 111 notifies the registration completion. (S1111). When all the frames have been processed, the video registration completion is notified to the user 1101 (S1112).

[クエリパラメータ推定処理](図11:ステップS1113〜S1119)
ユーザ1101が、映像検索装置104に対してクエリパラメータ推定処理の要求を出すと(S1113)、計算機1102では、クエリパラメータ推定部112が撮影場所毎の追跡情報を映像データベース111に要求し(S1114)、取得する(S1115)。
[Query Parameter Estimation Processing] (FIG. 11: Steps S1113 to S1119)
When the user 1101 issues a request for query parameter estimation processing to the video search device 104 (S1113), in the computer 1102, the query parameter estimation unit 112 requests tracking information for each shooting location from the video database 111 (S1114). (S1115).

クエリパラメータ推定部112は、図5〜図8の説明として前述した方法でクエリの決定に必要となるパラメータを導出し(S1116)、クエリパラメータ蓄積部113にパラメータを登録し(S1117)、クエリパラメータ蓄積部113が登録完了を通知する(S1118)。全ての撮影場所に対して、パラメータ推定処理が終わると、処理完了がユーザ1101に通知される(S1119)。   The query parameter estimation unit 112 derives a parameter necessary for determining a query by the method described above with reference to FIGS. 5 to 8 (S1116), registers the parameter in the query parameter storage unit 113 (S1117), and sets the query parameter. The storage unit 113 notifies registration completion (S1118). When the parameter estimation process is completed for all shooting locations, the user 1101 is notified of the completion of the process (S1119).

[検索処理](図11:ステップS1120〜S1131)
ユーザ1101が、映像データベース111に蓄積されたフレームから検索対象の動的物体(例えば検索対象302)を指定すると(S1120)、計算機1102では、クエリ決定部115が、検索対象の動的物体の追跡情報を映像データベース111に要求して(S1121)取得し(S1122)、パラメータをクエリパラメータ蓄積部に要求して(S1123)取得する(S1124)。
[Search Process] (FIG. 11: Steps S1120 to S1131)
When the user 1101 designates a search target dynamic object (for example, the search target 302) from the frames stored in the video database 111 (S1120), in the computer 1102, the query determination unit 115 tracks the search target dynamic object. Information is requested from the video database 111 (S1121) and acquired (S1122), and a parameter is requested from the query parameter storage unit (S1123) and acquired (S1124).

クエリ決定部115は、検索対象の動的物体の追跡情報と、撮影場所毎のクエリパラメータを用いて、図9〜図10の説明として前述した方法で、撮影場所毎のクエリを決定し(S1125)、ユーザ1101に提示する(S1126)。ユーザ1101が、提示されたクエリを確認し、検索要求を発行すると(S1127)、計算機1102では、類似画像検索部116が、決定されたクエリを用いて類似画像検索を行い(S1128)、映像データベース111から、類似画像検索結果を取得する(S1129)。計算機1102は、必要に応じて複数のクエリから得られた検索結果を統合し(S1130)、ユーザに提示する(S1131)。   The query determination unit 115 determines a query for each shooting location by the method described above with reference to FIGS. 9 to 10 using the tracking information of the dynamic object to be searched and the query parameters for each shooting location (S1125). ) To the user 1101 (S1126). When the user 1101 confirms the presented query and issues a search request (S1127), in the computer 1102, the similar image search unit 116 performs a similar image search using the determined query (S1128), and the video database. A similar image search result is acquired from 111 (S1129). The computer 1102 integrates search results obtained from a plurality of queries as necessary (S1130) and presents them to the user (S1131).

図12は、本発明の実施例1に係る映像検索装置104を用いて、映像中の物体を検索する際に使用する操作画面の構成例を表す図である。本画面は、表示装置103上でユーザに提示される。ユーザは、入力装置102を用いて、画面上に表示されたカーソル1207を操作することで、映像検索装置104に処理の指示を与える。   FIG. 12 is a diagram illustrating a configuration example of an operation screen used when searching for an object in a video using the video search device 104 according to the first embodiment of the present invention. This screen is presented to the user on the display device 103. The user operates the cursor 1207 displayed on the screen using the input device 102 to give a processing instruction to the video search device 104.

図12の操作画面は、映像選択ボタン1201、映像表示領域1202、クエリ表示領域1203、検索ボタン1204、および検索結果表示領域1205を有する。   The operation screen of FIG. 12 includes a video selection button 1201, a video display area 1202, a query display area 1203, a search button 1204, and a search result display area 1205.

ユーザは、まず、映像選択ボタン1201をクリックすることで、映像データベース111に記録された任意の映像を選択する。選択された映像は、映像表示領域1202に表示される。ユーザは、映像表示領域1202に表示された任意の動的物体302を検索対象として指定する。   First, the user clicks a video selection button 1201 to select an arbitrary video recorded in the video database 111. The selected video is displayed in the video display area 1202. The user designates an arbitrary dynamic object 302 displayed in the video display area 1202 as a search target.

映像検索装置104は、図9〜図10の説明として前述した方法で、指定された動的物体の動線上で適切なクエリを探索し、クエリ表示領域1203に表示する。   The video search apparatus 104 searches for an appropriate query on the flow line of the specified dynamic object by the method described above with reference to FIGS. 9 to 10, and displays it in the query display area 1203.

ユーザは表示されたクエリを確認し、必要であれば調整を行い、検索ボタン1204をクリックして検索要求を発行する。   The user confirms the displayed query, makes adjustments if necessary, and clicks a search button 1204 to issue a search request.

映像検索装置104は、各クエリの類似画像検索結果を検索結果表示領域1205に表示する。   The video search device 104 displays the similar image search result of each query in the search result display area 1205.

以上が本発明の実施例1に関する説明である。本実施例によれば、ユーザが容易に検索対象を指定することができ、撮影場所に応じた類似画像検索を実行することができる。また、各撮影場所に限定したクエリのみを用いることで、検索時間を短縮し、検索ノイズを軽減することができる。   The above is the description regarding the first embodiment of the present invention. According to the present embodiment, the user can easily specify the search target, and the similar image search corresponding to the shooting location can be executed. Further, by using only a query limited to each shooting location, the search time can be shortened and search noise can be reduced.

実施例1では、映像中の動的物体の追跡情報を用いて、類似画像検索を効率化する方法について述べた。動的物体の追跡は、通常、近接フレーム間の情報のみで対応付けを行うため、物体が長時間静止していた場合、または物体とカメラの間に遮蔽物があった場合等には、追跡が途切れてしまう場合がある。長時間の追跡ができない場合は、それぞれの動線上から得られるクエリの候補数が減ってしまうため、実施例1の効果が十分に発揮されない可能性がある。   In the first embodiment, the method for improving the efficiency of the similar image search using the tracking information of the dynamic object in the video has been described. Since tracking of a dynamic object is usually performed by using only information between adjacent frames, tracking is performed when the object is stationary for a long time or when there is an obstacle between the object and the camera. May be interrupted. When tracking for a long time is not possible, the number of query candidates obtained from each flow line is reduced, so that the effect of the first embodiment may not be sufficiently exhibited.

そこで実施例2では、映像データベース111に蓄積される顕著領域を用いて、追跡情報を補正する方法について述べる。以下に説明する相違点を除き、実施例2の映像検索システム100の各部は、図1〜図12に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。   Therefore, in the second embodiment, a method for correcting tracking information using a saliency area accumulated in the video database 111 will be described. Except for the differences described below, each part of the video search system 100 according to the second embodiment has the same function as each part denoted by the same reference numeral as the first embodiment shown in FIGS. Those explanations are omitted.

図13は、本発明の実施例2に係る映像検索システム100による、顕著領域を用いた追跡情報の補正を説明するための図である。   FIG. 13 is a diagram for explaining the tracking information correction using the saliency area by the video search system 100 according to the second embodiment of the present invention.

例えば、説明図1301には、ある映像において一定期間内に検出された3つの動線を示す。動線1と動線3は異なる人物の動線である。一方、動線1と動線2は本来同一人物の1本の動線であるはずだが、当該人物が遮蔽物1302の奥側を通過したために途中で分断されてしまっている。そのため、図13の左側に示すように、補正前の映像データベース111の追跡情報テーブル220および動的物体テーブル230には、同一人物の二つの動線が、それぞれ追跡ID:1および2を付与され、別の動線として記録されている。   For example, an explanatory diagram 1301 shows three flow lines detected within a certain period in a certain video. The flow line 1 and the flow line 3 are flow lines of different persons. On the other hand, although the flow line 1 and the flow line 2 should originally be one flow line of the same person, the person has been divided in the middle because the person has passed the back side of the shield 1302. Therefore, as shown on the left side of FIG. 13, the tracking information table 220 and the dynamic object table 230 of the video database 111 before correction are given two flow lines of the same person with tracking IDs 1 and 2, respectively. , Recorded as a separate flow line.

そこで本実施例の映像検索システム100は、各動線上の顕著領域をクエリとして、同一撮影場所の所定時間内の異なる動線上の顕著領域を対象として類似画像検索を行う。この結果、異なる動線上に類似度が所定値以上の顕著領域が見つかれば、それらの動線が同一物体の動線であると判定して、追跡情報を修正する。   Therefore, the video search system 100 according to the present embodiment performs a similar image search using the saliency areas on each flow line as a query and the saliency areas on different flow lines within a predetermined time at the same shooting location. As a result, if significant areas with similarities of a predetermined value or more are found on different flow lines, it is determined that those flow lines are flow lines of the same object, and the tracking information is corrected.

図13の右側に示す補正後の追跡情報テーブル220からは、補正前に存在していた追跡ID:2のエントリが削除され、追跡ID:2のエントリの動的物体IDリストの内容が追跡ID:1のエントリに追加されることで、2本の動線が1本に統合される。また、それに対応して、補正前の動的物体テーブル230の追跡ID:2も、図13の右側に示す補正後の動的物体テーブル230に示すように、追跡ID:1に変更される。図13のテーブルの太枠で囲んだ部分が本処理の結果修正された箇所である。   From the tracking information table 220 after correction shown on the right side of FIG. 13, the entry with tracking ID: 2 that existed before correction is deleted, and the contents of the dynamic object ID list of the entry with tracking ID: 2 are the tracking ID. : 1 is added to the entry, so that two flow lines are integrated into one. Correspondingly, the tracking ID: 2 of the dynamic object table 230 before correction is also changed to the tracking ID: 1, as shown in the corrected dynamic object table 230 shown on the right side of FIG. A portion surrounded by a thick frame in the table of FIG. 13 is a portion corrected as a result of this processing.

図14は、本発明の実施例2に係る映像検索装置104が、顕著領域を用いて追跡情報を補正する処理を説明するフローチャートである。以下、図14の各ステップについて説明する。   FIG. 14 is a flowchart for describing processing in which the video search apparatus 104 according to the second embodiment of the present invention corrects tracking information using a saliency area. Hereinafter, each step of FIG. 14 will be described.

(図14:ステップS1401〜S1406)
追跡情報登録部108は、所定時間内に検出された各動線についてステップS1401〜S1406を実行する。
(FIG. 14: Steps S1401 to S1406)
The tracking information registration unit 108 executes steps S1401 to S1406 for each flow line detected within a predetermined time.

(図14:ステップS1402)
追跡情報登録部108は、映像データベース111から、動線上の顕著領域を読み出す。
(FIG. 14: Step S1402)
The tracking information registration unit 108 reads the salient region on the flow line from the video database 111.

(図14:ステップS1403)
追跡情報登録部108は、顕著領域をクエリとして類似画像検索を行う。
(FIG. 14: Step S1403)
The tracking information registration unit 108 performs a similar image search using the saliency area as a query.

(図14:ステップS1404)
追跡情報登録部108は、所定時間内の異なる動線上に類似度が所定値以上の顕著領域が存在するか否かを判定し、存在する場合にはステップ1405を実行する。
(FIG. 14: Step S1404)
The tracking information registration unit 108 determines whether or not there is a saliency area whose similarity is equal to or higher than a predetermined value on different flow lines within a predetermined time, and if there is, executes step 1405.

(図14:ステップS1405)
追跡情報登録部108は、動線を結合し、それに応じて映像データベース111の追跡情報テーブル220、動的物体テーブル230を更新する。
(FIG. 14: Step S1405)
The tracking information registration unit 108 combines the flow lines and updates the tracking information table 220 and the dynamic object table 230 of the video database 111 accordingly.

実施例1の方法は、動線毎にクエリを選択するため、動線の特徴量が適切に記述されている必要がある。しかし、動的物体の追跡によって得られる動線の特徴は、あくまで映像中の2次元的な動きを表すものであり、奥行き情報(言い換えると、カメラから動的物体までの距離)は考慮されない。そのため、カメラの設置方法によっては、同様の動線であっても、その動線上の顕著領域の状態が変わってしまう可能性がある。   Since the method according to the first embodiment selects a query for each flow line, it is necessary to appropriately describe the feature amount of the flow line. However, the feature of the flow line obtained by tracking the dynamic object represents a two-dimensional motion in the video to the last, and depth information (in other words, the distance from the camera to the dynamic object) is not considered. Therefore, depending on the installation method of the camera, there is a possibility that the state of the saliency area on the flow line may change even if the flow line is the same.

図15は、本発明の実施例2に係る映像検索システム100による、奥行き情報を考慮した追跡情報の補正を説明するための図である。   FIG. 15 is a diagram for explaining tracking information correction in consideration of depth information by the video search system 100 according to the second embodiment of the present invention.

例えば、図15の説明図1501および1502には、それぞれ、場所1および場所2で撮影された映像に含まれる動的物体(この例では人物)の動線と、それぞれの動線上の複数の画像の例を示す。この例において、説明図1501に示す動的物体ID:1〜3の三つの画像は、一つの動的物体を、それぞれ、動線の始点付近、中間点付近および終点付近で撮影した画像である。顕著領域1501A〜1501Cは、それぞれ、動的物体ID:1〜3の画像の顕著領域(この例では顔)である。同様に、説明図1502に示す動的物体ID:11〜13の三つの画像は、一つの動的物体を、それぞれ、動線の始点付近、中間点付近および終点付近で撮影した画像である。顕著領域1502A〜1502Cは、それぞれ、動的物体ID:11〜13の画像の顕著領域である。   For example, in the explanatory diagrams 1501 and 1502 of FIG. 15, the flow lines of the dynamic objects (people in this example) included in the images taken at the place 1 and the place 2 and a plurality of images on the respective flow lines, respectively. An example of In this example, the three images of dynamic object IDs: 1 to 3 shown in the explanatory diagram 1501 are images obtained by photographing one dynamic object near the start point, the middle point, and the end point of the flow line, respectively. . The saliency areas 1501A to 1501C are saliency areas (faces in this example) of the images of the dynamic object IDs: 1 to 3, respectively. Similarly, the three images of dynamic object IDs 11 to 13 shown in the explanatory diagram 1502 are images obtained by photographing one dynamic object near the start point, the intermediate point, and the end point of the flow line, respectively. The saliency areas 1502A to 1502C are saliency areas of the images of the dynamic object IDs 11 to 13, respectively.

これらの二つの動線の形状は一致しているが、説明図1501に示す動線の始点から終点に至るまでの動的物体の位置の奥行き方向の変化はほとんどない(言い換えると、動的物体とカメラとの距離はほとんど変化しない)のに対して、説明図1502の動的物体は奥から手前に向かって移動している。これは、動線上の顕著領域のサイズ1503に示すように、顕著領域1501A〜Cのサイズがいずれも同じ(例えば10cm×10cm)であるのに対して、顕著領域1502A、BおよびCのサイズが(例えばそれぞれ5cm×5cm、7cm×7cmおよび10cm×10cmのように)変化していることからわかる。   Although the shapes of these two flow lines coincide, there is almost no change in the depth direction of the position of the dynamic object from the start point to the end point of the flow line shown in the explanatory diagram 1501 (in other words, the dynamic object The distance between the camera and the camera hardly changes), whereas the dynamic object in the explanatory diagram 1502 moves from the back toward the front. As shown in the size 1503 of the saliency area on the flow line, the saliency areas 1501A to 1501C have the same size (for example, 10 cm × 10 cm), whereas the saliency areas 1502A, B, and C have the same size. It can be seen from the change (for example, 5 cm × 5 cm, 7 cm × 7 cm, and 10 cm × 10 cm, respectively).

このことは、それぞれの場所において撮影された画面上の座標の変化としての動的物体の移動経路の形は同じであっても、それぞれの撮影場所の空間における三次元座標の変化としての動的物体の実際の移動経路が大きく異なることを意味する。このような場合には、それぞれの動線上の顕著領域の見え方が大きく異なる場合があるため、より適切な検索クエリを選択するためには、撮影場所の空間内の三次元座標の変化としての動的物体の移動経路(すなわち奥行き情報が付与された動線)を使用することが望ましい。   This means that even if the shape of the moving path of the dynamic object is the same as the change in the coordinates on the screen shot at each location, the dynamic as the change in the three-dimensional coordinates in the space of each shooting location. This means that the actual movement path of the object is greatly different. In such a case, the appearance of the saliency area on each flow line may be greatly different, so in order to select a more appropriate search query, as a change in the three-dimensional coordinates in the space of the shooting location It is desirable to use a moving path of a dynamic object (that is, a flow line to which depth information is given).

そこで本実施例では、追跡情報登録部108が、動線上の顕著領域のサイズ1503と、その顕著領域に対する事前知識1504とを用いて、動線に奥行き情報を付与する。事前知識1504は、種別ごとの顕著領域の標準サイズ、例えば、顕著領域の種別が顔である場合、25cm×25cmなど、に加えて、それぞれの撮影場所におけるカメラの設置位置(特に高さ)、設置方向(特に俯角)およびカメラのレンズの焦点距離等の情報を含む。これらの情報と、実際に撮影された顕著領域のサイズとに基づいて、その顕著領域を含む動的物体のカメラからの距離を推定することができる。   Therefore, in this embodiment, the tracking information registration unit 108 assigns depth information to the flow line using the size 1503 of the saliency area on the flow line and the prior knowledge 1504 for the saliency area. The prior knowledge 1504 includes the standard size of the saliency area for each type, for example, 25 cm × 25 cm when the saliency area type is a face, and the camera installation position (particularly height) at each shooting location, Information such as the installation direction (particularly the depression angle) and the focal length of the camera lens is included. Based on these pieces of information and the size of the saliency area actually captured, the distance from the camera of the dynamic object including the saliency area can be estimated.

動的物体テーブル230は、動的物体の奥行き情報を保持する奥行き特徴量フィールド236をさらに有してもよい。例えば、動線上の顕著領域のサイズが10cm×10cmである場合、それと標準サイズ25cm×25cmとの比率「10/25」が奥行き特徴量フィールド236に保持される。追跡情報登録部108は、奥行き特徴量と、上記のカメラの設置位置等に関する事前知識とに基づいて、画面上の動的物体の移動経路を示す動線を、撮影場所の三次元空間内の移動経路を示す動線に変換して、変換後の動線の特徴量を計算する。計算された特徴量は、例えば追跡情報テーブル220の奥行きを考慮した動線特徴量224に保持される。   The dynamic object table 230 may further include a depth feature amount field 236 that holds depth information of the dynamic object. For example, when the size of the salient region on the flow line is 10 cm × 10 cm, the ratio “10/25” between the size and the standard size 25 cm × 25 cm is held in the depth feature quantity field 236. The tracking information registration unit 108 generates a flow line indicating the moving path of the dynamic object on the screen in the three-dimensional space of the shooting location based on the depth feature amount and the prior knowledge about the installation position of the camera. It converts into the flow line which shows a movement path | route, and calculates the feature-value of the flow line after conversion. The calculated feature amount is held in the flow line feature amount 224 in consideration of the depth of the tracking information table 220, for example.

図16は、本発明の実施例2に係る映像検索装置104が、顕著領域を用いて追跡情報に奥行き情報を追加する処理を説明するフローチャートである。以下、図16の各ステップについて説明する。   FIG. 16 is a flowchart for describing processing in which the video search apparatus 104 according to the second embodiment of the present invention adds depth information to tracking information using a saliency area. Hereinafter, each step of FIG. 16 will be described.

(図16:ステップS1601〜S1607)
追跡情報登録部108は、動線上の各動的物体に対してステップS1601〜S1607を実行する。
(FIG. 16: Steps S1601 to S1607)
The tracking information registration unit 108 executes steps S1601 to S1607 for each dynamic object on the flow line.

(図16:ステップS1602)
追跡情報登録部108は、図8のステップ805と同様の方法で、検出された顕著領域の座標と動的物体の座標との重畳率を調べることで、動線上に顕著領域が存在するかどうかを調べ、顕著領域があればステップS1603を実行し、なければステップS1604を実行する。
(FIG. 16: Step S1602)
The tracking information registration unit 108 checks whether or not there is a saliency area on the flow line by checking the overlapping rate between the coordinates of the detected saliency area and the coordinates of the dynamic object in the same manner as in step 805 in FIG. If there is a saliency area, step S1603 is executed. If not, step S1604 is executed.

(図16:ステップS1603)
追跡情報登録部108は、事前知識1504から奥行き特徴を導出する。複数の顕著領域を用いて、奥行き特徴の信頼度をあげることもできる。
(FIG. 16: Step S1603)
The tracking information registration unit 108 derives a depth feature from the prior knowledge 1504. The reliability of the depth feature can be increased by using a plurality of saliency areas.

(図16:ステップS1604)
追跡情報登録部108は、顕著領域が検出されなければ、前後の隣接フレームの顕著領域から導出された奥行き情報から、奥行き特徴を補間する。
(FIG. 16: Step S1604)
If no saliency area is detected, the tracking information registration unit 108 interpolates the depth feature from the depth information derived from the saliency areas of the adjacent frames before and after.

(図16:ステップS1605)
追跡情報登録部108は、得られた奥行き情報を映像データベース111の動的物体テーブル230に追加する。
(FIG. 16: Step S1605)
The tracking information registration unit 108 adds the obtained depth information to the dynamic object table 230 of the video database 111.

(図16:ステップS1607)
追跡情報登録部108は、動線上の全ての動的に関する奥行き情報が得られたら、奥行きを考慮した動線特徴量を抽出し、映像データベース111の追跡情報テーブル220に追加する。
(FIG. 16: Step S1607)
When the tracking information registration unit 108 obtains all the dynamic depth information on the flow line, the tracking information registration unit 108 extracts the flow line feature amount considering the depth and adds the extracted flow line feature amount to the tracking information table 220 of the video database 111.

以上の処理によって抽出された動線特徴量に基づいて検索クエリを決定する方法は、実施例1と同様であるため、説明を省略する。このように、補正された追跡情報を用いることによって、動線特徴量に基づく最近傍動線探索903の検索精度をあげることができる。これによって、それぞれの撮影場所の映像により適した検索クエリを決定することができ、その結果として実施例1で述べた物体検索の精度を改善することができる。   The method for determining the search query based on the flow line feature amount extracted by the above processing is the same as that in the first embodiment, and thus the description thereof is omitted. Thus, by using the corrected tracking information, it is possible to increase the search accuracy of the nearest flow line search 903 based on the flow line feature amount. This makes it possible to determine a search query that is more suitable for the video at each shooting location, and as a result, it is possible to improve the accuracy of the object search described in the first embodiment.

実施例1では、同一動線上の別フレームの顕著領域を用いて類似画像検索を行うことで、検索精度を向上させていた。しかし、検索対象物を特徴付ける顕著領域が、その動線上には存在しない場合は、検索で得られる映像が限られてしまう場合がある。実施例3では、ユーザが指定したものとは異なる映像に含まれる検索対象物の顕著領域をユーザに通知する方法について述べる。以下に説明する相違点を除き、実施例3の映像検索システム100の各部は、図1〜図12に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。   In the first embodiment, the search accuracy is improved by performing a similar image search using a salient region in another frame on the same flow line. However, if there is no saliency area characterizing the search object on the flow line, the video obtained by the search may be limited. In the third embodiment, a method for notifying a user of a salient area of a search target included in a video different from that specified by the user will be described. Except for differences described below, each part of the video search system 100 according to the third embodiment has the same function as each part denoted by the same reference numeral in the first embodiment shown in FIGS. Those explanations are omitted.

図17は、本発明の実施例3における異なる映像に存在するクエリの提示に関する説明図である。   FIG. 17 is an explanatory diagram relating to presentation of queries existing in different videos according to the third embodiment of the present invention.

例えば、説明図1701には、場所1で撮影された映像から抽出された検索対象の人物の動線を示す。この動線上には検索対象の人物の顔および服色の顕著領域が現れている。これに対して、説明図1702には、場所1とは別の場所2で撮影された映像から抽出された、検索対象と同一人物の動線を示す。これらの動線が同一人物のものであることは、それぞれの動線上の顔の顕著領域1701Aおよび1702Aの画像特徴量に基づいて判定される。そして、説明図1702の動線上の画像からは、さらに、当該人物の特徴的な所有物(例えばカバン)の顕著領域1702Bが見つかる。このような異なる映像(例えば異なる場所で撮影された映像または同じ場所で異なる時間帯に撮影された映像など)の顕著領域を、ユーザに通知することができれば、ユーザはより多くの映像を検索することができる。   For example, an explanatory diagram 1701 shows a flow line of a search target person extracted from a video photographed at a place 1. On the flow line, the face of the person to be searched and the salient area of the clothing color appear. On the other hand, the explanatory diagram 1702 shows the flow lines of the same person as the search target extracted from the video shot at the place 2 different from the place 1. Whether these flow lines belong to the same person is determined based on the image feature amounts of the salient areas 1701A and 1702A of the face on the respective flow lines. Further, from the image on the flow line in the explanatory diagram 1702, a saliency area 1702B of a characteristic possession (for example, a bag) of the person is found. If it is possible to notify the user of a noticeable area of such a different video (for example, a video shot at a different place or a video shot at the same place at different times), the user searches for more videos. be able to.

例えば、説明図1703には、場所1および場所2のいずれとも異なる場所3で撮影された映像から抽出された動線を示す。この例において、当該動線は、説明図1701および1702に示したものと同一人物の動線であるが、この動線上の顕著領域として、顔および服色のいずれも検出されず、カバンの顕著領域1703Aが検出されている。この場合、場所1の映像から抽出された顔または服色の顕著領域の画像特徴量を検索クエリとして用いても、場所3の映像から検索対象の人物を検索することができないが、カバンの顕著領域1702Bの画像特徴量を検索クエリとして用いれば、当該人物を検索することができる。   For example, the explanatory diagram 1703 shows a flow line extracted from a video shot at a place 3 different from both the place 1 and the place 2. In this example, the flow line is the flow line of the same person as shown in the explanatory diagrams 1701 and 1702, but neither the face nor the clothing color is detected as a prominent region on the flow line, and the bag is prominent. A region 1703A is detected. In this case, even if the image feature amount of the salient region of the face or clothing color extracted from the video of the place 1 is used as a search query, the person to be searched cannot be searched from the video of the place 3, but the bag is prominent. If the image feature amount in the area 1702B is used as a search query, the person can be searched.

画面1704および1705は、異なる映像に存在する顕著領域をユーザに通知するために表示装置103に表示される画面の例である。画面1704には、ユーザが検索対象の人物を選んだ映像のフレームが表示される。表示装置103は、さらに、上記の方法で別の映像から検出された顕著領域をポップアップで表示しても良い。画面1704の例では、別のカメラ(外部カメラ2)で撮影された映像から抽出された、検索対象の人物の所有物であるカバンと、さらに別のカメラ(外部カメラ4)で撮影された映像から検出された、検索対象の人物の所有物である帽子が、それぞれポップアップ1704Aおよび1704Bによって表示される。   Screens 1704 and 1705 are examples of screens displayed on the display device 103 in order to notify the user of salient areas existing in different videos. The screen 1704 displays a frame of a video in which the user has selected a search target person. The display device 103 may further display a saliency area detected from another video by the above method in a pop-up. In the example of the screen 1704, a bag that is the property of the person to be searched, extracted from a video captured by another camera (external camera 2), and a video captured by another camera (external camera 4). The hats belonging to the person to be searched, detected from the above, are displayed by pop-ups 1704A and 1704B, respectively.

一方、画面1705には、異なる映像から検出された顕著領域の間の関係性がグラフ表示される。画面1705の例では、場所1を表すノード1705Aと、顔の顕著領域を表すノード1705Bと、服色の顕著領域を表すノード1705Cとが表示され、ノード1705Aと1705Bがエッジで結合され、ノード1705Aと1705Cもエッジで結合されている。これは、場所1で撮影された検索対象の人物の画像から、顔の顕著領域(例えば顕著領域1701A)および服色の顕著領域が検出されたことを示している。   On the other hand, on the screen 1705, the relationship between the saliency areas detected from different images is displayed in a graph. In the example of the screen 1705, a node 1705A representing the location 1, a node 1705B representing the salient area of the face, and a node 1705C representing the salient area of the clothing color are displayed, and the nodes 1705A and 1705B are joined by an edge. And 1705C are also connected by an edge. This indicates that a salient area (for example, salient area 1701A) of the face and a salient area of clothing color are detected from the image of the person to be searched, which is taken at location 1.

さらに、画面1705には、それぞれ場所2、顔の顕著領域、服色の顕著領域およびカバンの顕著領域を表すノード1705D、1705E、1705Fおよび1705Gが表示され、ノード1705Dは、ノード1705E、1705Fおよび1705Gのそれぞれとエッジで結合されている。さらに、ノード1705Eはノード1705Bと、ノード1705Fはノード1705Cと、それぞれエッジで結合されている。これらは、場所2の映像から抽出されたある動線上の顔の顕著領域(例えば顕著領域1702A)および服色の顕著領域が、それぞれ、場所1の検索対象の顔の顕著領域(例えば顕著領域1701A)および服色の顕著領域と類似しており、その動線上の顕著領域としてカバンの顕著領域(例えば顕著領域1702B)がさらに検出されたことを示している。   Further, the screen 1705 displays nodes 1705D, 1705E, 1705F, and 1705G representing the location 2, the salient area of the face, the salient area of the clothing color, and the salient area of the bag, respectively. The node 1705D includes nodes 1705E, 1705F, and 1705G. Are connected with each of the edges. Further, the node 1705E is coupled to the node 1705B, and the node 1705F is coupled to the node 1705C at the edges. These are a saliency area (for example, saliency area 1702A) of a face on a certain flow line extracted from the video of place 2 and a saliency area for clothing color, respectively. ) And clothes color salient areas, indicating that a salient area of the bag (for example, salient area 1702B) is further detected as a salient area on the flow line.

さらに、画面1705には、それぞれ場所4、顔の顕著領域および帽子の顕著領域を表すノード1705H、1705Iおよび1705Jが表示され、ノード1705Hは、ノード1705Iおよび1705Jのそれぞれとエッジで結合されている。さらに、ノード1705Iはノード1705Bとエッジで結合されている。これらは、場所4の映像から抽出されたある動線上の顔の顕著領域が、場所1の検索対象の顔の顕著領域(例えば顕著領域1701A)と類似しており、その動線上の顕著領域として帽子の顕著領域がさらに検出されたことを示している。   Further, the screen 1705 displays nodes 1705H, 1705I, and 1705J representing the location 4, the salient area of the face, and the salient area of the hat, respectively, and the node 1705H is coupled to each of the nodes 1705I and 1705J by edges. Further, the node 1705I is coupled to the node 1705B at the edge. In these, the salient area of the face on a certain flow line extracted from the video of the place 4 is similar to the salient area (for example, the salient area 1701A) of the face to be searched for the place 1, and the salient area on the flow line is This indicates that a more prominent region of the hat has been detected.

ユーザは、上記の表示を参照して、検索クエリに使用される新たな顕著領域を指定することができる。例えば、ユーザが入力装置102を使用してポップアップ1704Aまたはノード1705Gを指定した場合、カバンの顕著領域の画像特徴量を検索クエリとする類似画像検索が実行される。これによって、場所3のカバンの顕著領域1703Aを含む画像を検索結果として取得することができる。例えば、場所3で撮影された映像には、検索対象の人物の顔も服色も検索可能な程度に映っていないが、カバンは映っている場合、場所1で検出された顔または服色の画像特徴量を用いた類似画像検索では、場所3の映像から当該人物の画像を取得することはできない。しかし、上記のように、場所2で取得されたカバンの画像特徴量を検索クエリとして用いることによって、場所3の映像から当該人物の画像を取得することが可能になる。   The user can designate a new salient area used for the search query with reference to the above display. For example, when the user designates the pop-up 1704A or the node 1705G using the input device 102, a similar image search is executed using the image feature amount of the salient area of the bag as a search query. Thereby, an image including the remarkable area 1703A of the bag at the place 3 can be acquired as a search result. For example, in the video taken at the place 3, the face of the person to be searched and the clothes color are not shown to the extent that they can be searched, but when the bag is shown, the face or clothes color detected at the place 1 In the similar image search using the image feature amount, the image of the person cannot be acquired from the video at the place 3. However, as described above, by using the image feature amount of the bag acquired at the location 2 as a search query, it is possible to acquire the image of the person from the video at the location 3.

図18は、本発明の実施例3に係る映像検索装置104が、異なる映像から新しい種別の顕著領域を探索する処理を説明するフローチャートである。以下、図18の各ステップについて説明する。   FIG. 18 is a flowchart for explaining processing in which the video search apparatus 104 according to the third embodiment of the present invention searches for a new type of saliency area from different videos. Hereinafter, each step of FIG. 18 will be described.

(図18:ステップS1801)
クエリ決定部115は、ユーザが指定した動的物体から、撮影場所毎にクエリを選択する。この処理は、図10のステップS1006までの処理と同様である。
(FIG. 18: Step S1801)
The query determination unit 115 selects a query for each shooting location from dynamic objects specified by the user. This process is the same as the process up to step S1006 in FIG.

(図18:ステップS1802〜S1805)
クエリ決定部115は、撮影場所毎に選択されたクエリに対して、ステップS1802〜S1805を実行する。
(FIG. 18: Steps S1802 to S1805)
The query determination unit 115 executes steps S1802 to S1805 for the query selected for each shooting location.

(図18:ステップS1803)
類似画像検索部116は、選択されたクエリを用いて指定撮影場所に対して類似画像検索を行う。
(FIG. 18: Step S1803)
The similar image search unit 116 performs a similar image search for the designated shooting location using the selected query.

(図18:ステップS1804)
類似画像検索部116は、検索結果が属する動線上に新しい種別の顕著領域が見つかれば、例えば図17の画面1704または1705のような表示方法によってユーザに通知する。この通知に基づいてユーザがいずれかの顕著領域を指定した場合、類似画像検索部116は、指定された顕著領域の画像特徴量を含む検索クエリを用いて、図10のステップS1007を実行する。
(FIG. 18: Step S1804)
The similar image search unit 116 notifies the user by a display method such as a screen 1704 or 1705 in FIG. 17 when a new type of remarkable area is found on the flow line to which the search result belongs. When the user designates any saliency area based on this notification, the similar image search unit 116 executes step S1007 in FIG. 10 using a search query including the image feature amount of the designated saliency area.

以上の実施例では、ユーザが指定した物体を検索する用途について説明した。一方で、ユーザが特定の検索対象を想定せず、所定の期間内に出現した全ての物体を効率的に把握したい場合がある。実施例4では、長時間の映像を要約表示する方法について説明する。以下に説明する相違点を除き、実施例4の映像検索システム100の各部は、図1〜図12に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。   In the above embodiment, the use of searching for an object designated by the user has been described. On the other hand, there are cases where the user does not assume a specific search target and wants to efficiently grasp all objects that have appeared within a predetermined period. In the fourth embodiment, a method for summarizing and displaying a long-time video will be described. Except for differences described below, each part of the video search system 100 according to the fourth embodiment has the same function as each part denoted by the same reference numeral in the first embodiment shown in FIGS. Those explanations are omitted.

図19は、本発明の実施例4における追跡情報を用いた映像要約を説明するための図である。   FIG. 19 is a diagram for explaining video summarization using tracking information according to the fourth embodiment of the present invention.

映像データベース111は、各フレームで検出された動的物体の情報を保持しているため、例えば横軸に時間(フレーム番号)、縦軸に動的物体の検出数をとったグラフ1901を生成することができる。ユーザが、入力装置102を用いてカーソル1207を操作することで、例えば、動的物体が多く存在する時間帯1905を選択すると、その時間帯1905で検出された全ての動的物体がフレームに重畳表示される。しかしこのままでは、多数の動的物体が混在してしまい、視認性が悪い。説明図1902は、表示装置103によって表示される画面の例である。この例では、4人の人物の動線上の画像が一つのフレームに表示されているが、それぞれの人物について多数の画像が表示されるため、画面が混雑して視認性が低下する。   Since the video database 111 holds information on dynamic objects detected in each frame, for example, a graph 1901 is generated with time (frame number) on the horizontal axis and the number of detected dynamic objects on the vertical axis. be able to. When the user operates the cursor 1207 using the input device 102 to select, for example, a time zone 1905 in which many dynamic objects exist, all the dynamic objects detected in the time zone 1905 are superimposed on the frame. Is displayed. However, in this state, a large number of dynamic objects are mixed and visibility is poor. An explanatory diagram 1902 is an example of a screen displayed by the display device 103. In this example, images on the flow lines of four persons are displayed in one frame, but since many images are displayed for each person, the screen is crowded and visibility is reduced.

そこで、本実施例の映像検索システム100は、映像データベース111の追跡情報を用いて、各動線につき一つの動的物体の画像のみを表示する。動的物体が重なる場合は、重畳させる物体画像を動線上で移動させ、物体同士が重ならないように調整する。説明図1903は、本実施例の表示装置103によって表示される画面の例である。この例では、ある人物の動線1903Aが表示され、その動線1903A上の人物の複数の画像のうち、一つの画像1903Bのみが表示される。同様に、各人物について、動線と、当該動線上の一つの画像とが表示され、当該動線上の画像は、既に表示されている他の人物の画像と重畳しないように表示される。これによって画面の混雑が解消され、視認性が向上する。   Therefore, the video search system 100 according to the present embodiment displays only one dynamic object image for each flow line using the tracking information of the video database 111. When the dynamic objects overlap, the object image to be superimposed is moved on the flow line and adjusted so that the objects do not overlap each other. An explanatory diagram 1903 is an example of a screen displayed by the display device 103 of this embodiment. In this example, a flow line 1903A of a certain person is displayed, and only one image 1903B is displayed among a plurality of images of the person on the flow line 1903A. Similarly, for each person, a flow line and one image on the flow line are displayed, and the image on the flow line is displayed so as not to be superimposed on an image of another person already displayed. This eliminates screen congestion and improves visibility.

また、実施例1で述べた、クエリ決定の方法を用いて、各動的物体に対してクエリとなる顕著領域を強調表示させることで、各物体をより効率的に把握可能となる。説明図1903は、本実施例の表示装置103によって表示される画面の別の例である。この例では、ある人物について、動線1903Aおよび動線上の画像1903Bに加えて、当該動線上の顕著領域1904Aがポップアップ表示される。他の人物についても同様である。   In addition, by using the query determination method described in the first embodiment and highlighting the saliency area that becomes a query for each dynamic object, each object can be grasped more efficiently. An explanatory diagram 1903 is another example of a screen displayed by the display device 103 of this embodiment. In this example, for a certain person, in addition to the flow line 1903A and the image 1903B on the flow line, a saliency area 1904A on the flow line is displayed in a pop-up manner. The same applies to other persons.

なお、一つの動線上の画像の全てに顕著領域の画像が含まれているとは限らない。本実施例の映像検索システム100は、各人物の複数の画像のうち表示する一つを選択するときに、顕著領域を含む画像を優先的に選択してもよい。   Note that not all the images on one flow line include the image of the saliency area. The video search system 100 according to the present embodiment may preferentially select an image including a saliency area when selecting one to be displayed from among a plurality of images of each person.

図20は、本発明の実施例4に係る映像検索システム100が実行する追跡情報を用いた映像要約の処理を表すフローチャートである。以下、図20の各ステップについて説明する。   FIG. 20 is a flowchart showing video summary processing using tracking information executed by the video search system 100 according to the fourth embodiment of the present invention. Hereinafter, each step of FIG. 20 will be described.

(図20:ステップS2001)
クエリ決定部115は、ユーザが指定した撮影場所、時間内の全ての動線情報を読み出す。
(FIG. 20: Step S2001)
The query determination unit 115 reads out all the flow line information within the shooting location and time designated by the user.

(図20:ステップS2002〜S2008)
クエリ決定部115は、ステップS2001で得られた各動線に対してステップS2002〜S2008を実行する。
(FIG. 20: Steps S2002 to S2008)
The query determination unit 115 executes steps S2002 to S2008 for each flow line obtained in step S2001.

(図20:ステップS2003)
クエリ決定部115は、動線上のクエリに適する顕著領域を探索する。この処理は、図10で説明した処理と同様である。
(FIG. 20: Step S2003)
The query determination unit 115 searches for a saliency area suitable for the query on the flow line. This process is the same as the process described in FIG.

(図20:ステップS2004)
クエリ決定部115は、顕著領域が存在するフレームにおける、動的物体の座標を映像データベース111から読み出す。
(FIG. 20: Step S2004)
The query determination unit 115 reads the coordinates of the dynamic object in the frame where the saliency area exists from the video database 111.

(図20:ステップS2005)
クエリ決定部115は、ステップS2004で読み出された動的物体の座標の範囲が表示済みの動的物体の座標の範囲と重なるか否かを判定し、重なる場合はステップS2006を実行し、重ならない場合はステップS2007を実行する。
(FIG. 20: Step S2005)
The query determination unit 115 determines whether or not the coordinate range of the dynamic object read in step S2004 overlaps the coordinate range of the displayed dynamic object, and if so, executes step S2006, If not, step S2007 is executed.

(図20:ステップS2006)
クエリ決定部115は、動的物体の座標を動線上で移動させ、ステップS2005に戻る。
(FIG. 20: Step S2006)
The query determination unit 115 moves the coordinates of the dynamic object on the flow line, and returns to step S2005.

(図20:ステップS2007)
映像検索装置104は、動線上に動的物体の画像を重畳させ、表示装置103に表示する。
(FIG. 20: Step S2007)
The video search device 104 superimposes an image of a dynamic object on the flow line and displays it on the display device 103.

以上の処理によって、動的物体の追跡情報および顕著領域検出を用いて、指定時間内に出現した動的物体とその顕著領域をユーザが効率的に把握することが可能になる。   With the above processing, it becomes possible for the user to efficiently grasp the dynamic object that has appeared within the specified time and the saliency area by using the tracking information of the dynamic object and the saliency area detection.

なお、本発明は上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to the Example mentioned above, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function is a memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), or a computer-readable non-transitory data such as an IC card, an SD card, or a DVD. It can be stored in a storage medium.

また、図面には、実施例を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。   Further, the drawings show control lines and information lines that are considered necessary for explaining the embodiments, and not necessarily all control lines and information lines included in an actual product to which the present invention is applied. Not necessarily. Actually, it may be considered that almost all the components are connected to each other.

100:映像検索システム
101:映像記憶装置
102:入力装置
103:表示装置
104:映像検索装置
105:映像入力部
106:フレーム登録部
107:動的物体追跡部
108:追跡情報登録部
109:顕著領域検出部
110:顕著領域登録部
111:映像データベース
112:クエリパラメータ推定部
113:クエリパラメータ蓄積部
114:クエリ入力部
115:クエリ決定部
116:類似画像検索部
100: video search system 101: video storage device 102: input device 103: display device 104: video search device 105: video input unit 106: frame registration unit 107: dynamic object tracking unit 108: tracking information registration unit 109: salient area Detection unit 110: Striking area registration unit 111: Video database 112: Query parameter estimation unit 113: Query parameter storage unit 114: Query input unit 115: Query determination unit 116: Similar image search unit

Claims (15)

プロセッサと、前記プロセッサに接続される記憶装置と、を有する映像検索装置であって、
第1の場所で撮影された複数のフレームからなる第1の映像、および、第2の場所で撮影された複数のフレームからなる第2の映像のそれぞれから、一つ以上の移動体の移動経路を検出して前記記憶装置に格納し、
前記第1の映像から検出された前記一つ以上の移動体のうち選択された移動体の、前記フレームごとの画像特徴量を抽出して前記記憶装置に格納し、
前記第1の映像から検出された前記選択された移動体の移動経路、および、前記第2の映像から検出された前記一つ以上の移動体の移動経路に基づいて、前記抽出した画像特徴量のうち、検索クエリとして使用するクエリ画像特徴量を選択し、
前記クエリ画像特徴量を用いて、前記第2の映像から抽出された前記一つ以上の移動体の画像特徴量を検索し、
前記検索の結果を出力することを特徴とする映像検索装置。
A video search device having a processor and a storage device connected to the processor,
One or more moving paths of one or more moving objects from each of the first video composed of a plurality of frames photographed at the first location and the second video composed of the plurality of frames photographed at the second location. Is detected and stored in the storage device,
Extracting the image feature amount for each frame of the selected moving body from the one or more moving bodies detected from the first video, and storing the extracted image feature amount in the storage device;
The extracted image feature amount based on the movement path of the selected moving body detected from the first video and the movement path of the one or more moving bodies detected from the second video. Select the query image feature to use as the search query,
Using the query image feature amount, search for the image feature amount of the one or more moving objects extracted from the second video,
A video search apparatus that outputs the search result.
請求項1に記載の映像検索装置であって、
前記第2の映像には、複数の前記移動体の画像が含まれ、
前記映像検索装置は、
前記第2の映像から検出した前記複数の移動体の移動経路を、それぞれの移動経路の特徴量に基づいて複数のクラスタに分類して、それぞれのクラスタの移動経路を代表する代表経路を生成し、
前記選択された移動体の移動経路を分割することによって、複数の部分経路を生成し、
前記複数のクラスタの代表経路の特徴量と、前記複数の部分経路の特徴量と、に基づいて、前記複数の部分経路のうち、いずれかの前記代表経路に最も類似する部分経路を検索し、
前記検索によって得られた部分経路上の前記選択された移動体の画像特徴量を前記クエリ画像特徴量として選択することを特徴とする映像検索装置。
The video search device according to claim 1,
The second video includes a plurality of images of the moving body,
The video search device
The movement paths of the plurality of moving bodies detected from the second video are classified into a plurality of clusters based on the feature amount of each movement path, and a representative path that represents the movement path of each cluster is generated. ,
Generating a plurality of partial paths by dividing the movement path of the selected moving body;
Based on the feature amount of the representative route of the plurality of clusters and the feature amount of the plurality of partial routes, a partial route that is most similar to any one of the representative routes is searched from among the plurality of partial routes.
An image search apparatus, wherein an image feature amount of the selected moving body on the partial path obtained by the search is selected as the query image feature amount.
請求項1に記載の映像検索装置であって、
前記記憶装置は、前記第1の映像から抽出された第1の移動体および第2の移動体の移動経路に関する情報を格納し、
前記映像検索装置は、さらに、前記第1の移動体の画像特徴量および前記第2の移動体の画像特徴量に基づいて、前記第1の映像から検出された前記第1の移動体の画像と前記第2の移動体の画像とが類似すると判定された場合、前記第2の移動体の移動経路に関する情報を前記第1の移動体の移動経路に関する情報に統合することを特徴とする映像検索装置。
The video search device according to claim 1,
The storage device stores information on a moving path of the first moving body and the second moving body extracted from the first video,
The video search device further includes an image of the first moving body detected from the first video based on an image feature amount of the first moving body and an image feature amount of the second moving body. When the image of the second moving body is determined to be similar to the image of the second moving body, the information about the moving path of the second moving body is integrated with the information about the moving path of the first moving body. Search device.
請求項1に記載の映像検索装置であって、
前記選択された移動体の画像および前記第2の映像から検出された移動体の画像がいずれも所定の第1の種別の領域を含み、前記選択された画像に含まれる前記第1の種別の領域の画像と、前記第2の映像から検出された移動体の画像に含まれる前記第1の種別の領域の画像と、が類似し、かつ、前記第2の映像から抽出された移動体の画像がさらに第2の種別の領域を含む場合、前記第2の種別の領域に関する情報を出力することを特徴とする映像検索装置。
The video search device according to claim 1,
Both the image of the selected moving body and the image of the moving body detected from the second video include a predetermined first type area, and the first type of the first type included in the selected image. The image of the area is similar to the image of the first type area included in the image of the moving object detected from the second video, and the moving object extracted from the second video is When the image further includes an area of the second type, the video search apparatus outputs information related to the area of the second type.
請求項1に記載の映像検索装置であって、
表示装置をさらに有し、
いずれかの映像から複数の移動体の画像が検出され、かつ、前記各移動体の複数の画像が検出された場合、前記各移動体の複数の画像の一つを選択し、前記各移動体の前記選択された画像を他の移動体の前記選択された画像と重複しないように表示することを特徴とする映像検索装置。
The video search device according to claim 1,
A display device;
When images of a plurality of moving bodies are detected from any video and a plurality of images of the respective moving bodies are detected, one of the plurality of images of the respective moving bodies is selected, and each of the moving bodies is selected. The video search apparatus is characterized in that the selected image is displayed so as not to overlap with the selected image of another moving body.
プロセッサと、前記プロセッサに接続される記憶装置と、を有する映像検索装置が実行する映像検索方法であって、
第1の場所で撮影された複数のフレームからなる第1の映像、および、第2の場所で撮影された複数のフレームからなる第2の映像のそれぞれから、一つ以上の移動体の移動経路を検出して前記記憶装置に格納する第1手順と、
前記第1の映像から検出された前記一つ以上の移動体のうち選択された移動体の、前記フレームごとの画像特徴量を抽出して前記記憶装置に格納する第2手順と、
前記第1の映像から検出された前記選択された移動体の移動経路、および、前記第2の映像から検出された前記一つ以上の移動体の移動経路に基づいて、前記抽出した画像特徴量のうち、検索クエリとして使用するクエリ画像特徴量を選択する第3手順と、
前記クエリ画像特徴量を用いて、前記第2の映像から抽出された前記一つ以上の移動体の画像特徴量を検索する第4手順と、
前記検索の結果を出力する第5手順と、を含むことを特徴とする映像検索方法。
A video search method executed by a video search device having a processor and a storage device connected to the processor,
One or more moving paths of one or more moving objects from each of the first video composed of a plurality of frames photographed at the first location and the second video composed of the plurality of frames photographed at the second location. Detecting and storing in the storage device;
A second procedure of extracting an image feature amount for each frame of a selected moving body from the one or more moving bodies detected from the first video and storing the extracted image feature amount in the storage device;
The extracted image feature amount based on the movement path of the selected moving body detected from the first video and the movement path of the one or more moving bodies detected from the second video. A third procedure for selecting a query image feature value to be used as a search query,
A fourth procedure for searching for image feature quantities of the one or more moving objects extracted from the second video using the query image feature quantities;
And a fifth procedure for outputting a result of the search.
請求項6に記載の映像検索方法であって、
前記第2の映像には、複数の前記移動体の画像が含まれ、
前記第3手順は、
前記第2の映像から検出した前記複数の移動体の移動経路を、それぞれの移動経路の特徴量に基づいて複数のクラスタに分類して、それぞれのクラスタの移動経路を代表する代表経路を生成する手順と、
前記選択された移動体の移動経路を分割することによって、複数の部分経路を生成する手順と、
前記複数のクラスタの代表経路の特徴量と、前記複数の部分経路の特徴量と、に基づいて、前記複数の部分経路のうち、いずれかの前記代表経路に最も類似する部分経路を検索する手順と、
前記検索によって得られた部分経路上の前記選択された移動体の画像特徴量を前記クエリ画像特徴量として選択する手順と、を含むことを特徴とする映像検索方法。
The video search method according to claim 6,
The second video includes a plurality of images of the moving body,
The third procedure includes
The movement paths of the plurality of moving bodies detected from the second video are classified into a plurality of clusters based on the feature amounts of the respective movement paths, and representative paths that represent the movement paths of the respective clusters are generated. Procedure and
Generating a plurality of partial paths by dividing the movement path of the selected moving body;
A procedure for searching for a partial route that is most similar to any one of the representative routes out of the plurality of partial routes based on the feature amount of the representative route of the plurality of clusters and the feature amount of the plurality of partial routes. When,
And a procedure for selecting an image feature quantity of the selected moving object on the partial path obtained by the search as the query image feature quantity.
請求項6に記載の映像検索方法であって、
前記記憶装置は、前記第1の映像から抽出された第1の移動体および第2の移動体の移動経路に関する情報を格納し、
前記映像検索方法は、さらに、前記第1の移動体の画像特徴量および前記第2の移動体の画像特徴量に基づいて、前記第1の映像から検出された前記第1の移動体の画像と前記第2の移動体の画像とが類似すると判定された場合、前記第2の移動体の移動経路に関する情報を前記第1の移動体の移動経路に関する情報に統合する手順を含むことを特徴とする映像検索方法。
The video search method according to claim 6,
The storage device stores information on a moving path of the first moving body and the second moving body extracted from the first video,
The video search method further includes an image of the first moving body detected from the first video based on an image feature amount of the first moving body and an image feature amount of the second moving body. And when the image of the second moving body is determined to be similar, the method includes a step of integrating information related to the moving path of the second moving body into information related to the moving path of the first moving body. Video search method.
請求項6に記載の映像検索方法であって、
前記選択された移動体の画像および前記第2の映像から検出された移動体の画像がいずれも所定の第1の種別の領域を含み、前記選択された画像に含まれる前記第1の種別の領域の画像と、前記第2の映像から検出された移動体の画像に含まれる前記第1の種別の領域の画像と、が類似し、かつ、前記第2の映像から抽出された移動体の画像がさらに第2の種別の領域を含む場合、前記第2の種別の領域に関する情報を出力する手順をさらに含むことを特徴とする映像検索方法。
The video search method according to claim 6,
Both the image of the selected moving body and the image of the moving body detected from the second video include a predetermined first type area, and the first type of the first type included in the selected image. The image of the area is similar to the image of the first type area included in the image of the moving object detected from the second video, and the moving object extracted from the second video is A video search method, further comprising a step of outputting information on the second type area when the image further includes a second type area.
請求項6に記載の映像検索方法であって、
いずれかの映像から複数の移動体の画像が検出され、かつ、前記各移動体の複数の画像が検出された場合、前記各移動体の複数の画像の一つを選択し、前記各移動体の前記選択された画像を他の移動体の前記選択された画像と重複しないように表示する手順をさらに含むことを特徴とする映像検索方法。
The video search method according to claim 6,
When images of a plurality of moving bodies are detected from any video and a plurality of images of the respective moving bodies are detected, one of the plurality of images of the respective moving bodies is selected, and each of the moving bodies is selected. The video search method further includes a step of displaying the selected image so as not to overlap with the selected image of another moving body.
計算機を制御するプログラムを格納する非一時的な計算機読み取り可能な記憶媒体であって、
前記計算機は、プロセッサと、前記プロセッサに接続される記憶装置と、を有し、
前記プログラムは、
第1の場所で撮影された複数のフレームからなる第1の映像、および、第2の場所で撮影された複数のフレームからなる第2の映像のそれぞれから、一つ以上の移動体の移動経路を検出して前記記憶装置に格納する第1手順と、
前記第1の映像から検出された前記一つ以上の移動体のうち選択された移動体の、前記フレームごとの画像特徴量を抽出して前記記憶装置に格納する第2手順と、
前記第1の映像から検出された前記選択された移動体の移動経路、および、前記第2の映像から検出された前記一つ以上の移動体の移動経路に基づいて、前記抽出した画像特徴量のうち、検索クエリとして使用するクエリ画像特徴量を選択する第3手順と、
前記クエリ画像特徴量を用いて、前記第2の映像から抽出された前記一つ以上の移動体の画像特徴量を検索する第4手順と、
前記検索の結果を出力する第5手順と、を前記プロセッサに実行させることを特徴とする非一時的な計算機読み取り可能な記憶媒体。
A non-transitory computer-readable storage medium storing a program for controlling a computer,
The computer includes a processor and a storage device connected to the processor,
The program is
One or more moving paths of one or more moving objects from each of the first video composed of a plurality of frames photographed at the first location and the second video composed of the plurality of frames photographed at the second location. Detecting and storing in the storage device;
A second procedure of extracting an image feature amount for each frame of a selected moving body from the one or more moving bodies detected from the first video and storing the extracted image feature amount in the storage device;
The extracted image feature amount based on the movement path of the selected moving body detected from the first video and the movement path of the one or more moving bodies detected from the second video. A third procedure for selecting a query image feature value to be used as a search query,
A fourth procedure for searching for image feature quantities of the one or more moving objects extracted from the second video using the query image feature quantities;
A non-transitory computer-readable storage medium that causes the processor to execute a fifth procedure for outputting the search result.
請求項11に記載の非一時的な計算機読み取り可能な記憶媒体であって、
前記第2の映像には、複数の前記移動体の画像が含まれ、
前記第3手順は、
前記第2の映像から検出した前記複数の移動体の移動経路を、それぞれの移動経路の特徴量に基づいて複数のクラスタに分類して、それぞれのクラスタの移動経路を代表する代表経路を生成する手順と、
前記選択された移動体の移動経路を分割することによって、複数の部分経路を生成する手順と、
前記複数のクラスタの代表経路の特徴量と、前記複数の部分経路の特徴量と、に基づいて、前記複数の部分経路のうち、いずれかの前記代表経路に最も類似する部分経路を検索する手順と、
前記検索によって得られた部分経路上の前記選択された移動体の画像特徴量を前記クエリ画像特徴量として選択する手順と、を含むことを特徴とする非一時的な計算機読み取り可能な記憶媒体。
A non-transitory computer readable storage medium according to claim 11, comprising:
The second video includes a plurality of images of the moving body,
The third procedure includes
The movement paths of the plurality of moving bodies detected from the second video are classified into a plurality of clusters based on the feature amounts of the respective movement paths, and representative paths that represent the movement paths of the respective clusters are generated. Procedure and
Generating a plurality of partial paths by dividing the movement path of the selected moving body;
A procedure for searching for a partial route that is most similar to any one of the representative routes out of the plurality of partial routes based on the feature amount of the representative route of the plurality of clusters and the feature amount of the plurality of partial routes. When,
A non-transitory computer-readable storage medium, comprising: selecting an image feature quantity of the selected moving body on the partial path obtained by the search as the query image feature quantity.
請求項11に記載の非一時的な計算機読み取り可能な記憶媒体であって、
前記記憶装置は、前記第1の映像から抽出された第1の移動体および第2の移動体の移動経路に関する情報を格納し、
前記プログラムは、さらに、前記第1の移動体の画像特徴量および前記第2の移動体の画像特徴量に基づいて、前記第1の映像から検出された前記第1の移動体の画像と前記第2の移動体の画像とが類似すると判定された場合、前記第2の移動体の移動経路に関する情報を前記第1の移動体の移動経路に関する情報に統合する手順を前記プロセッサに実行させることを特徴とする非一時的な計算機読み取り可能な記憶媒体。
A non-transitory computer readable storage medium according to claim 11, comprising:
The storage device stores information on a moving path of the first moving body and the second moving body extracted from the first video,
The program further includes the image of the first moving body detected from the first video and the image of the first moving body based on the image feature amount of the first moving body and the image feature amount of the second moving body. If it is determined that the image of the second moving body is similar, causing the processor to execute a procedure for integrating information related to the moving path of the second moving body into information related to the moving path of the first moving body. A non-transitory computer-readable storage medium.
請求項11に記載の非一時的な計算機読み取り可能な記憶媒体であって、
前記プログラムは、さらに、前記選択された移動体の画像および前記第2の映像から検出された移動体の画像がいずれも所定の第1の種別の領域を含み、前記選択された画像に含まれる前記第1の種別の領域の画像と、前記第2の映像から検出された移動体の画像に含まれる前記第1の種別の領域の画像と、が類似し、かつ、前記第2の映像から抽出された移動体の画像がさらに第2の種別の領域を含む場合、前記第2の種別の領域に関する情報を出力する手順を前記プロセッサに実行させることを特徴とする非一時的な計算機読み取り可能な記憶媒体。
A non-transitory computer readable storage medium according to claim 11, comprising:
The program further includes an image of the selected moving object and an image of the moving object detected from the second video both including a predetermined first type area and included in the selected image. The image of the first type area is similar to the image of the first type area included in the moving body image detected from the second video, and from the second video A non-transitory computer readable method characterized by causing the processor to execute a procedure for outputting information relating to the second type area when the extracted moving body image further includes a second type area. Storage medium.
請求項11に記載の非一時的な計算機読み取り可能な記憶媒体であって、
前記プログラムは、さらに、いずれかの映像から複数の移動体の画像が検出され、かつ、前記各移動体の複数の画像が検出された場合、前記各移動体の複数の画像の一つを選択し、前記各移動体の前記選択された画像を他の移動体の前記選択された画像と重複しないように表示する手順を前記プロセッサに実行させることを特徴とする非一時的な計算機読み取り可能な記憶媒体。
A non-transitory computer readable storage medium according to claim 11, comprising:
The program further selects one of the plurality of images of each moving body when a plurality of moving body images are detected from any of the videos and a plurality of images of each of the moving bodies are detected. And a non-transitory computer readable program that causes the processor to execute a procedure for displaying the selected image of each mobile object so as not to overlap with the selected image of another mobile object. Storage medium.
JP2013253897A 2013-12-09 2013-12-09 Video search device, video search method, and storage medium Active JP6200306B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013253897A JP6200306B2 (en) 2013-12-09 2013-12-09 Video search device, video search method, and storage medium
PCT/JP2014/082373 WO2015087820A1 (en) 2013-12-09 2014-12-08 Video search device, video search method, and storage medium
CN201480053657.2A CN105593850B (en) 2013-12-09 2014-12-08 Video search device, method for retrieving image and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013253897A JP6200306B2 (en) 2013-12-09 2013-12-09 Video search device, video search method, and storage medium

Publications (2)

Publication Number Publication Date
JP2015114685A true JP2015114685A (en) 2015-06-22
JP6200306B2 JP6200306B2 (en) 2017-09-20

Family

ID=53371125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013253897A Active JP6200306B2 (en) 2013-12-09 2013-12-09 Video search device, video search method, and storage medium

Country Status (3)

Country Link
JP (1) JP6200306B2 (en)
CN (1) CN105593850B (en)
WO (1) WO2015087820A1 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017017808A1 (en) * 2015-07-29 2017-02-02 株式会社日立製作所 Image processing system, image processing method, and storage medium
CN106934041A (en) * 2017-03-16 2017-07-07 中煤航测遥感集团有限公司 image file management method and device
JP2018503148A (en) * 2015-10-28 2018-02-01 小米科技有限責任公司Xiaomi Inc. Method and apparatus for video playback
JP2018147478A (en) * 2017-03-02 2018-09-20 株式会社リコー Decomposition of video stream into salient fragments
EP3489842A1 (en) 2017-11-23 2019-05-29 PKE Holding AG Forensic database
US10708635B2 (en) 2017-03-02 2020-07-07 Ricoh Company, Ltd. Subsumption architecture for processing fragments of a video stream
US10713391B2 (en) 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
US10719552B2 (en) 2017-03-02 2020-07-21 Ricoh Co., Ltd. Focalized summarizations of a video stream
WO2021014479A1 (en) * 2019-07-19 2021-01-28 三菱電機株式会社 Display processing device, display processing method, and program
US10929707B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10929685B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10943122B2 (en) 2017-03-02 2021-03-09 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10949463B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10949705B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10956773B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10956494B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10956495B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
WO2022185569A1 (en) * 2021-03-02 2022-09-09 株式会社日立製作所 Video analysis system and video analysis method
JP2022134143A (en) * 2021-03-03 2022-09-15 三菱電機インフォメーションシステムズ株式会社 Detection apparatus, detection method, detection program, and detection system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2573703B (en) * 2017-03-06 2020-09-09 Mitsubishi Electric Corp Object tracking device and object tracking method
TWI692731B (en) 2019-01-02 2020-05-01 瑞昱半導體股份有限公司 Object position determination circuit
CN112215940B (en) 2019-07-11 2024-01-19 台达电子工业股份有限公司 Construction system and construction method of scene model
TWI699661B (en) * 2019-07-11 2020-07-21 台達電子工業股份有限公司 Scene model construction system and scene model constructing method
JP2021179728A (en) * 2020-05-12 2021-11-18 株式会社日立製作所 Video processing device and method thereof
US11657123B2 (en) 2020-10-08 2023-05-23 Hitachi, Ltd. Method and apparatus for people flow analysis using similar-image search
JP2022148811A (en) * 2021-03-24 2022-10-06 株式会社日立製作所 Object tracking system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040781A (en) * 2006-08-07 2008-02-21 Matsushita Electric Ind Co Ltd Subject verification apparatus and subject verification method
JP2011018238A (en) * 2009-07-09 2011-01-27 Hitachi Ltd Image retrieval system and image retrieval method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7072398B2 (en) * 2000-12-06 2006-07-04 Kai-Kuang Ma System and method for motion vector generation and analysis of digital video clips
JP2009271577A (en) * 2008-04-30 2009-11-19 Panasonic Corp Device and method for displaying result of similar image search
CN102663359B (en) * 2012-03-30 2014-04-09 博康智能网络科技股份有限公司 Method and system for pedestrian retrieval based on internet of things

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040781A (en) * 2006-08-07 2008-02-21 Matsushita Electric Ind Co Ltd Subject verification apparatus and subject verification method
JP2011018238A (en) * 2009-07-09 2011-01-27 Hitachi Ltd Image retrieval system and image retrieval method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
羽下 哲司 外: "移動物体の軌跡情報に基づく監視映像のオンライン,オフライン同時検索", 電気学会論文誌C, vol. 127, no. 9, JPN6017029844, 1 September 2007 (2007-09-01), JP, pages 1366 - 1374, ISSN: 0003615970 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017017808A1 (en) * 2015-07-29 2018-03-08 株式会社日立製作所 Image processing system, image processing method, and storage medium
WO2017017808A1 (en) * 2015-07-29 2017-02-02 株式会社日立製作所 Image processing system, image processing method, and storage medium
JP2018503148A (en) * 2015-10-28 2018-02-01 小米科技有限責任公司Xiaomi Inc. Method and apparatus for video playback
US10943122B2 (en) 2017-03-02 2021-03-09 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US10949705B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Focalized behavioral measurements in a video stream
US11398253B2 (en) 2017-03-02 2022-07-26 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
US10956495B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10708635B2 (en) 2017-03-02 2020-07-07 Ricoh Company, Ltd. Subsumption architecture for processing fragments of a video stream
US10713391B2 (en) 2017-03-02 2020-07-14 Ricoh Co., Ltd. Tamper protection and video source identification for video processing pipeline
US10719552B2 (en) 2017-03-02 2020-07-21 Ricoh Co., Ltd. Focalized summarizations of a video stream
US10720182B2 (en) 2017-03-02 2020-07-21 Ricoh Company, Ltd. Decomposition of a video stream into salient fragments
US10956494B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
US10929707B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10929685B2 (en) 2017-03-02 2021-02-23 Ricoh Company, Ltd. Analysis of operator behavior focalized on machine events
US10956773B2 (en) 2017-03-02 2021-03-23 Ricoh Company, Ltd. Computation of audience metrics focalized on displayed content
US10949463B2 (en) 2017-03-02 2021-03-16 Ricoh Company, Ltd. Behavioral measurements in a video stream focalized on keywords
JP2018147478A (en) * 2017-03-02 2018-09-20 株式会社リコー Decomposition of video stream into salient fragments
CN106934041A (en) * 2017-03-16 2017-07-07 中煤航测遥感集团有限公司 image file management method and device
CN106934041B (en) * 2017-03-16 2019-12-06 中煤航测遥感集团有限公司 image file management method and device
EP3489842A1 (en) 2017-11-23 2019-05-29 PKE Holding AG Forensic database
WO2021014479A1 (en) * 2019-07-19 2021-01-28 三菱電機株式会社 Display processing device, display processing method, and program
JPWO2021014479A1 (en) * 2019-07-19 2021-12-09 三菱電機株式会社 Display processing device, display processing method and program
JP7004116B2 (en) 2019-07-19 2022-01-21 三菱電機株式会社 Display processing device, display processing method and program
KR20220009491A (en) * 2019-07-19 2022-01-24 미쓰비시덴키 가부시키가이샤 Display processing apparatus, display processing method and storage medium
KR102436618B1 (en) * 2019-07-19 2022-08-25 미쓰비시덴키 가부시키가이샤 Display processing apparatus, display processing method and storage medium
WO2022185569A1 (en) * 2021-03-02 2022-09-09 株式会社日立製作所 Video analysis system and video analysis method
JP2022134143A (en) * 2021-03-03 2022-09-15 三菱電機インフォメーションシステムズ株式会社 Detection apparatus, detection method, detection program, and detection system
JP7200279B2 (en) 2021-03-03 2023-01-06 三菱電機インフォメーションシステムズ株式会社 Detection device, detection method, detection program and detection system

Also Published As

Publication number Publication date
WO2015087820A1 (en) 2015-06-18
CN105593850A (en) 2016-05-18
CN105593850B (en) 2019-04-19
JP6200306B2 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
JP6200306B2 (en) Video search device, video search method, and storage medium
US10074186B2 (en) Image search system, image search apparatus, and image search method
Wang et al. Panda: A gigapixel-level human-centric video dataset
Jafari et al. Real-time RGB-D based people detection and tracking for mobile robots and head-worn cameras
JP6573361B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
JP6961363B2 (en) Information processing system, information processing method and program
US20190208177A1 (en) Three-dimensional model generating device and three-dimensional model generating method
JP5381569B2 (en) Gesture recognition device, gesture recognition method, and gesture recognition program
JP5251987B2 (en) Person determination device, method and program
JP6194963B2 (en) Video processing system
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
JPWO2016162963A1 (en) Image search apparatus, system and method
JP6393424B2 (en) Image processing system, image processing method, and storage medium
US20210329175A1 (en) Image processing system, image processing method, and program
JP2019114103A (en) Object recognition processing device, object recognition processing method and program
JP2019036346A (en) Image processing apparatus, image processing method, and program
CN115249356B (en) Identification method, device, equipment and storage medium
JP6077425B2 (en) Video management apparatus and program
KR101546653B1 (en) Areal-time coi registration system and the method based on augmented reality
JP2017016356A (en) Image processing apparatus, image processing method, and program
Chattopadhyay et al. STAR: a content based video retrieval system for moving camera video shots
JP2013228956A (en) Thronging monitoring device and thronging monitoring program
Shal’nov et al. Estimation of the people position in the world coordinate system for video surveillance
Wang et al. Spatiotemporal coherence-based annotation placement for surveillance videos
Pollok et al. Computer vision meets visual analytics: Enabling 4D crime scene investigation from image and video data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170825

R150 Certificate of patent or registration of utility model

Ref document number: 6200306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150