JP6516832B2 - 画像検索装置、システム及び方法 - Google Patents

画像検索装置、システム及び方法 Download PDF

Info

Publication number
JP6516832B2
JP6516832B2 JP2017511385A JP2017511385A JP6516832B2 JP 6516832 B2 JP6516832 B2 JP 6516832B2 JP 2017511385 A JP2017511385 A JP 2017511385A JP 2017511385 A JP2017511385 A JP 2017511385A JP 6516832 B2 JP6516832 B2 JP 6516832B2
Authority
JP
Japan
Prior art keywords
search
image
information
area
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017511385A
Other languages
English (en)
Other versions
JPWO2016162963A1 (ja
Inventor
大輔 松原
大輔 松原
健一 米司
健一 米司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016162963A1 publication Critical patent/JPWO2016162963A1/ja
Application granted granted Critical
Publication of JP6516832B2 publication Critical patent/JP6516832B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像検索システム及び方法に関し、特に計算機上での情報検索に関する。
近年、凶悪犯罪の増加やセキュリティ意識の向上に伴い、店舗や空港、道路などの人が集まる場所に、多くの監視カメラが設置されつつある。これらの監視カメラで撮影された映像は、監視レコーダなどの蓄積装置に格納され、必要に応じて閲覧される。また、IPカメラの普及によってネットワーク経由で多数のカメラが接続可能になり、また蓄積装置の大容量化が進んだことも相まって、膨大な量の映像が蓄積されつつある。したがって、従来のように目視で全映像データを確認することは非常に困難になっている。
そこで、大量の映像データの中から、特定の人物や物体が映っている場面を検索して提示するために、様々な類似検索技術が提案されている。ここで、類似検索技術とは、ユーザが指定した検索クエリと類似したデータを対象データ内から探して、その結果を提示する技術を指す。特に、類似画像検索技術とは、画像自体から抽出される色合いや形状、構図等の特徴量を用いて、特徴量間の類似度が大きいデータを検索する技術である。
例えば、人物検索を行う際には、人物の服装の色情報を特徴量として用いて検索することが考えられる。特徴量を抽出する単位として、全身から抽出する、上半身・下半身に分けて抽出する、詳細に靴や鞄を切り出してから抽出する、人物をグリッド状に分割して各領域から抽出するといった方法が挙げられる。いずれにせよ、人物を検索するのに有効な領域から特徴量を抽出することが、検索精度の向上にとって重要である。
特許文献1では、対象画像から色、輝度、方向などを考慮し、画像中の物体領域について視覚的注意が導かれる領域を可視化した顕著性マップに基づいて被写体を含む矩形領域を決定し、その矩形領域から特徴量を抽出する技術が開示されている。
特開2013−225180号
人物などに代表される移動物体を検索したい場合、検索に有効な領域から特徴量を抽出することが重要である。例えば、赤い服を着た集団が多く存在している場所に設置された監視カメラ映像から人物検索をしたい場合について考える。このとき、赤い服から特徴量を抽出して検索を行っても同じ色の服の人物が検索されてしまい、目的の人物を探し出すことができない。したがって、赤い服以外の鞄や靴などの出現頻度の低い特徴量を持つ領域から特徴量を抽出して検索を行う必要がある。
特許文献1では、特徴量の有効性の評価を特徴量抽出の対象とする画像のみを用いて行っている。この場合、前述したような他人との関係性を考慮した特徴量の有効性が評価されないため、適切な検索ができないことが課題として挙げられる。すなわち、特徴量抽出の対象となる画像内で赤色が顕著な場合は、赤色の特徴量が抽出されてしまうため、データベース中に赤い服を着た人物が大量に存在する場合は、赤い服の人物ばかりを検索してしまうことになり、その他の特徴を有効に活用することができない。
上記課題を解決するために、例えば請求の範囲に記載の構成を採用する。本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、画像検索装置であって、検索対象画像を蓄積する蓄積部と、複数の検索対象画像に含まれる複数の第1領域から抽出した第1情報を解析することで検索優先度を学習し、クエリ画像に含まれる複数の第2領域から抽出した第2情報を解析し、第2情報を用いて検索優先度の高い前記第2領域を顕著領域として検出する領域検出部と、顕著領域から抽出した画像特徴量を用いて前記検索対象画像を検索する画像検索部と、を有することを特徴とする。
あるいは、画像検索方法であって、検索対象画像を蓄積部に蓄積する第1ステップと、複数の検索対象画像に含まれる複数の第1領域から抽出した第1情報を解析することで検索優先度を学習し、クエリ画像に含まれる複数の第2領域から抽出した第2情報を解析し、第2情報を用いて検索優先度の高い前記第2領域を顕著領域として検出する第2ステップと、顕著領域から抽出した画像特徴量を用いて検索対象画像を検索する第3ステップと、を有することを特徴とする。
本発明の一実施形態によれば、クエリ画像のうち、検索対象画像と比較して検索に適した顕著領域を検出することで、検索精度を向上することができる。
第1の実施形態の画像検索システムの構成を示すブロック図である。 第1の実施形態のハードウェア構成を示す構成図である。 第1の実施形態の特徴量管理情報を示す説明図である。 第1の実施形態の優先度情報を示す説明図である。 第1の実施形態の優先度情報を用いた移動物体検索方法を示す説明図である。 第1の実施形態の映像登録処理を示すフローチャートである。 第1の実施形態の優先度情報計算処理を示すフローチャートである。 第1の実施形態の移動物体検索処理を示すフローチャートである。 第1の実施形態の検索画面を示す説明図である。 第2の実施形態のハードウェア構成を示す構成図である。 第2の実施形態の認証情報データベースに蓄積される情報を示す説明図である。 第2の実施形態の認証処理を示すフローチャートである。 第2の実施形態の検索処理を示すフローチャートである。 第3の実施形態のシステム構成を示すブロック図である。 第3の実施形態の表示処理を示すフローチャートである。
以下、本発明の実施形態を、図面を参照して説明する。
(実施例1)
以下、本発明の第1の実施形態の画像検索システムについて、図面に従って説明する。
図1は、本発明の実施例1の画像検索システム100の全体構成図である。
本実施例の画像検索システム100は、映像記憶装置101、映像撮影装置102、入力装置103、表示装置104、およびサーバ計算機105を備える。映像記憶装置101は、映像データを保存し、要求に応じて出力する記憶媒体であり、コンピュータ内蔵のハードディスクドライブ、または、NAS(Network Attached Storage)もしくはSAN(Storage Area Network)などのネットワークで接続されたストレージシステムを用いて構成することができる。
映像撮影装置102は、映像を撮影して映像データを作成し、それを出力する装置である。
映像記憶装置101又は映像撮影装置102から出力された画像は、いずれもサーバ計算機105の映像入力部106(後述)に入力される。画像検索システム100は、図1に示すように映像記憶装置101及び映像撮影装置102の両方を備えてもよいが、いずれか一方のみを備えてもよい。画像検索システム100が映像記憶装置101及び映像撮影装置102の両方を備える場合、映像入力部106への映像データの入力元が必要に応じて映像記憶装置101又は映像撮影装置102に切り替えられてもよいし、映像撮影装置102から出力された映像データが一旦映像記憶装置101に記憶され、そこから映像入力部106に入力されてもよい。その場合、映像記憶装置101は、例えば、映像撮影装置102から継続的に入力される映像データを一時的に保持するキャッシュメモリであってもよい。
なお、映像記憶装置101に保存される映像データ及び映像撮影装置102によって作成される映像データは、撮影された移動物体の追跡に利用できるものである限り、どのような形式のデータであってもよい。例えば、映像撮影装置102がビデオカメラであり、それによって撮影された動画像データが映像データとして出力されてもよいし、そのような映像データが映像記憶装置101に記憶されてもよい。あるいは、映像撮影装置102がスチルカメラであり、それによって所定の間隔(少なくとも撮影された物体を追跡できる程度の間隔)で撮影された一連の静止画像データが映像データとして出力されてもよいし、そのような映像データが映像記憶装置101に記憶されてもよい。
入力装置103は、マウス、キーボード、タッチデバイスなど、ユーザの操作をサーバ計算機105に伝えるための入力インタフェースである。表示装置104は、液晶ディスプレイなどの出力インタフェースであり、サーバ計算機105の検索結果の表示、ユーザとの対話的操作などのために用いられる。例えばいわゆるタッチパネル等を用いることによって入力装置103と表示装置104とが一体化されてもよい。
サーバ計算機105は、入力された映像データから、ユーザに指定された検索条件に基づいて所望の画像を検索する画像検索装置として機能する。具体的には、サーバ計算機105は、与えられた映像データの各フレームに含まれる移動物体を追跡し、その移動物体に関する情報を蓄積する。ユーザが蓄積されたフレームから探したい移動物体の検索条件を指定すると、サーバ計算機105は、蓄積された情報を用いて画像を検索する。サーバ計算機105が扱う映像は、一箇所以上の場所で撮影された定点観測の映像であることを想定している。また、検索対象の物体は、人物または車両などの任意の移動物体である。サーバ計算機105は、映像入力部106、フレーム登録部107、移動物体追跡部108、追跡情報登録部109、優先度情報登録部110、映像データベース111、優先度情報データベース112、移動物体指定部113、顕著性判定部114、類似ベクトル検索部115を備える。
映像入力部106は、映像記憶装置101から映像データを読み出すか、又は映像撮影装置102によって撮影された映像データを受け取り、それをサーバ計算機105内部で使用するデータ形式に変換する。具体的には、映像入力部106は、映像(動画データ形式)をフレーム(静止画データ形式)に分解する動画デコード処理を行う。得られたフレームは、フレーム登録部107及び移動物体追跡部108に送られる。なお、映像記憶装置101、又は映像撮影装置102から映像ではなくフレームを取得できる場合は、得られたフレームを使用しても良い。
フレーム登録部107は、抽出されたフレームと抽出元の映像の情報を映像データベース111に書き込む。映像データベース111に記録するデータの詳細については図3の説明として後述する。
移動物体追跡部108は、映像中の移動物体を検出し、前フレームの移動物体との対応付けを行うことによって、移動物体の追跡を行う。移動物体の検出及び追跡は、任意の方法を用いて実現することができる。軌跡情報は、各フレームの移動物体の座標情報と各軌跡にユニークに付与されるID(追跡ID)で構成される。
追跡情報登録部109は、付与された追跡IDを映像データベース111に登録する。
優先度情報登録部110は、移動物体追跡部108から得られた移動物体から優先度情報を計算し、優先度情報データベース112に登録する。優先度情報について、詳しくは図4、図5、図6の説明として後述する。
映像データベース111は、映像、フレーム、及び移動物体の軌跡情報等を保存するためのデータベースである。映像データベース111へのアクセスは、フレーム登録部107及び追跡情報登録部109からの登録処理、並びに、類似ベクトル検索部115からの検索処理の際に発生する。映像データベース111の構造について、詳しくは図3の説明として後述する。
優先度情報データベース112は、顕著性判定を行うための優先度情報を保存するためのデータベースである。優先度情報データベース112へのアクセスは、優先度情報登録部110からの登録処理、並びに、顕著性判定部114からの判定処理の際に発生する。優先度データベース112の構造について、詳しくは図4の説明として後述する。
移動物体指定部113は、ユーザが指定した移動物体(例えば人物の外接矩形)を入力装置103から受け取る。
顕著性判定部114は、入力された移動物体から顕著性判定用の特徴量を抽出し、優先度情報データベース112に保存されている優先度情報を用いて、移動物体中の顕著領域を判定する。詳しくは図9の説明として後述する。
類似ベクトル検索部115は、顕著領域と判定された移動物体の部分領域から抽出された検索用特徴量と類似する特徴量を映像データベース111から検索して、その結果を表示装置104に出力する。
図2は、本発明の実施例1の画像検索システム100のハードウェア構成図である。サーバ計算機105は、例えば、相互に接続されたプロセッサ201および記憶装置202を有する一般的な計算機である。記憶装置202は任意の種類の記憶媒体によって構成される。例えば、記憶装置202は、半導体メモリ及びハードディスクドライブを含んでもよい。
この例において、図1に示した映像入力部106、フレーム登録部107、移動物体追跡部108、追跡情報登録部109、優先度情報登録部110、映像データベース111、優先度情報データベース112、移動物体指定部113、顕著性判定部114、類似ベクトル検索部115といった機能部は、プロセッサ201が記憶装置202に格納された処理プログラム203を実行することによって実現される。言い換えると、この例において、上記の各機能部が実行する処理は、実際には、処理プログラム203に記述された命令に従うプロセッサ201によって実行される。また、映像データベース111、及び、優先度情報データベース112は、記憶装置202に含まれる。
サーバ計算機105は、さらに、プロセッサに接続されたネットワークインターフェース装置(NIF)204を含む。映像撮影装置102は、例えば、ネットワークインターフェース装置204を介してサーバ計算機105に接続される。映像記憶装置101は、ネットワークインターフェース装置204を介してサーバ計算機105に接続されたNASまたはSANであってもよいし、記憶装置202に含まれてもよい。
なお、本実施形態の画像検索システムは、一般的なパーソナルコンピュータが画像検索のアプリケーションによってサービスを提供する構成であるが、ネットワークを介して接続されたサーバ計算機110とクライアント計算機130とがサービスを提供する構成であるが、一般的なパーソナルコンピュータが画像検索のアプリケーションによってサービスを提供する構成であってもよい。
図3は、本発明の実施例1の映像データベース111の構成及びデータ例の説明図である。ここではテーブル形式の構成例を示すが、データ形式は任意でよい。
映像データベース111は、図3に示す画像データ管理情報300、移動物体管理情報310、追跡情報管理情報320及びパッチ特徴量管理情報330を含む。図3のテーブル構成および各テーブルのフィールド構成は、本発明を実施する上で必要となる構成であり、アプリケーションに応じてテーブル及びフィールドを追加してもよい。
画像データ管理情報300は、フレームIDフィールド301、カメラIDフィールド302、撮影時刻フィールド303、及び画像データフィールド304を有する。
フレームIDフィールド301は、映像データから抽出されたフレーム画像データの識別情報(以下、フレームID)を保持する。
カメラIDフィールド302は、撮影装置102の識別情報(以下、カメラID)を保持する。映像データが映像記憶装置101から読み込まれる場合は、カメラIDを省略しても良いし、映像ファイルの識別情報(以下、映像ID)を保持しても良い。
撮影時刻フィールド303は、画像が撮影された時刻の情報を保持する。
画像データフィールド304は、フレームの静止画像のバイナリデータであり、検索結果などを表示装置104に表示する際に用いられるデータを保持する
移動物体管理情報310は、移動物体IDフィールド311、追跡IDフィールド312、フレームIDフィールド313、及び矩形座標フィールド314を含む。
移動物体IDフィールド311は、各フレームから検出された移動物体の識別情報(以下、移動物体ID)のリストを保持する。ここで、移動物体IDは、移動物体そのものを識別するものではなく、各フレームから検出された移動物体の画像を識別するものである。同一の移動物体の画像が複数のフレームから検出された場合には、それらの移動物体の画像の各々に別の(一意の)移動物体IDが与えられ、それらの移動物体IDが一つの追跡IDに対応付けられる。
追跡IDフィールド312は、前述した移動物体IDに紐付けられる追跡IDを保持する。
フレームIDフィールド313は、各移動物体が検出された元となるフレーム画像のフレームIDを保持する。このフレームIDは、画像データ管理情報300のフレームIDフィールド301に保持されるものと対応する。
矩形座標フィールド314は、各フレームから検出された移動物体の画像の当該フレーム画像中に占める範囲を示す矩形座標を保持する。この座標は、例えば、移動物体の外接矩形の「左上隅の水平座標、左上隅の垂直座標、右下隅の水平座標、右下隅の垂直座標」という形式で表現されてもよいし、矩形の中心の座標、幅及び高さによって表現されてもよい。後述する矩形座標フィールド333に保持される矩形座標の表現も同様であってよい。
追跡情報管理情報320は、追跡IDフィールド321、及び移動物体IDリスト322を有する。
追跡IDフィールド321は、移動物体管理情報310の追跡IDフィールド312に保持されるものと対応する。
移動物体IDフィールド322は、同一の追跡IDが付与された移動物体IDのリストを保持する。移動物体IDフィールド322は、移動物体管理情報310の移動物体IDフィールド311に保持されるものと対応する。
例えば、図3に示すように、追跡ID「1」に対応する移動物体IDフィールド8322に「1、2、3、4、5、6、・・・」が登録されていることは、あるフレームから検出された移動物体ID「1」によって識別される移動物体の画像と、別のフレームから検出された移動物体ID「2」によって識別される移動物体の画像と、同様にそれぞれ別のフレームから検出された移動物体ID「4」、「5」、「6」によって識別される移動物体の画像とが、移動物体追跡部108によって相互に対応付けられた(すなわちそれらが同一の移動物体の画像と判定された)ことを意味する。移動物体を追跡する方法の一例としては、あるフレームから検出された移動物体ID「1」の画像と、別フレームから検出された移動物体ID「2」の画像とのそれぞれから画像特徴量を抽出し、画像特徴量の類似度(距離)を算出し、類似度が閾値以上であれば、両画像の移動物体は同一の移動物体と判定し、対応付けを行う。
パッチ特徴量管理情報330は、パッチIDフィールド331、フレームIDフィールド332、矩形座標フィールド333及びパッチ特徴量フィールド334を含む。
パッチIDフィールド331は、フレーム画像から移動物体追跡部108によって追跡された移動物体の部分領域の識別情報(以下、パッチID)を保持する。部分領域として、移動物体の外接矩形をグリッド状に分割したブロック領域を用いても良いし、鞄や上半身といった一部を用いても良い。
フレームIDフィールド332は、パッチの部分領域を含む移動物体が検知されたフレームのフレームIDを保持する。このフレームIDは、画像データ画像管理情報300のフレームIDフィールド301に保持されるものと対応する。
矩形座標フィールド333は、検知されたパッチ領域のフレーム画像に占める範囲を示す座標を保持する。
パッチ特徴量フィールド334は、検知された服飾領域から抽出された画像特徴量を保持する。
図4は、本発明の実施例1の優先度情報データベース112の構成及びデータ例の説明図である。ここではテーブル形式の構成例を示すが、データ形式は任意でよい。
優先度情報データベース112は、優先度情報400を含む。優先度情報400は、優先度情報ID401、及び優先度情報402を保存する。優先度情報ID401は、各優先度情報を識別するIDである。優先度情報402は、映像データベース111内のパッチ特徴量管理情報330が保持するパッチ特徴量フィールド334において、出現頻度の低い特徴量を算出するための情報である。出現頻度の低い特徴量の特徴量ベクトルをそのまま保存しても良いし、パッチ特徴量フィールド334に保存されている特徴量から基底ベクトルの集合を算出し、パッチ特徴量フィールド334に保存されている特徴量を基底ベクトルの成分で表したベクトルデータを保存しても良い。また、前景と背景で別に保存しても良いし、撮影装置ごとに保存しても良い。前景と背景を別に保存した場合は,並列に検索を行うことができ、検索速度を向上させることができる。撮影装置ごとに保存した場合も同様である。一方、前景と背景とを分けずに保存した場合には、保存に必要なディスク容量の削減やアクセス性の向上を行うことができる.
図4のテーブル構成および各テーブルのフィールド構成は、本発明を実施する上で必要となる構成であり、アプリケーションに応じてテーブル及びフィールドを追加してもよい。
図5は、本発明の実施例1の優先度情報を用いた移動物体検索の説明図である。
映像入力部106から入力された映像データからフレーム画像501を取得して表示装置104に表示する。このときユーザは入力装置103を用いて、フレーム画像501上の移動物体502を検索キーとして指定する。
次に、移動物体502をグリッド状に分割し、グリッド画像503を得る。本実施例では処理の容易さ、負荷軽減のために図5のようにグリッドに分割しているが、他に移動物体502を分割する方法として、鞄や上半身といった部位を単位として分割したり、エッジ情報が多い部分を切り出すといった方法を用いても良い。
顕著領域の決定処理(504)では、優先度情報データベース112に保存されている優先度情報を用いて、グリッド画像503の各部分領域について顕著領域506かどうかを決定する。優先度情報の計算方法は図6で、顕著領域の判定方法は図7を用いて後述する。
顕著領域を用いた検索処理(507)では、顕著領域506から抽出した特徴量と、映像データベース111に保存されているパッチ特徴量334との類似度を計算する。類似度の計算方法として、ユークリッド距離を用いても良いし、コサイン距離などを用いてもよい。
以上を踏まえ、本実施例に記載の画像検索装置105は、検索対象画像を蓄積する蓄積部111と、複数の検索対象画像に含まれる複数の第1領域から抽出した第1情報を解析することで検索優先度400を学習し(110)、クエリ画像502に含まれる複数の第2領域から抽出した第2情報を解析し、第2情報を用いて検索優先度の高い第2領域を顕著領域506として検出する領域検出部114と、顕著領域506から抽出した画像特徴量を用いて検索対象画像を検索する画像検索部115と、を有することを特徴とする。
このように、クエリ画像中の第2領域のうち、検索対象画像において出現頻度の低い領域を検索クエリとして特定することで、クエリ画像中の汎用的な図柄のせいで、目的とする画像以外の検索ノイズが大量に検索結果に表れる現象を抑えることができ、検索精度が向上する。 なお、本実施例では、動画像が入力され、検索クエリとしては動画像中に写っている移動物体を想定しているが、時系列的な関係のない複数の画像が入力されてももちろん本発明の効果を奏することは可能である。本実施例の効果は移動物体を検索するときに限定されることはなく、たんに画像中に写っている何らかの物体をクエリとしても、検索優先度を学習し、検索することが可能である。
図6は、本発明の実施例1のサーバ計算機105が入力された映像を登録する処理を説明するフローチャートである。以下、図6の各ステップについて説明する。
最初に、映像入力部106が、映像記憶装置101又は映像撮影装置102から入力された映像データをデコードし、フレームを静止画として抽出する(ステップS601)。映像記憶装置101又は映像撮影装置102から入力されたデータが静止画の場合は、静止画をそのまま用いる。
次に、サーバ計算機105内の各部が、ステップS601で抽出された各フレームに対して、ステップS602〜S610を実行する。
フレーム登録部107は、フレームID301、カメラID302、撮影時刻303、及び、画像データ304を映像データベース111に登録する(ステップS603)。
追跡情報登録処理について、ステップS604からステップS607を用いて説明する。
移動物体追跡部108は、処理対象のフレームから移動物体を検出し、検出した移動物体を前の時刻のフレームから検出された移動物体と対応付ける(ステップS604)。
次に、移動物体追跡部108は、新しい移動物体が出現したか否かを判定する(ステップS605)。具体的には、移動物体追跡部108は、処理対象のフレームから検出した移動物体が前の時刻のフレームから検出されたいずれの移動物体とも対応付けられなかった(言い換えると、処理対象のフレームから検出された移動物体と同一の移動物体の画像が前の時刻のフレームに含まれていないと判定された)場合、新しい移動物体が出現したと判定する。
新しい移動物体が出現した場合、移動物体追跡部108は、当該新しい移動物体に新しい追跡IDを付与し、追跡情報登録部109は、当該新しい追跡IDと、移動物体IDをそれぞれ映像データベース111の追跡情報管理情報320内の追跡IDフィールド321及び移動物体IDフィールド322に登録する(ステップS606)。一方、新しい移動物体が出現しなかった場合、ステップS606は実行されない。
次に、追跡情報登録部109は、フレーム画像内で検出された移動物体について、移動物体ID、追跡ID、フレームID、及び矩形座標をそれぞれ映像データベース111の移動物体管理情報310内の移動物体IDフィールド311、追跡IDフィールド312、フレームIDフィールド313、及び矩形座標314に登録する(ステップ607)。また、追跡情報管理情報320内の移動物体IDフィールド322に、移動物体のIDを追加する(ステップS607)。
なお、追跡情報や移動物体情報の登録処理については、毎フレーム登録処理を行わずに、移動物体が消失した際に行っても良い。具体的には、移動物体追跡部108が、前の時刻のフレームから検出された移動物体とステップS607で検出されたいずれの移動物体とも対応付けられなかった(言い換えると、前の時刻のフレームから検出された移動物体と同一の移動物体の画像が処理対象のフレームに含まれていないと判定された)場合、当該前の時刻のフレームから検出された移動物体が消失したと判定し、当該移動物体の追跡情報と移動物体情報をまとめて登録しても良い。
優先度情報登録処理について、ステップS608とステップS609を用いて説明する。
移動物体の部分領域から抽出された優先度計算用特徴量を用いて、優先度情報を計算する(ステップS608)。優先度計算用特徴量として、エッジ情報や色ヒストグラムを用いても良い。部分領域として、移動物体をグリッド状に分割した各ブロック領域を用いても良いし、人体の場合は鞄や上半身といった領域に限定しても良い。
優先度情報は、優先度情報データベース112内の優先度情報400として、保存される(ステップS609)。なお、優先度情報の登録は、フレームごとに行っても良いし、ある一定期間ごとに行っても良いし、事前に行っておいても良い。また、撮影装置ごとや撮影場所ごとに優先度情報を保存しておいても良い。撮影装置ごとに優先度情報を保存しておくと、撮影装置の画質などに応じて、優先度情報を切り替えることができる。
映像データから抽出された全てのフレームについてステップS602〜S610が終了すると、入力された映像を登録する処理が終了する。
図7は、本発明の実施例1のサーバ計算機105が移動物体検索を行う処理を説明するフローチャートである。以下、図8の各ステップについて説明する。
まず初めに、入力装置103を用いて表示装置104に表示された移動物体をユーザが指定する(ステップS701)。
次に、指定された移動物体の部分領域からステップS608で抽出した特徴量と同様の方法で優先度計算用特徴量を抽出する(ステップS702)。このとき、移動物体全体をグリッド状に分割した領域ごとに特徴量を抽出しても良いし、人物の場合は鞄や上半身といった領域ごとに特徴量を抽出しても良い。また、指定された移動物体を含むフレーム画像のみからではなく、同一の移動物体IDが付与された移動物体から抽出しても良い。
次に、優先度情報データベース112の優先度情報400、及びステップS802で抽出した特徴量を用いて、部分領域ごとに顕著性を判定する(ステップS703)。優先度情報データベース112の優先度情報400に出現頻度が低い特徴量が保存されている場合は、該特徴量と類似していれば顕著性が高いと判定しても良いし、他の方法を用いても良い。また、撮影装置ごとに優先度情報400が保存されている場合は、対象となる画像を撮影した撮影装置用の優先度情報を用いて優先度を計算する。
次に、顕著性の大きい部分領域から検索用特徴量を抽出する(ステップS704)。顕著性の大きい部分領域の決定方法として、顕著性が予め指定した閾値を超えた部分領域を全て使用しても良いし、移動物体の中で最も顕著性が高い部分領域を使用しても良いし、予め指定した領域ごとに最も顕著性が高い部分領域を使用しても良い。検索用特徴量として、エッジ情報や色ヒストグラムを用いても良いし、優先度判定用の特徴量と同じ特徴量を用いても良い。
次に、抽出した特徴量と映像データベース111に保存されているパッチ特徴量管理情報330内のパッチ特徴量フィールド334のパッチ特徴量との類似度を計算する(ステップS705)。類似度の計算方法として、ユークリッド距離を用いても良いし、コサイン距離などの他の手法を用いても良い。
最後に、ステップS705において、類似度が高いと判定されたパッチ特徴量を用いて検索結果を表示する(ステップS706)。このとき、検索結果として、パッチID331を表示しても良いし、該パッチを含む移動物体IDを表示しても良いし、該移動物体IDを含むフレーム画像を表示しても良い。
図8は、本発明の実施例1のサーバ計算機105によって出力される検索画面の説明図である。図8を参照して、図7の処理におけるユーザからの情報の入力方法及び検索結果の表示方法の一例を説明する。
表示装置104によって表示される検索画面は、移動物体選択エリア801、顕著性表示エリア802、検索ボタン803及び検索結果表示エリア904を含む。
移動物体選択エリア801では、移動物体が表示されており、ユーザはこの中から検索キーとなる移動物体を指定する(ステップS701)。
ユーザが指定した移動物体から顕著性判定用の特徴量が抽出され(ステップS702)、優先度情報を用いて顕著性を判定した結果(ステップS703)が顕著性表示エリア802に表示される。例えば、移動物体をグリッド状に分割した各部分領域の顕著性を判定し、予め指定した閾値以上の顕著性を持つ部分領域を矩形で囲んで表示する。ユーザが指定した移動物体の同一の移動物体IDを持つ移動物体の顕著性を判定する場合は、複数の移動物体が表示される。
ユーザがマウス等を用いて検索ボタン803を操作すると、顕著領域から検索用特徴量を抽出し(ステップS704)、類似検索が実行され(ステップS705)、類似度が大きいデータが検索結果画面804に表示される(ステップS706)。例えば、検索結果の表示方法として、類似度の大きいパッチを含む移動物体が映っているフレーム画像を類似度順に並べて表示し、移動物体を矩形で囲んで表示する。
以上を踏まえ、本実施例に記載の画像検索方法は、検索対象画像を蓄積部111に蓄積する第1ステップ(S603)と、複数の検索対象画像に含まれる複数の第1領域から抽出した第1情報を解析することで検索優先度を学習(S608、609)し、クエリ画像に含まれる複数の第2領域から抽出した第2情報を解析し(S702)、第2情報を用いて検索優先度の高い前記第2領域を顕著領域として検出する第2ステップ(S703)と、顕著領域から抽出した画像特徴量を用いて前記検索対象画像を検索する第3ステップ(S704,705)と、を有することを特徴とする。
このように、クエリ画像中の第2領域のうち、検索対象画像において出現頻度の低い領域を検索クエリとして特定することで、クエリ画像中の汎用的な図柄のせいで、目的とする画像以外の検索ノイズが大量に検索結果に表れる現象を抑えることができ、検索精度が向上する。
(実施例2)
以下、本発明の第2の実施形態の画像検索システムについて、図面に従って説明する。
次に、本発明の実施例2の画像検索システム100について説明する。以下に説明する相違点を除き、実施例2の画像検索システム100の各部は、図1〜図8に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。
図9は、本発明の実施例2の画像検索システム100の全体構成図である。本実施例の画像検索システム100は、映像記憶装置101、映像撮影装置102、入力装置103、表示装置104、サーバ計算機105、及び認証装置901を備える。映像記憶装置101、映像撮影装置102、入力装置103及び表示装置104は、実施例1と同様であるため、説明を省略する。
認証装置901は、個人認証を行う装置である。例えば、指静脈認証装置や顔認証装置のような生体認証装置でも良いし、IDカード認証装置でも良い。認証装置901は、映像撮影装置102とセットで設置されるが、認証装置901を備えない映像撮影装置102があっても良い。尚、認証装置901とサーバ計算機105の時刻の同期を取るために、時刻同期モジュールを備えても良い。時刻同期モジュールはサーバ計算機105が備えても良い。
実施例2のサーバ計算機105は、実施例1と同様の映像入力部106、フレーム登録部107、移動物体追跡部108、追跡情報登録部109、優先度情報登録部110、映像データベース111、優先度情報データベース112、顕著性判定部114及び類似ベクトル検索部115に加えて、個人認証部901、認証情報登録部902、認証情報データベース904、人物指定部905及び移動物体決定部906を有する。
図10は、本発明の実施例2の画像検索システム100のハードウェア構成図である。
プロセッサ201、及びネットワークインタフェース204は実施例1と同一である。記憶装置1001は、任意の種類の記憶媒体によって構成される。この例において、図9に示した映像入力部106、フレーム登録部107、移動物体追跡部108、追跡情報登録部109、優先度情報登録部110、映像データベース111、優先度情報データベース112、顕著性判定部114、類似ベクトル検索部115、個人認証部902、認証情報登録部903、認証情報データベース904、人物指定部905、移動物体決定部906といった機能部は、プロセッサ201が記憶装置1001に格納された処理プログラム1002を実行することによって実現される。
認証装置901は、ネットワークインタフェース204を介してサーバ計算機105に接続される。
図11は、本発明の実施例2の映像データベース111の構成及びデータ例の説明図である。ここではテーブル形式の構成例を示すが、データ形式は任意でよい。
認証情報データベース904は、図11に示す認証データ管理情報1100を含む。図11のテーブル構成および各テーブルのフィールド構成は、本発明を実施する上で必要となる構成であり、アプリケーションに応じてテーブル及びフィールドを追加してもよい。
認証データ管理情報1100は、人物IDフィールド1101、人物名フィールド1102、認証時刻フィールド1103、及び追跡IDフィールド1104を有する。
認証IDフィールド1101は、認証装置901で認証された人物の識別情報(以下、認証ID)を保持する。
人物名フィールド1102は、認証装置901で認証された人物の人物名を保持する。人物名が事前に登録されていない場合は、人物名を意味する他の情報を保持しても良いし、このフィールドは存在しなくても良い。
認証時刻フィールド1103は、認証装置901で認証した時刻を保持する。
追跡ID1104は、映像データベース111が保持する移動物体管理情報310に含まれる追跡ID312と同じものである。該追跡IDを介して、映像データベース111が保持するフレームID313、矩形座標314、画像データ304などへのアクセスが可能になる。
図12は、本発明の実施例2のサーバ計算機105が認証を行う処理を説明するフローチャートである。以下、図12の各ステップについて説明する。認証装置901を備える映像撮影装置102は、本説明による認証処理を行った後に図6で説明したフローチャートに従って映像登録処理を行う。尚、本認証処理と同時に映像登録処理を行っても良い。
まず初めに、認証装置901による認証を行う(ステップS1201)。指紋認証や指静脈認証、虹彩認証といった生体認証を用いても良いし、IDカードなどによる認証を行っても良い。
次に、認証装置901から得られた人物識別ID1100、人物名1102、認証時刻1103を認証情報データベース904に登録する(ステップS1202)。
次に、図6で説明したフローチャートに従って映像登録処理を行う(ステップ1203)。ウォークスルー型の認証装置を用いる場合は、ステップS1202とステップ1203を同時に行っても良い。また、ステップS1202で認証を行う前に、ステップ1203を実行して映像登録処理を行っても良い。
最後に、映像登録処理で得られた人物ID1104を認証データベース904に登録する。
図13は、本発明の実施例2のサーバ計算機105が人物検索を行う処理を説明するフローチャートである。以下、図13の各ステップについて説明する。
まず初めに、ユーザは入力装置103を用いて人物指定部905において検索キーとなる人物を指定する(ステップS1301)。このとき、ユーザは人物名を入力しても良いし、人物IDを入力しても良いし、人物が認証装置を通過した時間を入力しても良い。
次に、移動物体決定部906は、ユーザからの入力情報を使用して指定された人物の映像データを取得する(ステップS1302)。入力情報を用いて認証情報データベース904に問い合わせを行い、該当する人物の追跡ID1104を取得する。そして、追跡ID1104を用いて映像データベース111に問い合わせを行い、該当人物の映像データを取得する。
取得した映像データを用いて、図7で説明した移動物体検索のフローチャートと同様に検索を行う(ステップS1303)。図7中のステップ701においてユーザが移動物体を指定する処理は、図13のステップS1301〜ステップS1302に置き換えられる。
以上の本発明の実施例2によれば、認証装置と画像検索装置を連携させることで、ユーザは検索時に人物名や人物IDを指定することができ、対象とする人物を容易に検索することができる。
(実施例3)
以下、本発明の第3の実施形態の画像検索システムについて、図面に従って説明する。
次に、本発明の実施例3の画像検索システム100について説明する。以下に説明する相違点を除き、実施例2の画像検索システム100の各部は、図1〜図13に示された実施例1及び実施例2の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。
図14は、本発明の実施例3の画像検索システム100の全体構成図である。本実施例の画像検索システム100は、映像記憶装置101、映像撮影装置102、入力装置103、表示装置104、サーバ計算機105、及び認証装置901を備える。映像記憶装置101、映像撮影装置102、入力装置103、表示装置104及び認証装置901は、実施例1及び実施例2と同様であるため、説明を省略する。
実施例3のサーバ計算機105は、実施例2と同様の映像入力部106、フレーム登録部107、移動物体追跡部108、追跡情報登録部109、優先度情報登録部110、映像データベース111、優先度情報データベース112、顕著性判定部114、認証装置901、個人認証部902、認証情報登録部903、認証情報データベース904に加えて、人物決定部1401、類似ベクトル検索部1402及び認証情報取得部1403を有する。
実施例3の認証情報登録処理、映像登録処理は実施例2と同様である。図15は、本発明の実施例3のサーバ計算機105が認証情報の表示を行う処理を説明するフローチャートである。以下、図15の各ステップについて説明する。
まず初めに、認証情報を表示する人物をシステムが決定する(ステップS1501)。表示装置104に映っている全人物を対象にしても良いし、予め設定した基準に従って対象人物を決定することもできる。例えば、指定した領域に存在する人物でも良いし、一定時間以上滞留している人物でも良い。
次に、図7のステップS702〜ステップS703と同様の処理を行い、顕著性を判定する(ステップS1502)。
次に、顕著領域から抽出した特徴量を用いて映像データベース111中のパッチ特徴量334との類似ベクトル検索を行う(ステップS1503)。このとき、類似ベクトル検索を行う対象は、認証装置901を備えた映像撮影装置102で撮影された映像のみである。
次に、類似ベクトル検索の結果を用いて映像データベース111から追跡ID312を取得する。最も類似度が高い検索結果に紐付いた追跡IDを取得しても良いし、検索結果上位に最も多く含まれる人物の追跡IDを取得しても良い。
最後に、追跡ID312を用いて認証情報データベース904に問い合わせを行い、人物ID1101もしくは人物名1102を取得し、映像と共に表示装置104に表示する。
以上の本発明の実施例3によれば、システムが映像中の人物に対して自動的に人物IDもしくは人物名を付与して表示することができるようになる。
100 画像検索システム
101 映像記憶装置
102 映像撮影装置
103 入力装置
104 表示装置
105 サーバ計算機
106 映像入力部
107 フレーム登録部
108 移動物体追跡部
109 追跡情報登録部
110 優先度情報登録部
111 映像データベース
112 優先度情報データベース
113 移動物体指定部
114 顕著性判定部
115 類似ベクトル検索部
201 プロセッサ
202 記憶装置
203 処理プログラム
204 ネットワークインターフェース装置
300 映像データ管理情報
310 移動物体管理情報
320 追跡情報管理情報
330 パッチ特徴量管理情報
400 優先度情報
801 移動物体選択エリア
802 顕著性表示エリア
803 検索ボタン
804 検索結果表示エリア
901 認証装置
902 個人認証部
903 認証情報登録部
904 認証情報データベース
905 人物指定部
906 移動物体決定部
1001 記憶装置
1002 処理プログラム
1100 認証データ管理情報
1401 人物決定部
1402 類似ベクトル検索部
1403 認証情報取得部。

Claims (10)

  1. 検索対象画像を蓄積する蓄積部と、
    複数の前記検索対象画像に含まれる複数の第1領域から抽出した第1情報を解析することで検索優先度を学習し、クエリ画像に含まれる複数の第2領域から抽出した第2情報を解析し、前記第2情報を用いて検索優先度の高い前記第2領域を顕著領域として検出する領域検出部と、
    前記顕著領域から抽出した画像特徴量を用いて前記検索対象画像を検索する画像検索部と、を有することを特徴とする画像検索装置。
  2. 請求項1に記載の画像検索装置であって、
    前記領域検出部は、複数の前記第1情報を解析し、最も出現頻度の低い前記第1情報を前記検索優先度が最も高い顕著情報として学習し、前記第2情報と前記顕著情報との距離に基づいて、前記顕著領域を検出することを特徴とする画像検索装置。
  3. 請求項2に記載の画像検索装置であって、
    前記第1領域のうち、前フレームあるいは後フレームの前記第1領域との類似度が閾値より高いものについては、複数フレームにわたる前記第1領域に移動体が写っていると判定する移動体判定部と、をさらに有し、
    前記蓄積部は、複数の前記第1領域について前記移動体であることを示す移動体識別情報をさらに蓄積することを特徴とする画像検索装置。
  4. 請求項2に記載の画像検索装置であって、
    前記蓄積部は、前記検索対象画像を撮像するカメラごとに前記検索対象画像を蓄積し、
    前記領域検出部は、前記カメラごとに前記検索優先度を学習することを特徴とする画像検索装置。
  5. 画像検索装置と認証装置とを有する画像検索システムであって、
    前記画像検索装置は、
    検索対象画像および移動物体であることを示す移動体識別情報を蓄積する蓄積部と、
    複数の前記検索対象画像に含まれる複数の第1領域から抽出した第1情報を解析することで検索優先度を学習し、クエリ画像に含まれる複数の第2領域から抽出した第2情報を解析し、前記第2情報を用いて検索優先度の高い前記第2領域を顕著領域として検出する領域検出部と、
    前記顕著領域から抽出した画像特徴量を用いて前記検索対象画像を検索する画像検索部と、
    前記第1領域のうち、前フレームあるいは後フレームの前記第1領域との類似度が閾値より高いものについては、複数フレームにわたる第1領域に移動体が写っていると判定する移動体判定部とを有し、
    前記認証装置は、
    複数の利用者の登録情報を記憶する登録情報記憶部と、
    新たに取得したユーザ情報と前記登録情報とを照合する照合部と、
    前記照合部が前記ユーザ情報と一致すると判定した前記登録情報である第1登録情報を前記画像検索装置へ出力する出力部と、を有し、
    前記蓄積部はさらに、前記第1登録情報と前記移動体識別情報とを対応付けて蓄積することを特徴とする画像検索システム。
  6. 検索対象画像を蓄積部に蓄積する第1ステップと、
    複数の前記検索対象画像に含まれる複数の第1領域から抽出した第1情報を解析することで検索優先度を学習し、クエリ画像に含まれる複数の第2領域から抽出した第2情報を解析し、前記第2情報を用いて検索優先度の高い前記第2領域を顕著領域として検出する第2ステップと、
    前記顕著領域から抽出した画像特徴量を用いて前記検索対象画像を検索する第3ステップと、を有することを特徴とする画像検索方法。
  7. 請求項6に記載の画像検索方法であって、
    前記第2ステップでは、複数の前記第1情報を解析し、最も出現頻度の低い前記第1情報を前記検索優先度が最も高い顕著情報として学習し、前記第2情報と前記顕著情報との距離に基づいて、前記顕著領域を検出することを特徴とする画像検索方法。
  8. 請求項7に記載の画像検索方法であって、
    前記第1領域のうち、前フレームあるいは後フレームの前記第1領域との類似度が閾値より高いものについては、複数フレームにわたる前記第1領域に移動体が写っていると判定する第4ステップと、をさらに有し、
    前記第1ステップでは、複数の前記第1領域について前記移動体であることを示す移動体識別情報を、さらに前記蓄積部に蓄積することを特徴とする画像検索方法。
  9. 請求項7に記載の画像検索方法であって、
    前記第1ステップでは、前記検索対象画像を撮像するカメラごとに前記検索対象画像を蓄積し、
    前記第2ステップでは、前記カメラごとに前記検索優先度を学習することを特徴とする画像検索方法。
  10. 請求項8に記載の画像検索方法であって、
    複数の利用者の登録情報を記憶する第5ステップと、
    ーザ情報を取得し、前記ユーザ情報と前記登録情報とを照合する第6ステップと、
    記ユーザ情報と一致すると判定した第1登録情報を出力する第7ステップと、をさらに有し、
    前記第1ステップでは、前記第1登録情報と前記移動体識別情報とを対応付けて蓄積することを特徴とする画像検索方法
JP2017511385A 2015-04-08 2015-04-08 画像検索装置、システム及び方法 Active JP6516832B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/060906 WO2016162963A1 (ja) 2015-04-08 2015-04-08 画像検索装置、システム及び方法

Publications (2)

Publication Number Publication Date
JPWO2016162963A1 JPWO2016162963A1 (ja) 2018-01-11
JP6516832B2 true JP6516832B2 (ja) 2019-05-22

Family

ID=57072559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017511385A Active JP6516832B2 (ja) 2015-04-08 2015-04-08 画像検索装置、システム及び方法

Country Status (4)

Country Link
US (1) US10795928B2 (ja)
JP (1) JP6516832B2 (ja)
CN (1) CN107408119B (ja)
WO (1) WO2016162963A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10783365B2 (en) * 2015-07-03 2020-09-22 Hitachi Kokusai Electric Inc. Image processing device and image processing system
KR101736660B1 (ko) * 2016-01-15 2017-05-17 세종대학교산학협력단 스테레오 3d 내비게이션 장치 및 이를 위한 세일리언시 기반의 카메라 파라미터 조절 방법
KR102249498B1 (ko) * 2016-08-17 2021-05-11 한화테크윈 주식회사 이벤트 검색 장치 및 시스템
JP6948787B2 (ja) * 2016-12-09 2021-10-13 キヤノン株式会社 情報処理装置、方法およびプログラム
CN108229468B (zh) * 2017-06-28 2020-02-21 北京市商汤科技开发有限公司 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备
JP7018001B2 (ja) * 2018-09-20 2022-02-09 株式会社日立製作所 情報処理システム、情報処理システムを制御する方法及びプログラム
CN110378178B (zh) * 2018-09-30 2022-01-28 毫末智行科技有限公司 目标跟踪方法及装置
US11928181B2 (en) 2018-12-27 2024-03-12 Nec Corporation Information processing apparatus, information processing method, and program
JP7330708B2 (ja) * 2019-01-28 2023-08-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR102246408B1 (ko) * 2019-02-14 2021-05-18 엔에이치엔 주식회사 딥러닝 기반 유사상품 제공방법
JP7183085B2 (ja) * 2019-03-14 2022-12-05 株式会社東芝 移動体行動登録装置、移動体行動登録システム、移動体行動登録方法、移動体行動登録プログラム、及び移動体行動決定装置
US11507768B2 (en) * 2019-07-04 2022-11-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826316B2 (en) 2001-01-24 2004-11-30 Eastman Kodak Company System and method for determining image similarity
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
JP4979070B2 (ja) * 2007-03-28 2012-07-18 Kddi株式会社 動画像提示システム
US8195672B2 (en) * 2009-01-14 2012-06-05 Xerox Corporation Searching a repository of documents using a source image as a query
JP5306940B2 (ja) * 2009-08-11 2013-10-02 日本放送協会 動画像コンテンツ評価装置およびコンピュータプログラム
US8352465B1 (en) * 2009-09-03 2013-01-08 Google Inc. Grouping of image search results
EP2339537B1 (en) 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
CN102193934B (zh) * 2010-03-11 2013-05-29 株式会社理光 用于寻找图像集合中的代表性图像的系统和方法
US8494983B2 (en) * 2010-11-16 2013-07-23 Microsoft Corporation Object-sensitive image search
US8990201B1 (en) * 2011-11-03 2015-03-24 Google Inc. Image search results provisoning
JP5894492B2 (ja) 2012-04-19 2016-03-30 日本放送協会 画像処理装置、画像検索装置及びプログラム
JP5768265B2 (ja) * 2012-05-24 2015-08-26 株式会社日立国際電気 類似画像検索システム
US9747306B2 (en) * 2012-05-25 2017-08-29 Atheer, Inc. Method and apparatus for identifying input features for later recognition
CN102843547B (zh) 2012-08-01 2014-01-08 安科智慧城市技术(中国)有限公司 一种嫌疑目标智能追踪方法和系统
US9940525B2 (en) * 2012-11-19 2018-04-10 Mace Wolf Image capture with privacy protection
CN103838724B (zh) * 2012-11-20 2018-04-13 百度在线网络技术(北京)有限公司 图像搜索方法及装置
US9424279B2 (en) * 2012-12-06 2016-08-23 Google Inc. Presenting image search results
JP6100635B2 (ja) * 2012-12-13 2017-03-22 株式会社デンソー 移動体検出装置
JP6080940B2 (ja) * 2013-02-28 2017-02-15 株式会社日立国際電気 人物検索方法及びホーム滞留人物検索装置
US8811673B1 (en) * 2013-04-18 2014-08-19 TCL Research America Inc. Intelligent TV system and method
EP3044731A4 (en) * 2013-09-11 2017-02-22 See-Out Pty Ltd. Image searching method and apparatus
DE102016109294B4 (de) * 2015-05-20 2024-05-16 Denso Corporation Steuerungsvorrichtung für eine rotierende elektrische Maschine

Also Published As

Publication number Publication date
CN107408119B (zh) 2020-11-06
US20180081908A1 (en) 2018-03-22
US10795928B2 (en) 2020-10-06
CN107408119A (zh) 2017-11-28
JPWO2016162963A1 (ja) 2018-01-11
WO2016162963A1 (ja) 2016-10-13

Similar Documents

Publication Publication Date Title
JP6516832B2 (ja) 画像検索装置、システム及び方法
JP7282851B2 (ja) 装置、方法及びプログラム
CN107292240B (zh) 一种基于人脸与人体识别的找人方法及系统
US10074186B2 (en) Image search system, image search apparatus, and image search method
US11367219B2 (en) Video analysis apparatus, person retrieval system, and person retrieval method
JP6172551B1 (ja) 画像検索装置、画像検索システム及び画像検索方法
JP7018001B2 (ja) 情報処理システム、情報処理システムを制御する方法及びプログラム
JP6589321B2 (ja) システム、検索方法およびプログラム
Lin et al. Visual-attention-based background modeling for detecting infrequently moving objects
JP2011076255A (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
JP2015106300A (ja) 画像検索装置、画像検索装置の制御方法およびプログラム
US20140016831A1 (en) Apparatus for retrieving information about a person and an apparatus for collecting attributes
JP2017174343A (ja) 入店者属性抽出装置及び入店者属性抽出プログラム
JPWO2020136795A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019185205A (ja) 情報処理装置、情報処理方法、及びプログラム
KR101170676B1 (ko) 얼굴 인식 기반의 얼굴 검색 시스템 및 그 방법
Mahmood et al. Action recognition in poor-quality spectator crowd videos using head distribution-based person segmentation
JP2012238111A (ja) 顔画像認識装置及び顔画像認識プログラム
JP7357649B2 (ja) 識別を容易にするための方法および装置
Vasisht et al. Video-Based People Tracking
Wang et al. Fast filtering-based temporal saliency detection using Minimum Barrier Distance
WO2022079841A1 (ja) グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体
Tyan et al. 18 Video Forensics
Zheng et al. Person Detection and Re-identification Across Multiple Images and Videos Obtained via Crowdsourcing
Jo et al. Abstraction and specification of local area networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190416

R150 Certificate of patent or registration of utility model

Ref document number: 6516832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150