JP7018001B2 - 情報処理システム、情報処理システムを制御する方法及びプログラム - Google Patents

情報処理システム、情報処理システムを制御する方法及びプログラム Download PDF

Info

Publication number
JP7018001B2
JP7018001B2 JP2018176204A JP2018176204A JP7018001B2 JP 7018001 B2 JP7018001 B2 JP 7018001B2 JP 2018176204 A JP2018176204 A JP 2018176204A JP 2018176204 A JP2018176204 A JP 2018176204A JP 7018001 B2 JP7018001 B2 JP 7018001B2
Authority
JP
Japan
Prior art keywords
image
moving object
images
search
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018176204A
Other languages
English (en)
Other versions
JP2020047069A (ja
Inventor
大輔 松原
信尾 額賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018176204A priority Critical patent/JP7018001B2/ja
Priority to CN201910346392.XA priority patent/CN110929067B/zh
Priority to US16/404,941 priority patent/US11308158B2/en
Priority to SG10201904328UA priority patent/SG10201904328UA/en
Priority to EP19182873.0A priority patent/EP3627354A1/en
Priority to SA119410200A priority patent/SA119410200B1/ar
Publication of JP2020047069A publication Critical patent/JP2020047069A/ja
Application granted granted Critical
Publication of JP7018001B2 publication Critical patent/JP7018001B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7335Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Description

本発明は、移動物体が撮影された画像を処理する技術に関する。
近年、凶悪犯罪の増加やセキュリティ意識の向上に伴い、店舗、空港及び道路などの人が集まる場所に、多くの監視カメラが設置されつつある。これらの監視カメラで撮影された映像は、監視レコーダなどの蓄積装置に格納され、必要に応じて閲覧される。また、IPカメラの普及によってネットワーク経由で多数のカメラが接続可能になり、また蓄積装置の大容量化が進んだことも相まって、膨大な量の映像が蓄積されつつある。したがって、従来のように目視で全映像データを確認することは非常に困難になっている。
そこで、大量の映像データの中から、特定の人物や物体が映っている場面を検索して提示するために、様々な類似検索技術が提案されている。ここで、類似検索技術とは、ユーザが指定した検索クエリと類似したデータを対象データ内から探して、その結果を提示する技術を指す。特に、類似画像検索技術とは、画像自体から抽出される色合いや形状、構図等の特徴量を用いて、特徴量間の類似度が大きいデータを検索する技術である。
撮影された画像中の人物を検索するための類似検索技術として、例えば特開2009-42879号公報(特許文献1)に記載された技術がある。特許文献1には、「複数のカメラが撮像した撮像画像内の人物の特徴量を示す特徴量情報を取得する。取得した特徴量情報に基づいて、第1のカメラで撮像された第1の人物の特徴量と第2のカメラで撮像された第2の人物の特徴量との差異を人物の特徴毎に算出する。算出した特徴量の差異に基づいて、第1の人物を検索する場合の有効度を示す絞込有効度を人物の特徴毎に算出する。」と記載されている。
特開2009-42879号公報
特許文献1には検索によって得られた多数の画像から効率的に不要な画像を除外することで検索結果を絞り込む方法が記載されている。しかし、人物を撮影した画像を検索クエリとして類似検索する場合に、同一人物の画像であっても、例えば検索クエリとは異なる角度から撮影された画像、検索クエリとは異なる服又は所持品を身に付けた画像等は検索結果として得られない場合がある。最終的に検索結果の絞り込みを行うとしても、その対象として、同一人物である可能性がある人物が撮影された画像が漏れなく得られるように検索を実行しておくことが望ましい。
上記の課題の少なくとも一つを解決するために、本発明は、プロセッサと、前記プロセッサに接続される記憶装置と、前記プロセッサに接続される表示装置と、を有する情報処理システムであって、前記記憶装置は、複数の撮影装置によって撮影された複数の画像を保持し、前記プロセッサは、検索クエリとして移動物体の画像が指定された場合、前記記憶装置に保持された複数の画像を対象として前記指定された画像を検索クエリとする類似検索を実行し、前記表示装置は、前記類似検索の結果として得られた複数の画像を表示し、前記表示装置は、前記検索クエリとして指定された画像を撮影した撮影装置の位置の表示を含む地図の画像を出力し、前記プロセッサは、検索クエリとして移動物体の画像が追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行し、前記表示装置は、前記指定された全ての画像を検索クエリとする類似検索の結果として得られた複数の画像を表示するように、表示される画像を更新し、前記表示装置は、前記追加して指定された画像を撮影した撮影装置の位置の表示を追加するように前記地図の画像を更新することを特徴とする。
本発明の一態様によれば、移動物体の検索の網羅性を向上させて、移動物体の追跡を容易にするができる。
上記した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例の移動物体追跡システムの全体構成を示すブロック図である。 本発明の実施例の移動物体追跡システムのハードウェア構成を示すブロック図である。 本発明の実施例の映像データベースの構成及びデータ例の説明図である。 本発明の実施例のインシデント情報データベースの構成及びデータ例の説明図である。 本発明の実施例の移動物体追跡システムによって出力される検索画面の説明図である。 本発明の実施例の移動物体追跡システムが実行する映像登録処理のフローチャートである。 本発明の実施例の移動物体追跡システムが実行する映像ロード処理のフローチャートである。 本発明の実施例の移動物体追跡システムが実行する移動体検索処理のフローチャートである。 本発明の実施例の移動物体追跡システムが実行するタグ付与処理のフローチャートである。 本発明の実施例の移動物体追跡システムが実行するタグ付与時の移動物体検索処理のフローチャートである。
以下、本発明の実施例の移動物体追跡システムについて、図面に従って説明する。
図1は、本発明の実施例の移動物体追跡システム100の全体構成を示すブロック図である。
本実施例の移動物体追跡システム100は、映像記憶装置101、映像撮影装置102、入力装置103、表示装置104、およびサーバ計算機105を備える情報処理システムである。映像記憶装置101は、映像データを保存し、要求に応じて出力する記憶媒体であり、コンピュータ内蔵のハードディスクドライブ、または、NAS(Network Attached Storage)もしくはSAN(Storage Area Network)などのネットワークで接続されたストレージシステムを用いて構成することができる。
映像撮影装置102は、映像を撮影して映像データを作成し、それを出力する装置である。
映像記憶装置101又は映像撮影装置102から出力された画像は、いずれもサーバ計算機105の映像入力部106(後述)に入力される。移動物体追跡システム100は、図1に示すように映像記憶装置101及び映像撮影装置102の両方を備えてもよいが、いずれか一方のみを備えてもよい。移動物体追跡システム100が映像記憶装置101及び映像撮影装置102の両方を備える場合、映像入力部106への映像データの入力元が必要に応じて映像記憶装置101又は映像撮影装置102に切り替えられてもよいし、映像撮影装置102から出力された映像データが一旦映像記憶装置101に記憶され、そこから映像入力部106に入力されてもよい。その場合、映像記憶装置101は、例えば、映像撮影装置102から継続的に入力される映像データを一時的に保持するキャッシュメモリであってもよい。
なお、映像記憶装置101に保存される映像データ及び映像撮影装置102によって作成される映像データは、撮影された移動物体の追跡に利用できるものである限り、どのような形式のデータであってもよい。例えば、映像撮影装置102がアナログカメラ又はIPカメラであり、それによって撮影された動画像データが映像データとして出力されてもよいし、そのような映像データが映像記憶装置101に記憶されてもよい。あるいは、映像撮影装置102がスチルカメラであり、それによって所定の間隔(少なくとも撮影された物体を追跡できる程度の間隔)で撮影された一連の静止画像データが映像データとして出力されてもよいし、そのような映像データが映像記憶装置101に記憶されてもよい。
入力装置103は、マウス、キーボード、タッチデバイスなど、ユーザの操作をサーバ計算機105に伝えるための入力インタフェースである。表示装置104は、液晶ディスプレイなどの出力インタフェースであり、サーバ計算機105の検索結果の表示、ユーザとの対話的操作などのために用いられる。例えばいわゆるタッチパネル等を用いることによって入力装置103と表示装置104とが一体化されてもよい。後述する検索画面501(図5)は表示装置104によって表示され、検索画面中のボタンに対する操作はユーザが入力装置103を操作することによって行われる。
サーバ計算機105は、入力された映像データから、ユーザに指定された検索条件に基づいて所望の移動物体を追跡する移動物体追跡装置として機能する。具体的には、サーバ計算機105は、与えられた映像データの各フレームに含まれる移動物体を追跡し、その移動物体に関する情報を蓄積する。ユーザが蓄積されたフレームから探したい移動物体の検索条件を指定すると、サーバ計算機105は、蓄積された情報を用いて画像を検索する。サーバ計算機105が扱う映像は、一箇所以上の場所で撮影された定点観測の映像であることを想定している。また、追跡対象の物体は、人物又は車両などの任意の移動物体である。また、人物が運んでいる荷物なども移動物体と見做すことができる。
サーバ計算機105は、映像入力部106、フレーム登録部107、移動物体検知部108、移動物体登録部109、移動物体追跡部110、追跡情報登録部111、インシデントデータベース112、映像データベース113、移動物体指定部114、インシデント管理部115、及び特徴量検索部116を備える。
映像入力部106は、映像記憶装置101から映像データを読み出すか、又は映像撮影装置102によって撮影された映像データを受け取り、それをサーバ計算機105内部で使用するデータ形式に変換する。具体的には、映像入力部106は、映像(動画データ形式)をフレーム(静止画データ形式)に分解する動画デコード処理を行う。得られたフレームは、フレーム登録部107及び移動物体検知部108に送られる。なお、映像記憶装置101又は映像撮影装置102から映像ではなくフレームを取得できる場合は、得られたフレームを使用しても良い。
フレーム登録部107は、抽出されたフレームと抽出元の映像の情報を映像データベース113に書き込む。映像データベース113に記録するデータの詳細については図3の説明として後述する。
移動物体検知部108は、映像中の移動物体を検出する。移動物体の検出は、例えば公知の方法など、任意の方法を用いて実現することができる。
移動物体登録部109は、検出した移動物体から特徴量を抽出し、抽出した特徴量を映像データベース113に登録する。
移動物体追跡部110は、前フレームの移動物体との対応付けを行うことによって、移動物体の追跡を行う。移動物体の追跡は、例えば公知の方法など、任意の方法を用いて実現することができる。軌跡情報は、各フレームの移動物体の座標情報と各軌跡にユニークに付与されるID(追跡ID)で構成される(図3参照)。
追跡情報登録部111は、付与された追跡IDを映像データベース113に登録する。
映像データベース113は、映像、フレーム、及び移動物体の軌跡情報等を保存するためのデータベースである。映像データベース113へのアクセスは、フレーム登録部107、移動物体登録部109、追跡情報登録部111からの登録処理、及び、特徴量検索部116からの検索処理の際に発生する。映像データベース113の構造について、詳しくは図3の説明として後述する。
インシデントデータベース112は、ユーザの追跡オペレーションの際に発生する情報を保存するためのデータベースである。インシデントデータベース112へのアクセスは、インシデント管理部115からの登録処理、及び、情報取得処理の際に発生する。インシデントデータベース112の構造について、詳しくは図4の説明として後述する。
移動物体指定部114は、ユーザが指定した移動物体(例えば人物の外接矩形)を入力装置103から受け取る。
インシデント管理部115は、ユーザのオペレーション開始時にオペレーションのトリガーとなった情報を登録する。例えば、置き去り検知技術を用いて放置荷物を発見した際に、検知したカメラIDと検知時刻などをインシデントデータベース112に登録する。また、移動物体追跡時にユーザが正しい追跡結果と判断した移動物体にタグを付ける操作を行った場合に、インシデント管理部115は、該当する移動物体にタグ情報を付与し、インシデントデータベース112に登録する。詳しくは図9及び図10の説明として後述する。
特徴量検索部116は、移動物体から抽出された検索用特徴量と類似する特徴量を映像データベース113から検索して、その結果を表示装置104に出力する。
図2は、本発明の実施例の移動物体追跡システム100のハードウェア構成を示すブロック図である。
サーバ計算機105は、例えば、相互に接続されたプロセッサ201および記憶装置202を有する一般的な計算機である。記憶装置202は任意の種類の記憶媒体によって構成される。例えば、記憶装置202は、半導体メモリ及びハードディスクドライブを含んでもよい。
この例において、図1に示した映像入力部106、フレーム登録部107、移動物体検知部108、移動物体登録部109、移動物体追跡部110、追跡情報登録部111、移動物体指定部114、インシデント管理部115及び特徴量検索部116といった機能部は、プロセッサ201が記憶装置202に格納された処理プログラム203を実行することによって実現される。
言い換えると、この実施例において、上記の各機能部が実行する処理は、実際には、処理プログラム203に記述された命令に従うプロセッサ201によって実行される。また、インシデントデータベース112及び映像データベース113は、記憶装置202に含まれる。また、表示装置104による表示は、プロセッサ201が表示のためのデータを生成して表示装置104に出力し、表示装置104がそのデータに従って表示を行うことによって実行される。
サーバ計算機105は、さらに、プロセッサ201に接続されたネットワークインターフェース装置(NIF)204を含む。映像撮影装置102は、例えば、ネットワークインターフェース装置204を介してサーバ計算機105に接続される。映像記憶装置101は、ネットワークインターフェース装置204を介してサーバ計算機105に接続されたNAS(Network-Attached Storage)またはSAN(Storage Area Network)であってもよいし、記憶装置202に含まれてもよい。
図3は、本発明の実施例の映像データベース113の構成及びデータ例の説明図である。ここではテーブル形式の構成例を示すが、データ形式はテーブル形式に限らず、任意でよい。
映像データベース113は、図3に示す画像データ管理情報300、移動物体管理情報310、及び、追跡情報管理情報320を含む。図3のテーブル構成および各テーブルのフィールド構成は、本発明を実施する上で必要となる構成であり、アプリケーションに応じてテーブル及びフィールドを追加してもよい。
画像データ管理情報300は、フレームIDフィールド301、カメラIDフィールド302、撮影時刻フィールド303、及び画像データフィールド304を有する。
フレームIDフィールド301は、映像データから抽出されたフレーム画像データの識別情報(以下、フレームID)を保持する。
カメラIDフィールド302は、映像撮影装置102の識別情報(以下、カメラID)を保持する。映像データが映像記憶装置101から読み込まれる場合は、カメラIDを省略しても良いし、映像ファイルの識別情報(以下、映像ID)を保持しても良い。
撮影時刻フィールド303は、画像が撮影された時刻の情報を保持する。
画像データフィールド304は、フレームの静止画像のバイナリデータを保持する。このデータは、検索結果などを表示装置104に表示する際に用いられる。画像データフィールド304は、オリジナルの画像データだけでなく、サムネイル画像を合わせて保持しても良い。
移動物体管理情報310は、移動物体IDフィールド311、追跡IDフィールド312、フレームIDフィールド313、矩形座標フィールド314、及び、移動物体特徴量315を含む。
移動物体IDフィールド311は、各フレームから検出された移動物体の識別情報(以下、移動物体ID)のリストを保持する。ここで、移動物体IDは、移動物体そのものを識別するものではなく、各フレームから検出された移動物体の画像を識別するものである。同一の移動物体の画像が複数のフレームから検出された場合には、それらの移動物体の画像の各々に別の(一意の)移動物体IDが与えられ、それらの移動物体IDが一つの追跡IDに対応付けられる。
追跡IDフィールド312は、前述した移動物体IDに対応付けられる追跡IDを保持する。
フレームIDフィールド313は、各移動物体が検出された元となるフレーム画像のフレームIDを保持する。このフレームIDは、画像データ管理情報300のフレームIDフィールド301に保持されるものと対応する。
矩形座標フィールド314は、各フレームから検出された移動物体の画像の当該フレーム画像中に占める範囲を示す矩形座標を保持する。この座標は、例えば、移動物体の外接矩形の「左上隅の水平座標、左上隅の垂直座標、右下隅の水平座標、右下隅の垂直座標」という形式で表現されてもよいし、矩形の左上隅の水平座標、左上隅の垂直座標、幅及び高さによって表現されてもよい。
移動物体特徴量315は、画像中の矩形から抽出された特徴量であり、ベクトルデータである。例えば、移動物体特徴量315は、色情報や形状情報などでも良いし、Deep Learningを用いて抽出された特徴量でも良い。
追跡情報管理情報320は、追跡IDフィールド321及び移動物体IDフィールド322を有する。
追跡IDフィールド321は、移動物体管理情報310の追跡IDフィールド312に保持されるものと対応する。
移動物体IDフィールド322は、同一の追跡IDが付与された移動物体IDのリストを保持する。移動物体IDフィールド322は、移動物体管理情報310の移動物体IDフィールド311に保持されるものと対応する。
例えば、図3に示すように、追跡ID「1」に対応する移動物体IDフィールド322に「1、2、3、4、6、7、8、12、・・・」が登録されていることは、あるフレームから検出された移動物体ID「1」によって識別される移動物体の画像と、別のフレームから検出された移動物体ID「2」によって識別される移動物体の画像と、同様にそれぞれ別のフレームから検出された移動物体ID「3」、「4」、「6」、「7」、「8」、「12」、等によって識別される移動物体の画像とが、移動物体追跡部110によって相互に対応付けられた(すなわちそれらが同一の移動物体の画像と判定された)ことを意味する。
移動物体を追跡する方法の一例としては、あるフレームから検出された移動物体ID「1」の画像と、別フレームから検出された移動物体ID「4」の画像とのそれぞれから画像特徴量を抽出し、画像特徴量の類似度(距離)を算出し、類似度が閾値以上であれば、両画像の移動物体は同一の移動物体と判定し、対応付けを行うという方法が挙げられる。また、ある時刻までのフレームの移動物体の移動方向及び移動速度の情報から、それより後の時刻のフレームにおける移動物体の出現位置を推定し、その推定結果と実際の移動物体の出現位置との距離が所定の基準より小さい場合に、同一の移動物体と判定しても良い。
図4は、本発明の実施例のインシデントデータベース112の構成及びデータ例の説明図である。ここではテーブル形式の構成例を示すが、データ形式はテーブル形式に限らず、任意でよい。
インシデントデータベース112は、図4に示すインシデント管理情報400及びタグ管理情報410を含む。図4のテーブル構成および各テーブルのフィールド構成は、本発明を実施する上で必要となる構成であり、アプリケーションに応じてテーブル及びフィールドを追加してもよい。
インシデント管理情報400は、インシデントIDフィールド401、トリガーカメラIDフィールド402、トリガー時刻フィールド403、オペレーション開始時刻フィールド404、オペレーション終了時刻フィールド405及びタグIDフィールド406を有する。
インシデントIDフィールド401は、検知されたインシデントの識別情報(以下、インシデントID)を保持する。ここで、インシデントとは、移動物体の検索等のオペレーションの対象となる事象である。例えば、持ち主不明の荷物の存在が検知され、その荷物を置き去った人物を捜すためのオペレーションが行われる場合に、そのような荷物の置き去りがインシデントである。
以下、主に荷物の置き去りを例として説明するが、移動物体追跡システム100が扱うインシデントはこれに限られない。例えば、何らかの行為が行われたこと、又は、特定の人物が存在したこと等、任意の事象をインシデントとして扱い、それに対して下記の処理を適用することができる。
トリガーカメラIDフィールド402及びトリガー時刻フィールド403は、それぞれ、インシデントの検知のトリガーとなった画像を撮影した映像撮影装置102を識別するカメラID(以下、トリガーカメラID)、及び、その画像の撮影時刻(以下、トリガー時刻)を保持する。例えば上記のように持ち主不明の荷物の存在が検知された場合、その荷物が最初に発見された画像を撮影した映像撮影装置102を識別するカメラID及び撮影時刻がそれぞれトリガーカメラIDフィールド402及びトリガー時刻フィールド403に保持される。
オペレーション開始時刻フィールド404及びオペレーション終了時刻フィールド405には、それぞれ、インシデントに対応して実行されたオペレーションの開始時刻及び終了時刻が保持される。例えば上記のように持ち主不明の荷物の存在が検知され、その荷物を置き去った人物を捜索するための画像の検索等のオペレーションが行われた場合、そのオペレーションが開始された時刻及び終了した時刻がそれぞれオペレーション開始時刻フィールド404及びオペレーション終了時刻フィールド405に保持される。
タグIDフィールド406には、オペレーションにおいて画像中の移動物体に付与されたタグの識別情報(以下、タグID)が保持される。
タグ管理情報410は、タグIDフィールド411、インシデントIDフィールド412、移動物体IDフィールド413及びタグ付与時刻フィールド414を有する。
タグIDフィールド411には、各タグを識別するタグIDが保持される。このタグIDは、インシデント管理情報400のタグIDフィールド406に保持されるものと対応する。
インシデントIDフィールド412には、各タグに対応するインシデントを識別するインシデントIDが保持される。このインシデントIDは、インシデント管理情報400のインシデントIDフィールド401に保持されるものと対応する。
移動物体IDフィールド413には、各タグが付与された移動物体を識別する移動物体IDが保持される。この移動物体IDは、移動物体管理情報310の移動物体IDフィールド311に保持されるものと対応する。
タグ付与時刻フィールド414には、各タグが付与された時刻が保持される。
例えば、上記のように持ち主不明の荷物の存在が検知され、そのことに対してインシデントID「1」が付与され、その荷物を置き去った人物を捜索するオペレーションが開始された場合、そのオペレーションにおいて検索された画像に含まれる移動物体にタグが付与されると、当該タグのID、当該インシデントのID「1」、当該移動物体のID及び当該タグが付与された時刻がそれぞれタグIDフィールド411、インシデントIDフィールド412、移動物体IDフィールド413及びタグ付与時刻フィールド414に保持される。
図5は、本発明の実施例の移動物体追跡システム100によって出力される検索画面の説明図である。
図5に示す検索画面501は、サーバ計算機105が生成して表示装置104に表示させるものであり、指示エリア502、地図エリア503、カメラ画像エリア504、候補画像エリア505、タグ画像エリア506、ライブ画像エリア507及び検索結果表示エリア508を含む。
指示エリア502には、トリガーカメラID502A、トリガー時刻502B、ロードボタン502C、報告ボタン502D及び現在時刻502Eが表示される。
ユーザがトリガーカメラID502A及び時刻502Bを入力し、ロードボタン502Cを操作すると、移動物体追跡システム100は、映像ロード処理を開始する(図7参照)。また、オペレーションが終了した後にユーザが報告ボタン502Dを操作すると、移動物体追跡システム100は、実行されたオペレーションに関する報告を作成して出力する。例えば追跡対象の人物が発見されてオペレーションが終了した場合には、そのことを示す報告が作成される。
地図エリア503には、移動物体追跡システム100による追跡の対象となる空間の少なくとも一部の地図が表示される。図5の例では、対象の空間の平面図上に、映像撮影装置102の設置位置及びそれぞれの撮影方向が表示されている。
カメラ画像エリア504には、トリガーカメラID及びトリガー時刻が入力され、ロードボタン502Cが操作されたときにロードされた画像が表示される。トリガーカメラIDによって識別される映像撮影装置102が、トリガー時刻を含む所定の時間帯(例えばトリガー時刻の5分前から5分後までの10分間)に撮影したフレームの画像がロードされた場合、それらの画像のいずれかがカメラ画像エリア504に表示される。
例えば、トリガー時刻に撮影されたフレームの画像が最初に表示され、その後、ユーザの操作に応じて、ロードされた時間内の任意の時刻のフレームの画像が表示されてもよい。このような操作を可能とするために、カメラ画像エリア504は、シークバー、再生ボタン、早送りボタン及び巻き戻しボタンを含んでもよい。さらに、ロードされた時間帯の始点と終点の時刻及びそれぞれの時刻と現在時刻との差分(例えばそれぞれの時刻が現在時刻の何分前であるか)が表示されてもよい。また、表示されるフレームの画像は、移動物体検知部108が検知した移動物体の表示、例えば、検知した移動物体の外接矩形の表示を含んでもよい。
候補画像エリア505には、カメラ画像エリア504に表示されたフレームの画像に含まれる移動物体のうち、ユーザが指定した移動物体の画像が表示される。例えば、カメラ画像エリア504に表示された移動物体のいずれかをユーザが指定すると、その移動物体の外接矩形の画像が候補画像エリア505に表示され、さらに、ロードされた他の時刻のフレームの画像に含まれるその移動物体と同一の移動物体(すなわちその移動物体と同一の追跡IDが付与された移動物体)の外接矩形の画像が候補画像エリア505に表示されてもよい。
タグ画像エリア506は、選択画像エリア506A、タグ表示エリア506B、タグ付与ボタン506C及び検索ボタン506Dを含む。選択画像エリア506Aには、候補画像エリア505からユーザが選択した画像が表示される。ユーザがタグ付与ボタン506Cを操作すると、選択した画像の移動物体に新たなタグが付与され、その画像がタグ表示エリア506Bに表示される。これらの画像は、タグが付与された順に関わらず、撮影時刻の順に並べて表示される。新たにタグが付与された画像が追加された場合には、その撮影時刻に従ってタグ表示エリア506Bの表示が更新される。
タグ表示エリア506Bの画像には、付与されたタグの数値がさらに表示されてもよい。図5の例では三つの画像の移動物体にタグが付与され、それぞれに「1」から「3」の数値が表示されている。この数値は、タグが付与された移動物体の画像が撮影された時刻の順を示している。
なお、移動物体の画像にタグが付与された場合には、地図エリア503上の、その画像を撮影した映像撮影装置102の設置位置に、そのタグの数値を表示してもよい。
ユーザが検索ボタン506Dを操作すると、タグが付与された画像の特徴量を検索クエリとする類似検索が実行される。タグ表示エリア506Bにタグが付与された画像が存在しない場合は、選択画像エリア506Aの画像の特徴量を検索クエリとする類似検索が実行されてもよい。
ライブ画像エリア507には、トリガーカメラIDによって識別される映像撮影装置102が現在撮影している映像(ライブ映像)が表示される。例えばインシデントが荷物の置き去りである場合、ユーザは、これを参照することによって、置き去られた荷物の現状を把握することができる。また、ユーザは、カメラIDを指定することによって、ライブ画像エリア507に表示される映像を任意の映像撮影装置102によって撮影されたものに切り替えることができる。
検索結果表示エリア508には、実行された検索の結果が表示される。具体的には、タイムライン508A上に、検索によって得られた画像の撮影時刻に対応する位置に、検索結果アイコンが表示される。図5の例では、検索結果アイコンとして虫眼鏡のマークが表示されている。また、「1」から「3」の数値のマークは、タグが付与された画像の撮影時刻を示している。これらの数値はタグの数値(すなわち画像の撮影時刻の順を示す数値)である。検索結果として得られた画像に新たにタグが付与された場合には、その画像に対応するアイコンが虫眼鏡のマークからタグの数値を示すマークに変更される。
タイムライン508A上には、画像の表示範囲(図5の例では破線の枠)が表示され、その表示範囲内のアイコンに対応する画像が画像表示エリア508Bに表示される。ユーザは、画像の表示範囲を任意に変更することができ、それによって任意の時刻の検索結果の画像を参照することができる。
各アイコンに対応する画像表示エリア508Bには、そのアイコンに対応する検索結果の移動物体の外接矩形の画像と、それを含むフレームの画像と、それを撮影した映像撮影装置102を識別するカメラIDと、その撮影時刻とが表示される。撮影時刻として時刻そのものが表示されてもよいし、現在時刻からの差分(例えば「5分前」等)が表示されてもよい。
例えば、荷物の置き去りというインシデントが現在発生しており、その荷物を置き去った人物の身柄を確保しようとする場合には、現在時刻からの差分(すなわちその画像が撮影されてから現在までの経過時間)を表示することによって、当該人物が現在いる可能性がある範囲を推定して、捜索範囲を絞り込むことが容易になる。一方、映像記憶装置101に格納された過去の映像を参照して、過去に発生したインシデントの分析を行うような場合には、撮影時刻が表示された方がよい場合がある。
さらに、ユーザは、検索結果表示エリア508内の閾値バー508Cを操作して、類似検索の際の類似度の閾値を設定することができる。
図6は、本発明の実施例の移動物体追跡システム100が実行する映像登録処理のフローチャートである。
最初に、映像入力部106が、映像記憶装置101又は映像撮影装置102から入力された映像から複数のフレームを抽出する(ステップS601)。次に、移動物体追跡システム100は、抽出されたそれぞれのフレームを対象として、ステップS603~S608の処理を実行する(ステップS602、S609)。
最初に、フレーム登録部107が、対象のフレームを映像データベース113に登録する(ステップS603)。その結果、画像データ管理情報300に一つのレコードが追加され、対象のフレームを識別するフレームID、当該フレームを撮影した映像撮影装置102を識別するカメラID、当該フレームの撮影時刻及び当該フレームの画像データがそれぞれフレームIDフィールド301、カメラIDフィールド302、撮影時刻フィールド303及び画像データフィールド304に保持される。
次に、移動物体検知部108が、対象のフレームから移動物体を検知する(ステップS604)。この検知は、例えば公知の方法など、任意の方法を用いて実現することができるため、詳細な説明を省略する。
次に、移動物体追跡部110が、移動物体から特徴量を抽出する(ステップS605)。ステップS604において複数の移動物体が検知された場合、移動物体追跡部110は、それぞれの移動物体から特徴量を抽出する。
次に、移動物体追跡部110は、新しい移動物体が出現したかを判定する(ステップS606)。例えば、移動物体追跡部110は、ステップS605で抽出された特徴量に基づいて、ステップS604で対象のフレームから検知された各移動物体が、同じ映像撮影装置102で撮影された前の時刻のフレームから検知されたいずれかの移動物体と同一の移動物体であるかを判定してもよい。そして、対象のフレームから検知された移動物体のいずれかが、同じ映像撮影装置102で撮影された前の時刻のフレームから検知されたいずれの移動物体とも同一でないと判定した場合、当該移動物体が新たに出現したと判定してもよい。
移動物体追跡部110は、新しい移動物体が出現したと判定した場合(ステップS606:YES)、新しく出現した移動物体に対応する追跡情報をデータベースに登録する(ステップS607)。具体的には、移動物体追跡部110は、追跡情報管理情報320に新たなレコードを追加して、その追跡IDフィールド321に新たな追跡IDを登録する。一方、移動物体追跡部110は、新しい移動物体が出現しなかったと判定した場合(ステップS606:NO)、ステップS607を実行しない。
次に、移動物体登録部109が検知された移動物体をデータベースに登録し、追跡情報登録部111が追跡情報を更新する(ステップS608)。具体的には、移動物体登録部109は、ステップS604で検知された各移動物体を識別する移動物体ID、各移動物体が検知されたフレームを識別するフレームID、各移動物体のフレームにおける位置及び範囲を示す矩形座標、及び、各移動物体からステップS605で抽出された特徴量を、それぞれ、移動物体IDフィールド311、フレームIDフィールド313、矩形座標フィールド314及び移動物体特徴量フィールド315に登録する。
そして、各移動物体が前の時刻のフレームから検知された移動物体と同一であると判定された場合には、移動物体登録部109は、それと同一の追跡IDを追跡IDフィールド312に登録する。そして、追跡情報登録部111は、その追跡IDに対応する追跡情報管理情報320の移動物体IDフィールド322に、各移動物体を識別する移動物体IDを追加する。
一方、いずれかの移動物体が前の時刻のフレームから検知されたいずれの移動物体とも同一でない(すなわち新たに出現した移動物体である)と判定された場合には、追跡情報登録部111は、当該新たに出現した移動物体を識別する移動物体IDを、追跡情報管理情報320の、ステップS607で追加されたレコードの移動物体IDフィールド322に登録する。そして、移動物体登録部109は、ステップS607で追加されたレコードの追跡IDフィールド321に登録された追跡IDを、当該新たに出現した移動物体に対応する追跡IDフィールド312に登録する。
ステップS601で抽出された全てのフレームについてステップS603~S608の処理が終了すると、映像登録処理が終了する。
図7は、本発明の実施例の移動物体追跡システム100が実行する映像ロード処理のフローチャートである。
最初に、ユーザがトリガーカメラID及びトリガー時刻を移動物体追跡システム100に入力して(ステップS701、S702)、ロードボタン502Cを操作する(ステップS703)。例えば、ユーザは、入力装置103を操作して、図5に示す検索画面501の指示エリア502にトリガーカメラID502A及びトリガー時刻502Bを入力し、ロードボタンを押下する。
具体的には、例えば、ユーザがいずれかの映像撮影装置102によって撮影された映像を参照して、置き去られた荷物を発見した場合、その映像撮影装置102のカメラID及びその映像の撮影時刻をトリガーカメラID502A及びトリガー時刻502Bとして入力してもよい。あるいは、ユーザが、当該荷物が置き去られた現場からの通報に従って過去の映像を参照し、置き去られた荷物が撮影された映像を確認した場合、その映像を撮影した映像撮影装置102のカメラID及びその映像の撮影時刻をトリガーカメラID502A及びトリガー時刻502Bとして入力してもよい。
上記の例ではユーザが手動でトリガーカメラID502A及びトリガー時刻502Bを入力し、ロードボタンを操作したが、その代わりに、トリガーカメラID及びトリガー時刻をURLパラメータとして渡し、それに基づいて自動的にロードを行ってもよい。
次に、特徴量検索部116が該当時間帯の画像に関する特徴量を映像データベース113からロードする(ステップS704)。ここでロードされる特徴量は、例えば、カメラID及び時刻などの情報、画像から抽出した画像特徴量、及び画像自身等の、種々の型のデータを含んでもよい。また、該当時間帯とは、例えばトリガー時刻を基準として決定される所定の長さの時間帯(例えばトリガー時刻の5分前から5分後までの10分間、など)であってもよいし、ユーザがロードの度に手動で設定した時間帯であってもよい。後者の場合、検索画面501が時間帯を設定するためのGUIを含んでもよい。
次に、インシデント管理部115がインシデントIDを発行する(ステップS705)。
次に、インシデント管理部115は、トリガーカメラID、トリガー時刻及びオペレーション開始時刻をインシデントデータベース112のインシデント管理情報400に登録する(ステップS706)。具体的には、インシデント管理部115は、インシデント管理情報400の新たなレコードのインシデントIDフィールド401にステップS705で発行したインシデントIDを登録し、トリガーカメラIDフィールド402、トリガー時刻フィールド403及びオペレーション開始時刻フィールド404にそれぞれ入力されたトリガーカメラID、入力されたトリガー時刻及び現在時刻を登録する。
以上で映像ロード処理が終了する。
図8は、本発明の実施例の移動物体追跡システム100が実行する移動体検索処理のフローチャートである。
最初に、ユーザが画像中の移動物体を指定する(ステップS801)。例えば、ユーザは、検索画面501のカメラ画像エリア504に表示された画像に含まれる一つ以上の移動物体(例えば人物)の画像からいずれかを選択し、入力装置103を操作して当該移動物体の画像を指定する情報を入力してもよい。以下の説明は移動物体の画像として人物画像が指定される例を示すが、人物以外の移動物体の画像が指定された場合も同様の処理が実行される。
次に、ユーザが候補画像中の人物画像を指定する(ステップS802)。例えば、ユーザは、候補画像エリア505に表示された同一人物の複数の外接矩形の画像からいずれかを選択し、入力装置103を操作して当該人物を指定する情報を入力してもよい。
次に、ユーザが入力装置103を操作してタグ画像エリア506中の検索ボタン506Dを操作する(ステップS803)。
次に、特徴量検索部116が、映像データベース113に格納されている画像を対象として、ステップS802で指定された人物の外接矩形の画像の特徴量を検索クエリとする類似検索を実行する(ステップS804)。
次に、特徴量検索部116が、ステップS804の検索結果を時刻順に表示装置104を介して表示する(ステップS805)。これによって、例えば、検索結果表示エリア508に、類似度が閾値を超えた人物の外接矩形の画像と、その外接矩形を含むフレーム全体の画像との組が、撮影された時刻の順に表示される。
次に、特徴量検索部116が、表示装置104を介して、タイムライン508A上に検索結果アイコンを表示する(ステップS806)。図5の例では、検索結果表示エリア508内のタイムライン508A上の、各検索結果の画像が撮影された時刻に対応する位置に、検索結果アイコンとして虫眼鏡のマークが表示される。
以上で移動体検索処理が終了する。
図9は、本発明の実施例の移動物体追跡システム100が実行するタグ付与処理のフローチャートである。
最初に、ユーザは、画像中の移動物体を指定し(ステップS901)、続いて、候補画像中の人物画像を指定する(ステップS902)。これらは、例えば、ステップS801及びS802と同様に実行されてもよい。
ユーザは、タグ画像エリア506の選択画像エリア506Aに表示されている移動物体にタグを付与するために、入力装置103を操作してタグ画像エリア506中のタグ付与ボタン506Cを操作する(ステップS903)。
次に、インシデント管理部115が、タグIDを発行する(ステップS904)。
次に、インシデント管理部115が、インシデントデータベース112のタグ管理情報410に新たなレコードを追加して、そのレコードのタグIDフィールド411にステップS904で発行されたタグIDを、インシデントIDフィールド412に図7のステップS705で発行されたインシデントIDを、移動物体IDフィールド413にステップS902で指定された人物画像の移動物体IDを、タグ付与時刻フィールド414にステップS904のタグIDが発行された時刻を、それぞれ登録する(ステップS905)。
次に、インシデント管理部115が、インシデントデータベース112のインシデント管理情報400のレコードのうち、インシデントIDフィールド401に図7のステップS705で発行されたインシデントIDが登録されているレコードのタグIDフィールド406に、ステップS904で発行されたタグIDを追加する(ステップS906)。
次に、インシデント管理部115が、当該インシデントIDに関連するタグが付与された移動物体を撮影時刻の順にソートして、タグの順序を示す数値を再割り当てする。(ステップS907)。タグの順序は、タグが付与された移動物体の画像の撮影時刻の順序を示す。タグが付与された移動物体の画像の撮影時刻は、タグ管理情報410を参照して各タグを識別するタグIDに対応する移動物体IDを特定し、移動物体管理情報310を参照して各移動物体IDに対応するフレームIDを特定し、画像データ管理情報300を参照して各フレームIDに対応する撮影時刻を特定することによって、特定することができる。
次に、インシデント管理部115が、表示装置104を介して、地図エリア503、タグ画像エリア506及び検索結果表示エリア508にタグを表示する。既にタグが表示されている場合には、その表示が更新される。図5の例では、地図エリア503内の、それぞれのタグが付与された移動物体を撮影した映像撮影装置102の位置に、それぞれの移動物体の撮影時刻の順序を示す数値が表示される。
また、タグ画像エリア506内の、それぞれのタグが付与された移動物体に、それぞれの移動物体の撮影時刻の順序を示す数値が表示される。さらに、検索結果表示エリア508にも、タイムライン508A上のそれぞれのタグが付与された移動物体が撮影された時刻に相当する位置に、それぞれの移動物体の撮影時刻の順序を示す数値(図5の例では「1」、「2」及び「3」)が表示される。
以上でタグ付与処理が終了する。
図10は、本発明の実施例の移動物体追跡システム100が実行するタグ付与時の移動物体検索処理のフローチャートである。
最初に、ユーザは、画像中の移動物体を指定し(ステップS1001)、候補画像中の人物画像を指定し(ステップS1002)、検索ボタン506Dを操作する(ステップS1003)。これらは、例えば、ステップS801~S803と同様に実行されてもよい。
次に、特徴量検索部116が、映像データベース113に格納されている画像を対象として、タグが付与された全ての移動物体の画像の特徴量を検索クエリとする類似検索を実行する(ステップS1004)。例えば、各検索クエリについて、図8のステップ804と同様の検索が実行される。
次に、特徴量検索部116が、ステップS1004の検索結果を時刻順に表示装置104を介して表示する(ステップS1005)。これは、例えば、図8のステップ805と同様に実行される。
次に、特徴量検索部116が、表示装置104を介して、タイムライン508A上に検索結果アイコン及びタグアイコンを表示する(ステップS1006)。図5の例では、タイムライン508A上の、各検索結果の画像が撮影された時刻に対応する位置に、検索結果アイコンとしてルーペのマークが表示される。さらに、タグが付与された画像(すなわち検索クエリとして使用された画像)が撮影された時刻に対応する位置に、その画像の撮影時刻の順序を示す数値(図5の例では「1」、「2」及び「3」)が表示される。
以上でタグ付与時の移動体検索処理が終了する。
ここで、図5及び図7から図10を参照して、移動物体追跡システム100を用いたオペレーションの具体例を説明する。撮影された映像について、図6の処理は終了しているものとする。以下の説明における事例及び数値等は一例であり、本発明を限定するものではない。
ここでは、インシデントとして荷物の置き去りが発生した場合について説明する。例えば、持ち主が不明の荷物が発見されたことが通報された場合、ユーザは、発見場所を撮影した過去の映像を参照して、当該荷物を置き去った人物が撮影されたフレームを特定する。
そして、ユーザは、特定したフレームを撮影した映像撮影装置102を識別するカメラID及びそのフレームの撮影時刻をトリガーカメラID及びトリガー時刻として移動物体追跡システム100に入力し(ステップS701、S702)、ロードボタン502Cを操作する(ステップS703)。すると、当該トリガーカメラIDで識別される映像撮影装置102がトリガー時刻を含む所定の時間(例えばトリガー時刻の5分前から5分後までの10分間)に撮影したフレームの画像がロードされる(ステップS704)。
このとき、カメラ画像エリア504には、例えば、ロードされた画像のうち、トリガー時刻に撮影されたフレームの画像が表示されてもよいし、ユーザが選択したその前後の任意の時刻の画像が表示されてもよい。例えば、ユーザが、表示されている画像から、荷物を置き去った人物の画像を指定すると(ステップS801)、ロードされた他のフレームから、指定された画像と同一の追跡IDが付与された画像が抽出され、それらが候補画像エリア505に表示される。
ユーザが候補画像エリア505に表示された複数の画像のいずれかを選択すると(ステップS802)、それがタグ画像エリア506の選択画像エリア506Aに表示される。そこでユーザが検索ボタン506Dを操作すると(ステップS803)、類似検索が実行され(ステップS804)、その結果が検索結果表示エリア508に表示される(ステップS805、S806)。
ユーザは、検索結果表示エリア508に表示された検索結果を参照して、適切な検索結果が得られるように閾値バー508Cを操作してもよい。ユーザは、適切な検索結果が得られた場合に、タグ付与ボタン506Cを操作して、そのときに選択画像エリア506Aに表示されている画像にタグを付与してもよい(図9参照)。その画像は、タグの数値と併せて、タグ表示エリア506Bに表示される。
ここで、ユーザは、候補画像エリア505に表示された他の画像をさらに指定することができる(ステップS1002)。その場合、特徴量検索部116は、タグが付与された画像と、新たに指定された画像とを検索クエリとした類似検索を実行する(ステップS1004)。表示装置104は、実行された類似検索の結果を表示するように、検索画面501の表示内容を更新する。
あるいは、ユーザは、例えば検索結果表示エリア508に表示された検索結果の画像のいずれかに検索クエリとして使えそうな画像が含まれていると判断した場合に、その画像又はその前後の時刻に撮影された画像を指定してもよい。具体的には、移動物体追跡システム100は、その画像を撮影した映像撮影装置102がその画像の撮影時刻を含む所定の長さの時間(例えばその画像の撮影時刻の5分前から5分後までの10分間)に撮影した映像をロードして、それに含まれる画像をカメラ画像エリア504に表示してもよい。この場合、当該画像からユーザがいずれかの人物の画像を指定すると、その画像と同一の追跡IDが付与された画像が抽出され、それらが候補画像エリア505に表示される。以後の処理は上記と同様である。
例えば、最初に指定した画像が人物を正面から撮影した画像であった場合、それを検索クエリとした類似検索によって、同様に正面から撮影された画像が得られやすく、他の方向から撮影された画像は相対的に得られにくくなる。当該人物の服装又は所持品が変更された場合も同様であり、例えば当該人物が荷物を置き去った後に着替えたり、新たに別の荷物を持ち歩いたりした場合には、その後の画像が検索によって得られにくくなる。このため、ユーザは、候補画像又は検索によって得られた画像から、当該人物を異なる方向から撮影した画像、当該人物が別の服を着ている画像又は別の荷物を持っている画像等を発見した場合に、それらを検索クエリに追加することで、漏れのない検索をすることが可能になる。
なお、上記のように複数の画像が検索クエリとして指定された場合、ステップS1004における類似検索は例えば次のように実行される。
すなわち、特徴量検索部116は、それぞれの画像の特徴量を検索クエリとした検索を実行して、検索された画像と検索クエリの画像との類似度を示すスコアを算出し、スコアが上位の画像を検索結果として出力してもよい。
あるいは、特徴量検索部116は、複数の検索クエリの特徴量の代表値を求めて、その代表値を用いた検索を実行してもよい。例えば、多数の画像が検索クエリとして指定された場合に、特徴量検索部116は、それらの画像の特徴量をクラスタリングして、各クラスタの代表値を検索クエリとして検索を実行してもよい。
上記の図5等を参照した説明では、ユーザがロードされた映像に含まれるいずれかの移動物体の画像を指定して検索ボタン506Dを操作したときに初めて類似検索が実行されるように記載したが、実際には、このような検索の開始が自動化されてもよい。例えば、移動物体追跡システム100は、映像をロードすると、トリガー時刻の画像をカメラ画像エリア504に表示し、その画像に含まれるいずれかの移動物体の画像を自動的に検索クエリとして指定して、類似検索を実行し、その結果を検索結果表示エリア508に表示してもよい。
一般には、例えば荷物を置き去った人物を追跡する場合に、その人物の特徴がよく現れている画像をトリガーとして選択すると考えられることから、例えばロードしたトリガー時刻の画像中の最も大きい外接矩形を有する移動物体の画像を自動的に検索クエリとして選択することで、ユーザの作業量を削減することができる。この場合、自動的に指定された移動物体がユーザの望んだものでないことがあり得るが、その場合は、ユーザが改めて対象の移動物体の画像を指定することで、所望の検索結果を得ることができる。
また、ユーザは、検索結果表示エリア508に検索結果が表示された後で、閾値バー508Cを操作して、類似度の閾値を変更してもよい。特徴量検索部116は、変更された閾値を用いて類似検索を実行して、その結果を表示装置104に出力する。表示装置104は、特徴量検索部116の検索結果に従って表示内容を更新する。
以上のように、本発明の一形態の情報処理システム(例えば移動物体追跡システム100)は、プロセッサ(例えばプロセッサ201)と、プロセッサに接続される記憶装置(例えば記憶装置202)と、プロセッサに接続される表示装置(例えば表示装置104)と、を有する。記憶装置は、複数の撮影装置(例えば映像撮影装置102)によって撮影された複数の画像を保持する。プロセッサは、検索クエリとして移動物体の画像(例えば候補画像エリア505に表示された人物の画像のいずれか)が指定された場合、記憶装置に保持された複数の画像を対象として前記指定された画像を検索クエリとする類似検索を実行する(例えばステップS804)。そして、プロセッサは、類似検索の結果として得られた複数の画像を表示するためのデータを表示装置に出力し、表示装置は、そのデータに従って画像を表示する(例えばステップS805)。さらに、プロセッサは、検索クエリとして移動物体の画像が追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行する(例えばステップS1004)。そして、プロセッサは、指定された全ての画像を検索クエリとする類似検索の結果として得られた複数の画像を表示するように、表示される画像を更新するためのデータを表示装置に送信し、表示装置は、そのデータに従って表示される画像を更新する(例えばステップS1005)。
これによって、画像からの移動物体の検索の網羅性が向上するため、例えば移動物体の追跡を容易にすることができる。
ここで、表示装置は、類似検索の結果として得られた複数の画像を撮影時刻の順に表示してもよい(例えば画像表示エリア508B)。
これによって、検索された画像に基づく移動物体の追跡が容易になる。
また、表示装置は、類似検索の結果として得られた各画像の撮影時刻を示す情報を表示してもよい(例えば画像表示エリア508B)。
これによって、検索された画像に基づく移動物体の追跡が容易になる。
ここで、各画像の撮影時刻を示す情報は、現在時刻と各画像の撮影時刻との差分であってもよい(例えば画像表示エリア508Bの「15秒前」など)。
これによって、検索された画像に基づいて追跡対象の移動物体が現在存在する可能性がある範囲を絞り込むことが容易になる。
また、表示装置は、検索クエリとして指定された画像を撮影した撮影装置の位置の表示を含む地図の画像(例えば地図エリア503)を出力し、検索クエリとして移動物体の画像が追加して指定された場合、追加して指定された画像を撮影した撮影装置の位置の表示を追加するように地図の画像を更新してもよい(例えばステップS908)。
これによって、追跡対象の移動物体所在地の把握が容易になる。
また、プロセッサは、記憶装置に保持された各撮影装置が撮影した画像から移動物体を検知し(例えばステップS604)、同一の撮影装置が異なる時刻に撮影した画像から検知された移動物体が同一か否かを判定し(例えばステップS606)、表示装置は、撮影装置の識別情報及び時刻が入力された場合(例えばステップS701~S703)、前記記憶装置に保持された画像のうち、前記入力された識別情報によって識別される撮影装置が入力された時刻を含む時間帯に撮影した複数の画像から検知された、指定された画像の移動物体と同一の移動物体の複数の画像(例えばステップS806で表示される候補画像エリア505の画像)を表示し、プロセッサは、表示装置が表示した複数の画像の一つ以上が検索クエリとして追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行してもよい(例えばステップS1004)。
これによって、ユーザによる適切な検索クエリの追加が容易になり、検索の網羅性が向上する。
また、プロセッサは、類似検索の結果として得られた複数の画像(例えば画像表示エリア508Bに表示された画像)に含まれるいずれかの移動物体の画像が検索クエリとして追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行してもよい(例えばステップS1004)。
これによって、ユーザによる適切な検索クエリの追加が容易になり、検索の網羅性が向上する。
このとき、プロセッサは、記憶装置に保持された各撮影装置が撮影した画像から移動物体を検知し(例えばステップS604)、同一の撮影装置が異なる時刻に撮影した画像から検知された移動物体が同一か否かを判定し(例えばステップS606)、表示装置は、類似検索の結果として得られた複数の画像(例えば画像表示エリア508Bに表示された画像)のいずれかが選択されると、選択された画像を撮影した撮影装置が選択された画像を撮影した時刻を含む時間帯に撮影した複数の画像から検知された、選択された画像の移動物体と同一の移動物体の複数の画像を表示し(例えば、画像表示エリア508Bに表示された画像が選択された場合の候補画像エリア505)、プロセッサは、表示装置が表示した複数の画像の一つ以上が検索クエリとして追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行してもよい(例えばステップS1004)。
これによって、ユーザによる適切な検索クエリの追加が容易になり、検索の網羅性が向上する。
また、表示装置は、検索クエリとして指定された全ての画像を、撮影された時刻の順に表示してもよい(例えばステップS907、S908、タグ表示エリア506B)。
これによって、ユーザが検索クエリとして指定した画像を把握しやすくなるとともに、対象の移動物体の外観が変化した場合(例えば人物の服装又は所持品が変化した場合等)にはその変化の過程を把握しやすくなる。
また、プロセッサは、指定された画像ごとに、その特徴量と記憶装置に保持された画像から検知された移動物体の画像の特徴量との類似度を示すスコアを計算し、スコアが上位の画像を検索結果として出力してもよい(例えばステップS1004)。
これによって、複数の画像が検索クエリとして指定された場合に、適切な検索結果を出力して検索の網羅性を向上させることができる。
また、プロセッサは、指定された複数の画像の特徴量をクラスタリングによって複数のクラスタに分類し、各クラスタの代表値と記憶装置に保持された画像から検知された移動物体の画像の特徴量との類似度を示すスコアを計算し、スコアが上位の画像を検索結果として出力してもよい(例えばステップS1004)。
これによって、多数の画像が検索クエリとして指定された場合にも、計算量の増大を抑えながら、検索の網羅性を向上させることができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されものではない。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
また、制御線及び情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
100:移動物体追跡システム、101:映像記憶装置、102:映像撮影装置、103:入力装置、104:表示装置、105:サーバ計算機、106:映像入力部、107:フレーム登録部、108:移動物体検知部、109:移動物体登録部、110:移動物体追跡部、111:追跡情報登録部、112:インシデントデータベース、113:映像データベース、114:移動物体指定部、115:インシデント管理部、116:特徴量検索部

Claims (12)

  1. プロセッサと、前記プロセッサに接続される記憶装置と、前記プロセッサに接続される表示装置と、を有する情報処理システムであって、
    前記記憶装置は、複数の撮影装置によって撮影された複数の画像を保持し、
    前記プロセッサは、検索クエリとして移動物体の画像が指定された場合、前記記憶装置に保持された複数の画像を対象として前記指定された画像を検索クエリとする類似検索を実行し、
    前記表示装置は、前記類似検索の結果として得られた複数の画像を表示し、
    前記表示装置は、前記検索クエリとして指定された画像を撮影した撮影装置の位置の表示を含む地図の画像を出力し、
    前記プロセッサは、検索クエリとして移動物体の画像が追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行し、
    前記表示装置は、前記指定された全ての画像を検索クエリとする類似検索の結果として得られた複数の画像を表示するように、表示される画像を更新し、
    前記表示装置は、前記追加して指定された画像を撮影した撮影装置の位置の表示を追加するように前記地図の画像を更新することを特徴とする情報処理システム。
  2. 請求項1に記載の情報処理システムであって、
    前記表示装置は、前記類似検索の結果として得られた複数の画像を撮影時刻の順に表示することを特徴とする情報処理システム。
  3. 請求項2に記載の情報処理システムであって、
    前記表示装置は、前記類似検索の結果として得られた各画像の撮影時刻を示す情報を表示することを特徴とする情報処理システム。
  4. 請求項3に記載の情報処理システムであって、
    前記各画像の撮影時刻を示す情報は、現在時刻と前記各画像の撮影時刻との差分であることを特徴とする情報処理システム。
  5. 請求項1に記載の情報処理システムであって、
    前記プロセッサは、
    前記記憶装置に保持された前記各撮影装置が撮影した画像から移動物体を検知し、
    同一の前記撮影装置が異なる時刻に撮影した画像から検知された移動物体が同一か否かを判定し、
    前記表示装置は、前記撮影装置の識別情報及び時刻が入力された場合、前記記憶装置に保持された画像のうち、前記入力された識別情報によって識別される撮影装置が前記入力された時刻を含む時間帯に撮影した複数の画像から検知された、前記指定された画像の移動物体と同一の移動物体の複数の画像を表示し、
    前記プロセッサは、前記表示装置が表示した複数の画像の一つ以上が検索クエリとして追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行することを特徴とする情報処理システム。
  6. 請求項1に記載の情報処理システムであって、
    前記プロセッサは、前記類似検索の結果として得られた複数の画像に含まれるいずれかの移動物体の画像が検索クエリとして追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行することを特徴とする情報処理システム。
  7. 請求項6に記載の情報処理システムであって、
    前記プロセッサは、
    前記記憶装置に保持された前記各撮影装置が撮影した画像から移動物体を検知し、
    同一の前記撮影装置が異なる時刻に撮影した画像から検知された移動物体が同一か否かを判定し、
    前記表示装置は、前記類似検索の結果として得られた複数の画像のいずれかが選択されると、選択された画像を撮影した撮影装置が選択された画像を撮影した時刻を含む時間帯に撮影した複数の画像から検知された、前記選択された画像の移動物体と同一の移動物体の複数の画像を表示し、
    前記プロセッサは、前記表示装置が表示した複数の画像の一つ以上が検索クエリとして追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行することを特徴とする情報処理システム。
  8. 請求項1に記載の情報処理システムであって、
    前記表示装置は、前記検索クエリとして指定された全ての画像を、撮影された時刻の順に表示することを特徴とする情報処理システム。
  9. 請求項1に記載の情報処理システムであって、
    前記プロセッサは、指定された画像ごとに、その特徴量と前記記憶装置に保持された画像から検知された移動物体の画像の特徴量との類似度を示すスコアを計算し、前記スコアが上位の画像を検索結果として出力することを特徴とする情報処理システム。
  10. 請求項1に記載の情報処理システムであって、
    前記プロセッサは、指定された複数の画像の特徴量をクラスタリングによって複数のクラスタに分類し、各クラスタの代表値と前記記憶装置に保持された画像から検知された移動物体の画像の特徴量との類似度を示すスコアを計算し、前記スコアが上位の画像を検索結果として出力することを特徴とする情報処理システム。
  11. プロセッサと、前記プロセッサに接続される記憶装置と、前記プロセッサに接続される表示装置と、を有する情報処理システムを制御する方法であって、
    前記記憶装置は、複数の撮影装置によって撮影された複数の画像を保持し、
    前記方法は、
    前記プロセッサが、検索クエリとして移動物体の画像が指定された場合、前記記憶装置に保持された複数の画像を対象として前記指定された画像を検索クエリとする類似検索を実行する手順と、
    前記表示装置が、前記類似検索の結果として得られた複数の画像を表示する手順と、
    前記表示装置が、前記検索クエリとして指定された画像を撮影した撮影装置の位置の表示を含む地図の画像を出力する手順と、
    検索クエリとして移動物体の画像が追加して指定された場合、前記プロセッサが、指定された全ての画像を検索クエリとする類似検索を実行する手順と、
    前記表示装置が、前記指定された全ての画像を検索クエリとする類似検索の結果として得られた複数の画像を表示するように、表示される画像を更新する手順と、
    前記表示装置が、前記追加して指定された画像を撮影した撮影装置の位置の表示を追加するように前記地図の画像を更新する手順と、を含むことを特徴とする方法。
  12. プロセッサと、前記プロセッサに接続される記憶装置と、前記プロセッサに接続される表示装置と、を有する情報処理システムを制御するためのプログラムであって、
    前記記憶装置は、複数の撮影装置によって撮影された複数の画像を保持し、
    前記プログラムは、
    検索クエリとして移動物体の画像が指定された場合、前記記憶装置に保持された複数の画像を対象として前記指定された画像を検索クエリとする類似検索を実行する手順と、
    前記類似検索の結果として得られた複数の画像を表示するためのデータを前記表示装置に出力する手順と、
    前記検索クエリとして指定された画像を撮影した撮影装置の位置の表示を含む地図の画像を出力するためのデータを前記表示装置に出力する手順と、
    検索クエリとして移動物体の画像が追加して指定された場合、指定された全ての画像を検索クエリとする類似検索を実行する手順と、
    前記指定された全ての画像を検索クエリとする類似検索の結果として得られた複数の画像を表示するように、表示される画像を更新するためのデータを前記表示装置に出力する手順と、
    前記追加して指定された画像を撮影した撮影装置の位置の表示を追加するように前記地図の画像を更新するためのデータを前記表示装置に出力する手順と、を前記プロセッサに実行させることを特徴とするプログラム。
JP2018176204A 2018-09-20 2018-09-20 情報処理システム、情報処理システムを制御する方法及びプログラム Active JP7018001B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018176204A JP7018001B2 (ja) 2018-09-20 2018-09-20 情報処理システム、情報処理システムを制御する方法及びプログラム
CN201910346392.XA CN110929067B (zh) 2018-09-20 2019-04-26 信息处理系统、控制信息处理系统的方法以及记录介质
US16/404,941 US11308158B2 (en) 2018-09-20 2019-05-07 Information processing system, method for controlling information processing system, and storage medium
SG10201904328UA SG10201904328UA (en) 2018-09-20 2019-05-14 Information processing system, method for controlling information processing system, and storage medium
EP19182873.0A EP3627354A1 (en) 2018-09-20 2019-06-27 Information processing system, method for controlling information processing system, and storage medium
SA119410200A SA119410200B1 (ar) 2018-09-20 2019-09-19 نظام لمعالجة معلومات، وطريقة وبرنامج للتحكم بنظام معالجة المعلومات

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018176204A JP7018001B2 (ja) 2018-09-20 2018-09-20 情報処理システム、情報処理システムを制御する方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020047069A JP2020047069A (ja) 2020-03-26
JP7018001B2 true JP7018001B2 (ja) 2022-02-09

Family

ID=67184779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018176204A Active JP7018001B2 (ja) 2018-09-20 2018-09-20 情報処理システム、情報処理システムを制御する方法及びプログラム

Country Status (6)

Country Link
US (1) US11308158B2 (ja)
EP (1) EP3627354A1 (ja)
JP (1) JP7018001B2 (ja)
CN (1) CN110929067B (ja)
SA (1) SA119410200B1 (ja)
SG (1) SG10201904328UA (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227007B2 (en) * 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image
US20230056155A1 (en) * 2020-01-31 2023-02-23 Nec Corporation Information processing apparatus, information processing method, and storage medium
WO2021210657A1 (ja) * 2020-04-16 2021-10-21 日本電気株式会社 表示制御装置、監視支援システム、表示制御方法および非一時的なコンピュータ可読媒体
JP7479987B2 (ja) 2020-08-07 2024-05-09 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022172843A (ja) * 2021-05-07 2022-11-17 株式会社日立製作所 データ検索システムおよび方法
WO2023188234A1 (ja) * 2022-03-31 2023-10-05 日本電気株式会社 文書検索システム、文書検索方法および記録媒体
US20230394081A1 (en) * 2022-06-01 2023-12-07 Apple Inc. Video classification and search system to support customizable video highlights

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009027393A (ja) 2007-07-19 2009-02-05 Hitachi Ltd 映像検索システムおよび人物検索方法
JP2010211261A (ja) 2009-03-06 2010-09-24 Panasonic Corp 画像検索装置及び画像検索方法
JP2013101431A (ja) 2011-11-07 2013-05-23 Hitachi Kokusai Electric Inc 類似画像検索システム
JP2017139701A (ja) 2016-02-05 2017-08-10 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999022318A1 (en) 1997-10-27 1999-05-06 Massachusetts Institute Of Technology Image search and retrieval system
US7016916B1 (en) 1999-02-01 2006-03-21 Lg Electronics Inc. Method of searching multimedia data
JP5051885B2 (ja) 2007-08-07 2012-10-17 パナソニック株式会社 人物検索装置及び人物検索方法
JP5438436B2 (ja) * 2009-08-27 2014-03-12 株式会社日立国際電気 画像検索装置
JP5506324B2 (ja) * 2009-10-22 2014-05-28 株式会社日立国際電気 類似画像検索システム、および、類似画像検索方法
KR101652261B1 (ko) * 2009-12-24 2016-08-30 삼성전자주식회사 카메라를 이용한 오브젝트 검출 방법
EP2782330A4 (en) * 2011-11-17 2015-03-11 Panasonic Ip Corp America IMAGE PROCESSING DEVICE, IMAGING APPARATUS AND IMAGE PROCESSING METHOD
JP6005837B2 (ja) 2013-02-27 2016-10-12 株式会社日立製作所 画像解析装置、画像解析システム、画像解析方法
US9589181B2 (en) 2013-02-28 2017-03-07 Hitachi Kokusai Electric Inc. Person search method and device for searching person staying on platform
US11157550B2 (en) 2013-10-02 2021-10-26 Hitachi, Ltd. Image search based on feature values
JP6225039B2 (ja) 2014-01-31 2017-11-01 株式会社日立製作所 画像検索システム、画像検索装置及び画像検索方法
US20170017833A1 (en) * 2014-03-14 2017-01-19 Hitachi Kokusai Electric Inc. Video monitoring support apparatus, video monitoring support method, and storage medium
WO2016147260A1 (ja) 2015-03-13 2016-09-22 株式会社日立製作所 画像検索装置、及び画像を検索する方法
WO2016162963A1 (ja) * 2015-04-08 2016-10-13 株式会社日立製作所 画像検索装置、システム及び方法
CN105760461A (zh) 2016-02-04 2016-07-13 上海卓易科技股份有限公司 相册的自动建立方法及其装置
JP6846270B2 (ja) 2017-04-10 2021-03-24 株式会社アマダ 加工システム及び加工方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009027393A (ja) 2007-07-19 2009-02-05 Hitachi Ltd 映像検索システムおよび人物検索方法
JP2010211261A (ja) 2009-03-06 2010-09-24 Panasonic Corp 画像検索装置及び画像検索方法
JP2013101431A (ja) 2011-11-07 2013-05-23 Hitachi Kokusai Electric Inc 類似画像検索システム
JP2017139701A (ja) 2016-02-05 2017-08-10 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Also Published As

Publication number Publication date
SA119410200B1 (ar) 2022-10-06
US11308158B2 (en) 2022-04-19
JP2020047069A (ja) 2020-03-26
EP3627354A1 (en) 2020-03-25
SG10201904328UA (en) 2020-04-29
US20200097501A1 (en) 2020-03-26
CN110929067A (zh) 2020-03-27
CN110929067B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
JP7018001B2 (ja) 情報処理システム、情報処理システムを制御する方法及びプログラム
US10529381B2 (en) Method, system and computer program product for interactively identifying same individuals or objects present in video recordings
US10810255B2 (en) Method and system for interfacing with a user to facilitate an image search for a person-of-interest
JP6961363B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6516832B2 (ja) 画像検索装置、システム及び方法
JP6362674B2 (ja) 映像監視支援装置、映像監視支援方法、およびプログラム
US11625835B2 (en) Alias capture to support searching for an object-of-interest
US20210014451A1 (en) Video processing system
KR101960667B1 (ko) 저장 영상에서 용의자 추적 장치 및 방법
US20200374491A1 (en) Forensic video exploitation and analysis tools
JP6393424B2 (ja) 画像処理システム、画像処理方法及び記憶媒体
JP2022518459A (ja) 情報処理方法および装置、記憶媒体
KR102592904B1 (ko) 영상 요약 장치 및 방법
RU2703152C1 (ru) Система и способ отображения схемы перемещения объектов
RU2710308C1 (ru) Система и способ для обработки видеоданных из архива
JP5826513B2 (ja) 類似画像検索システム
KR101170676B1 (ko) 얼굴 인식 기반의 얼굴 검색 시스템 및 그 방법
JP2022133547A (ja) 映像解析システム、及び映像解析方法
JP2022011666A (ja) 画像処理装置、画像処理方法およびプログラム
US20210287503A1 (en) Video analysis system and video analysis method
JP7307887B2 (ja) 情報処理装置、情報処理方法及びプログラム
Usha Multiple Objects Tracking in Surveillance System Using Big Data Analytics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220128

R150 Certificate of patent or registration of utility model

Ref document number: 7018001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150