JP7282851B2 - 装置、方法及びプログラム - Google Patents
装置、方法及びプログラム Download PDFInfo
- Publication number
- JP7282851B2 JP7282851B2 JP2021166671A JP2021166671A JP7282851B2 JP 7282851 B2 JP7282851 B2 JP 7282851B2 JP 2021166671 A JP2021166671 A JP 2021166671A JP 2021166671 A JP2021166671 A JP 2021166671A JP 7282851 B2 JP7282851 B2 JP 7282851B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- attention
- image
- display
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 48
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000002159 abnormal effect Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 description 57
- 238000004364 calculation method Methods 0.000 description 44
- 238000012545 processing Methods 0.000 description 43
- 230000010365 information processing Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 30
- 238000004458 analytical method Methods 0.000 description 27
- 238000007405 data analysis Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 5
- 238000003909 pattern recognition Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000009916 joint effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
特許文献1では、複数のカメラで撮影した映像に対して、画像認識技術による人物同定を実施し、地図上にカメラ映像を重畳表示しつつ、対象人物が映るカメラ映像を強調する表示方法が提案されている。また、非特許文献1では、人物位置を地図上にプロットする方法が提案されている。これにより、監視員は、監視対象者の位置と行動を容易に確認することが可能である。
本実施形態では、複数の映像から物体特徴量を解析し、解析結果と監視対象とを照合した結果を注目度に基づいてユーザーに掲示する処理について説明する。
図1は、映像処理システムのシステム構成の一例を示す図である。映像処理システムは、複数の撮像装置101、映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104、情報処理装置105がネットワーク回線であるLAN107を介して接続されている。映像処理システムは、情報処理システムの一例である。
撮像装置101は、ネットワークカメラ等である。映像解析サーバー装置102は、複数の撮像装置101で撮影された映像データを収集し、映像解析処理を行う。映像解析サーバー装置102は、映像解析処理として、例えば、人物の顔領域から特徴量を抽出する。データ解析サーバー装置103は、映像解析サーバー装置102で抽出された特徴量を収集し、データ解析処理を行う。データ解析サーバー装置103は、データ解析処理として、例えば、映像解析サーバー装置102で抽出された人物の特徴量を照合し、人物同定を行う。ネットワークストレージ装置104は、撮像装置101で撮影された画像、更に映像解析サーバー装置102で抽出された特徴量、データ解析サーバー装置103で人物照合された照合結果がLAN107を介して記録される。情報処理装置105は、例えば、パーソナルコンピュータ等の装置である。情報処理装置105は、例えば、マウスやキーボード、タッチパネルの入力装置とディスプレイ等の表示装置とを有する。情報処理装置105は、入力装置を介して入力された情報を映像解析サーバー装置102等に送信したり、映像解析サーバー装置102で解析された解析結果を表示装置に表示したりする。情報処理装置105は、ネットワークストレージ装置104に記録された映像データに解析結果を重畳してディスプレイ等の表示装置に表示する。
情報処理装置105はPC等を想定している。しかし、LAN107への物理的な接続形態として有線だけでなく、例えばタブレット端末のように無線の場合もあり、プロトコル的にLAN107に接続されていれば、物理的な形態にこだわるものではない。
CPU10は、記憶装置20に格納されたプログラムに従って処理を実行する。記憶装置20は、プログラムを記憶したり、CPU10が処理を実行する際に利用するデータ等を記憶したりする。通信装置30は、データ解析サーバー装置103をLAN107に接続するための装置である。入力装置40は、例えば、キーボードやマウス等であり、ユーザーからの入力をCPU10に入力する。表示装置50は、液晶ディスプレイ等であり、ユーザーに対してCPU10の処理結果等を表示する。
CPU10が記憶装置20に記憶されているプログラムに基づき処理を実行することによって、後述するデータ解析サーバー装置103の機能構成及びデータ解析サーバー装置103が処理を実行するフローチャートの処理が実現される。
映像解析サーバー装置102、ネットワークストレージ装置104、情報処理装置105も図2に示したデータ解析サーバー装置103のハードウェア構成と同様のハードウェア構成を有する。そして、各々の装置のCPUが各々の装置の記憶装置に記憶されているプログラムに基づき処理を実行することによって各々の装置の機能構成及び各々の装置が処理を実行するフローチャートの処理等が実現される。
但し、データ解析サーバー装置103のハードウェア構成として、入力装置40や表示装置50は必須の構成要素ではない。
画像取得部201、物体検出部202、画像切り出し部203、特徴抽出部204は、映像解析サーバー装置102に実装されている。ターゲット管理部205、地図座標算出部206、注目度算出部207、表示切替部208は、データ解析サーバー装置103に実装されている。但し、例えば、地図座標算出部206、注目度算出部207は、映像解析サーバー装置102に実装されてもよく、機能の切り分けは図3の例に限るものではない。
物体検出部202は、画像取得部201の画像から対象を検出する検出処理を実施する。物体検出部202は、カメラIDと検出された対象を一意に特定する識別子(以下、物体ID)と対象の検出矩形(位置、サイズ)と検出時刻とをまとめて検出情報とし、画像切り出し部203に提供する。物体検出部202は、検出時刻として、画像取得部201の撮影時刻を用いる。物体検出部202は、画像からの対象の検出として、例えば「N.Dalal,B.Triggs,Histograms of Oriented Gradients for Human Detection,IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2005.」に記載された人の全身を検出する技術を利用することができる。
図4は、画像から物体を検出した結果の一例を示す図である。カメラ画像300に対して、物体検出部202が検出処理を実施することで、物体ID302と検出矩形303とが生成される。
特徴抽出部204は、画像切り出し部203のサムネイルから、検出対象の特徴量を抽出する特徴量抽出処理を実施する。特徴抽出部204は、検出情報、サムネイル、特徴量をまとめて物体情報とし、物体情報管理部209に提供する。特徴抽出部204は、特徴抽出として、例えば「S.Paisitkriangkrai,Learning to
rank in person re-identification with metric ensembles.IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2015.」に記載された全身の特徴算出技術を利用することができる。
ターゲット管理部205は、ターゲット、ターゲット履歴、ターゲット候補の情報を管理し、注目度算出部207と表示切替部208とに提供する。ターゲットとは、入力部210で指定された物体を示す。また、ターゲットとは、ターゲットの物体情報を示す。ターゲット履歴とは、過去にターゲットとして確証の得られた物体情報リストを示す。ターゲット候補とは、ターゲットとして照合され、かつ、確証が得られていない物体情報のリストを示す。ターゲット管理部205は、保持しているターゲット情報を注目度算出部207に提供する。ターゲット管理部205は、注目度算出部207の物体情報を用いて、ターゲット候補を更新する。例えば、ターゲット管理部205は、照合スコア(後段に記述する)が閾値以上の物体情報をターゲット候補にすべて追加する。ターゲット管理部205は、更新条件を満たしたターゲット候補をターゲットとして確定し、ターゲット情報、ターゲット履歴を更新する。例えば、ターゲット管理部205は、ターゲットの検出時刻からの経過時間が閾値以上であるとき、最も照合スコアが高いターゲット候補をターゲットとして更新する。又は、ターゲット管理部205は、ターゲットの検出時刻からの経過時間にかかわらず、照合スコアが閾値以上のターゲット候補をターゲットとして更新する。ターゲット管理部205は、ターゲット情報を更新する際は、ターゲット履歴にターゲット情報を追加する。
注目度算出部207は、ターゲット管理部205のターゲット情報と、物体情報管理部209の物体情報とを用いて、ターゲットと物体との特徴量を比較し、類似度を物体の注目度として算出する。注目度算出部207は、物体情報に注目度と照合スコアとを追加し、ターゲット管理部205と物体情報管理部209とに提供する。まず、注目度算出部207は、特徴量を比較し、カメラ間で人物を照合する。このとき、注目度算出部207は、特徴量の類似度を照合スコアとする。照合スコアは、物体間の類似度が高いほど大きく、類似度が低いほど小さいものである。注目度算出部207は、照合スコアそのものを注目度とする。注目度算出部207は、特徴量の比較として、例えば、「S.Paisitkriangkrai,Learning to rank in person re-identification with metric ensembles.IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2015.」に記載の全身の特徴比較技術を利用することができる。
物体情報管理部209は、特徴抽出部204と地図座標算出部206と注目度算出部207と表示切替部208とからの物体情報を物体情報管理テーブルに保存する。図6は、物体情報管理テーブルの一例を示す図である。物体情報管理部209は、物体ID=3001の情報を検索した場合、地図座標=(150,120)や表示形式=アイコンを取得することができる。
表示部211は、ターゲット管理部205のターゲット、ターゲット履歴、ターゲット候補の情報と、物体情報管理部209から物体情報とを用いて、例えば、情報処理装置105の表示装置に解析結果を表示することで、ユーザーに解析結果を掲示する。表示部211は、予め設定された地図データ上に、カメラアイコン、人物アイコン、サムネイル、人物移動経路情報を重畳して表示する。図7は、地図データ上にカメラアイコン、人物アイコンを重畳して表示した一例を示す図である。まず、表示部211は、カメラ座標とカメラ向きとを撮像装置101又はネットワークストレージ装置104等から取得し、カメラアイコン602をカメラ座標の位置に表示することで、地図データ600上にカメラアイコン602を重畳して表示する。次に、表示部211は、物体情報管理部209から、検出時刻が描画対象時刻と一致する物体情報を取得する。そして、表示部211は、地図座標と表示形式とに基づいて、地図座標位置に人物アイコン601を重畳する。図8は、表示形式をサムネイルに指定された物体情報をサムネイルで表示した一例を示す図である。表示部211は、物体情報管理部209から物体情報を取得した際、表示形式がサムネイルになっている物体情報について、物体情報に含まれるサムネイル701を取得し、その画像をアイコンの代わりに地図座標の位置に重畳する。図9は、ターゲットの移動経路とターゲットの過去のサムネイルとを表示した一例を示す図である。まず、表示部211は、ターゲット管理部205のターゲット、ターゲット履歴、ターゲット候補に対応する物体情報を物体情報管理部209から取得する。次に、表示部211は、物体情報管理部209の物体情報に基づいて、地図データ上に物体情報を描画する。このとき、表示部211は、物体情報の表示サイズに基づいて、描画するアイコンやサムネイルのサイズを変更してもよい。次に、表示部211は、ターゲット802とターゲット履歴801とに対応する物体情報を描画する。ターゲット802とターゲット履歴801とに対応する物体情報は、検出時刻が描画対象時刻と一致していなくても、表示部211は、地図データ600上に描画する。また、表示部211は、ターゲット履歴801とターゲット802とを検出時刻順に並べ、地図座標間を経路線803で描画する。表示部211は、ターゲット候補804に対応する物体情報を描画する。ターゲット候補804に対応する物体情報は、検出時刻が描画対象時刻と一致していなくても、表示部211は、地図データ600上に描画する。また、表示部211は、ターゲット802からターゲット候補804までに対して補助経路線805を描画する。表示部211は、ターゲット履歴801、ターゲット802、ターゲット候補804のサムネイルを、対応する物体情報の表示サイズに基づいて、描画サイズを変更してもよい。また、表示部211は、ターゲットとして未確定のターゲット候補の枠の色を変える等して、未確定状態を表現してもよい。図9の例では、表示部211は、ターゲット候補804の枠を破線で表示している。また、表示部211は、補助経路線805も線の色を変える等して、未確定状態を表現してもよい。図9の例では、表示部211は、補助経路線805を破線で表示している。表示部211の処理も表示制御処理の一例である。
特徴抽出部204の特徴抽出は、対象の特徴を抽出する処理であり、特定の特徴量に限定されるものではなく、対象を表す情報を抽出する処理であればよい。例えば、特徴抽出部204は、特徴量の種類として、SIFT特徴や色ヒストグラム、等を用いてもよいし、それらを組み合わせてもよい。また、全身の特徴に限るものではなく、顔領域に限定した特徴量であってもよい。
地図座標算出部206は、画像上の座標を地図上の座標に変換する処理であり、特定の変換処理に限定されるものではなく、座標を返還する処理であればよい。
物体情報管理部209のサムネイルは、物体領域を切り出した画像又は映像であればよく、1枚の切り出し画像に限るものではない。例えば、物体情報管理部209は、物体情報を保存する際に同じ物体IDの情報を検索し、同じ物体情報のサムネイルを検出時間順に結合して動画としてもよい。
注目度算出部207の特徴比較は、特徴抽出部204で求めた特徴を比較する処理であり、特定の比較手段に限定されるものではない。例えば、注目度算出部207は、比較方法として、L1距離やバタチャリヤ距離、交差法、等を用いてもよい。
まず、図10を用いて、物体情報を作成する情報処理について説明する。S901において、画像取得部201は、画像を取得する。S902において、画像取得部201は、画像を取得できたか否かを判定する。画像取得部201は、画像を取得できた場合、画像が存在するとして(S902においてYES)、S903に処理を進め、画像を取得できなかった場合、画像が存在しないとして(S902においてNO)、図10に示すフローチャートの処理を終了する。S903において、物体検出部202は、画像から複数の物体を検出する。S904において、物体検出部202は、物体を検出できたか否かを判定する。物体検出部202は、物体を検出できた場合、物体が存在するとして(S904においてYES)、S905に処理を進め、物体を検出できなかった場合、物体が存在しないとして(S904においてNO)、S901に処理を戻す。S905において、画像切り出し部203は、サムネイルを作成する。S906において、特徴抽出部204は、特徴量を抽出する。S907において、物体情報管理部209は、検出情報、サムネイル、特徴量を物体情報としてまとめて保存する。例えば、物体検出部202は、未処理の物体が存在すれば(S908においてYES)、S905に処理を進め、未処理の物体が存在しなければ(S908においてNO)、S901に処理を戻す。
本実施形態では、映像から物体の注目度を解析し、注目度に基づいてアイコンとサムネイルとを切り替える処理について説明する。
図12は、実施形態2の映像処理システムを構成する各装置の機能構成の一例を示す図である。映像処理システムは、画像取得部201、物体検出部202、画像切り出し部203、地図座標算出部206、注目度算出部207、表示切替部208、物体情報管理部209、入力部210、表示部211を機能構成として有する。
注目度算出部207は、物体情報管理部209の物体情報を用いて、物体ごとの注目度を算出する。注目度算出部207は、物体の注目度を、物体単位の異常値又は滞留値を用いて求める。
まず、物体の異常値を基に注目度を求める方法について説明する。注目度算出部207は、物体の行動を認識し、異常として定義された行動をした回数を物体の異常値とすることで物体の異常値を求める。又は、注目度算出部207は、行動の異常度合を異常値として定義してもよい。そして、注目度算出部207は、算出した異常値をそのまま注目度とする。注目度算出部207は、物体の行動の認識として、例えば、「B.X.Nie,C.Xiong,S-C.Zhu,Joint Action Recognition and Pose Estimation From Video.IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2015.」に記載の物体の姿勢を求める技術を用いることができる。
次に、物体の滞留値を基に注目度を求める方法について説明する。注目度算出部207は、物体情報管理部209の物体情報について、同じ物体IDの地図座標を検出時刻順に並べ、所定の期間での座標の差分値の和が一定以下であれば、その物体が滞留しているとみなす。注目度算出部207は、座標の差分値の和が小さいほど、大きくなるように滞留値を計算する。そして、注目度算出部207は、算出した滞留値をそのまま注目度とする。
まず、図13を用いて、物体情報を作成する情報処理について説明する。S901において、画像取得部201は、画像を取得する。S902において、画像取得部201は、画像を取得できたか否かを判定する。画像取得部201は、画像を取得できた場合、画像が存在するとして(S902においてYES)、S903に処理を進め、画像を取得できなかった場合、画像が存在しないとして(S902においてNO)、図10に示すフローチャートの処理を終了する。S903において、物体検出部202は、画像から複数の物体を検出する。S904において、物体検出部202は、物体を検出できたか否かを判定する。物体検出部202は、物体を検出できた場合、物体が存在するとして(S904においてYES)、S905に処理を進め、物体を検出できなかった場合、物体が存在しないとして(S904においてNO)、S901に処理を戻す。S905において、画像切り出し部203は、サムネイルを作成する。S907において、物体情報管理部209は、検出情報、サムネイル、特徴量を物体情報としてまとめて保存する。例えば、物体検出部202は、未処理の物体が存在すれば(S908においてYES)、S905に処理を進め、未処理の物体が存在しなければ(S908においてNO)、S901に処理を戻す。
本実施形態では、表示部211が情報処理装置105の表示装置等に表示する表示画面のレイアウトを説明する。本実施形態の処理は、表示切替部208が行う。図15(a)の画面では、追尾のターゲットである人物が「camera1」の画像から認識されている。図15(a)に示されるように、「camera1」によって撮影された動画像は、他の撮像装置(他のカメラ)によって撮影された動画像より大きいサイズで表示される。この図15(a)の表示画面の状態において、「未確定」状態のターゲット候補が他のカメラの画像で複数認識された場合、最も照合スコアの高い候補が存在するカメラ(例えば、「camera6」)を大きいサイズで表示する。同じく、他のカメラ(例えば、「camera6」)の画像から追尾のターゲットである人物が「確定」状態で認識された場合、図15(b)の表示画面の状態にレイアウトが変更される。即ち、注目度が最も高い人物が認識された「camera6」によって撮影された動画像が他のカメラの画像より大きなサイズで表示される。そして「camera1」によって撮影された動画像が「camera6」によって撮影された動画像と入れ替わるように配置位置が変更され、「camera1」によって撮影された動画像より小さいサイズで表示される。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した実施形態を任意に組み合わせて実施してもよい。
また、上述した各装置の機能構成の一部又は全てはハードウェア構成として各装置に実装してもよい。
また、各装置のハードウェア構成として、CPU、記憶装置、通信装置等は1つである必要はない。複数のCPUが複数の記憶装置のうちの一の記憶装置又は複数の記憶装置に記憶されたプログラムに基づき、複数の記憶装置に記憶されたデータ等を用いながら処理を実行することで各装置の機能等を実現するようにしてもよい。
また、映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104、情報処理装置105の機能を一つの装置(コンピュータ)に実装するようにしてもよい。
101 撮像装置
102 映像解析サーバー装置
103 データ解析サーバー装置
104 ネットワークストレージ装置
105 情報処理装置
Claims (13)
- 撮影された画像から検出された物体の地図上の位置を取得する第1の取得手段と、
前記物体の注目度を取得する第2の取得手段と、
前記注目度に基づいて前記地図上の位置に表示する前記物体の表示形式を切り替える表示制御手段と、
を有し、
前記表示制御手段は、前記注目度が閾値以上の物体をターゲット候補とし、前記ターゲット候補の中からターゲットを決定し、当該決定されたターゲットとターゲット候補とで前記物体の表示形式を変更し、
前記表示制御手段は、前記注目度が前記閾値以上の物体を、当該物体の切り出し画像の表示形式で前記地図上の位置に表示し、前記注目度が閾値以上でない物体を、当該物体を模式的に表した絵柄の表示形式で前記地図上の位置に表示することを特徴とする装置。 - 前記物体の切り出し画像はサムネイルであり、
前記物体を模式的に表した絵柄はアイコンであることを特徴とする請求項1に記載の装置。 - 前記表示制御手段は、前記ターゲット候補の物体の切り出し画像の枠と、前記ターゲットの物体の切り出し画像の枠とを異ならせることにより、前記ターゲット候補と前記ターゲットとで前記物体の表示形式を変更することを特徴とする請求項1又は2に記載の装置。
- 前記表示制御手段は、複数の撮像装置のそれぞれで撮影された画像を表示画面に表示し、当該画像のうち、前記ターゲットが含まれる画像と、前記ターゲットが含まれない画像とで画像の表示サイズを変更することを特徴とする請求項1乃至3の何れか1項に記載の装置。
- 前記表示制御手段は、複数の撮像装置で撮影された画像を表示画面に表示し、当該画像のうち、前記ターゲットが含まれる画像と、前記ターゲットが含まれない画像とで画像の配置位置を変更することを特徴とする請求項1乃至4の何れか1項に記載の装置。
- 前記物体の特徴量を抽出する抽出手段を更に有し、
前記第2の取得手段は、前記特徴量と、ターゲットの物体の特徴量とを比較した際の類似度を前記物体の注目度として取得することを特徴とする請求項1乃至5の何れか1項に記載の装置。 - 前記第2の取得手段は、前記物体の行動の異常値を前記物体の注目度として取得することを特徴とする請求項1乃至5の何れか1項に記載の装置。
- 前記第2の取得手段は、前記物体の滞留値を前記物体の注目度として取得することを特徴とする請求項1乃至5の何れか1項に記載の装置。
- 前記表示制御手段は、前記注目度に基づいて前記地図上に描画する物体の表示サイズを変更することを特徴とする請求項1乃至8の何れか1項に記載の装置。
- 前記表示制御手段は、順次取得される画像の中から検出された、前記注目度が閾値以上の物体をターゲット候補とし、過去に決定されたターゲットと、当該ターゲット候補とで前記物体の表示形式を変更し、前回ターゲットを決定してから所定期間が経過した後に、当該ターゲット候補の中から、最も高い前記注目度を有するターゲット候補をターゲットとして決定することを特徴とする請求項1乃至9の何れか1項に記載の装置。
- 前記表示制御手段は、前記ターゲットとして決定された物体間の移動経路を示す第1の経路線と、前記ターゲットとして決定された物体から、前記ターゲットとして決定されていない前記ターゲット候補の物体への移動経路を示す第2の経路線とを識別可能に前記地図上に表示するように制御することを特徴とする請求項1乃至10の何れか1項に記載の装置。
- 装置が実行する方法であって、
撮影された画像から検出された物体の地図上の位置を取得する第1の取得工程と、
前記物体の注目度を取得する第2の取得工程と、
前記注目度に基づいて前記地図上の位置に表示する前記物体の表示形式を切り替える表示制御工程と、
を含み、
前記表示制御工程では、前記注目度が閾値以上の物体をターゲット候補とし、前記ターゲット候補の中からターゲットを決定し、当該決定されたターゲットとターゲット候補とで前記物体の表示形式を変更し、
前記表示制御工程では、前記注目度が前記閾値以上の物体を、当該物体の切り出し画像の表示形式で前記地図上の位置に表示し、前記注目度が閾値以上でない物体を、当該物体を模式的に表した絵柄の表示形式で前記地図上の位置に表示することを特徴とする方法。 - コンピュータを請求項1乃至11の何れか1項に記載の装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021166671A JP7282851B2 (ja) | 2017-03-06 | 2021-10-11 | 装置、方法及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041547A JP6961363B2 (ja) | 2017-03-06 | 2017-03-06 | 情報処理システム、情報処理方法及びプログラム |
JP2021166671A JP7282851B2 (ja) | 2017-03-06 | 2021-10-11 | 装置、方法及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017041547A Division JP6961363B2 (ja) | 2017-03-06 | 2017-03-06 | 情報処理システム、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022003831A JP2022003831A (ja) | 2022-01-11 |
JP7282851B2 true JP7282851B2 (ja) | 2023-05-29 |
Family
ID=61581063
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017041547A Active JP6961363B2 (ja) | 2017-03-06 | 2017-03-06 | 情報処理システム、情報処理方法及びプログラム |
JP2021166671A Active JP7282851B2 (ja) | 2017-03-06 | 2021-10-11 | 装置、方法及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017041547A Active JP6961363B2 (ja) | 2017-03-06 | 2017-03-06 | 情報処理システム、情報処理方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10872242B2 (ja) |
EP (1) | EP3373201A1 (ja) |
JP (2) | JP6961363B2 (ja) |
CN (1) | CN108647557A (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180074506A1 (en) * | 2017-11-21 | 2018-03-15 | GM Global Technology Operations LLC | Systems and methods for mapping roadway-interfering objects in autonomous vehicles |
CN110175975A (zh) * | 2018-12-14 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 对象检测方法、装置、计算机可读存储介质和计算机设备 |
BR112021011817A2 (pt) * | 2018-12-27 | 2021-08-31 | Nec Corporation | Aparelho de processamento de informações, método de processamento de informações e programa |
WO2020147792A1 (zh) * | 2019-01-16 | 2020-07-23 | 杭州海康威视数字技术股份有限公司 | 一种视频显示方法、装置、系统及摄像机 |
JP7096176B2 (ja) * | 2019-02-01 | 2022-07-05 | 株式会社日立製作所 | 物体位置推定装置およびその方法 |
JP7191196B2 (ja) * | 2019-02-26 | 2022-12-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、及びプログラム |
JP7313862B2 (ja) * | 2019-03-29 | 2023-07-25 | キヤノン株式会社 | 情報処理装置、方法、及びプログラム |
CN110796074B (zh) * | 2019-10-28 | 2022-08-12 | 桂林电子科技大学 | 一种基于时空数据融合的行人再识别方法 |
US20230056155A1 (en) * | 2020-01-31 | 2023-02-23 | Nec Corporation | Information processing apparatus, information processing method, and storage medium |
WO2021152836A1 (ja) * | 2020-01-31 | 2021-08-05 | 日本電気株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
JP7199593B2 (ja) * | 2020-03-03 | 2023-01-05 | 三菱電機株式会社 | 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム |
CN111311601B (zh) * | 2020-03-26 | 2023-10-13 | 山东极视角科技股份有限公司 | 一种拼接图像的分割方法及装置 |
JP7532075B2 (ja) * | 2020-04-21 | 2024-08-13 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法およびプログラム |
CN112040186B (zh) * | 2020-08-28 | 2023-01-31 | 北京市商汤科技开发有限公司 | 目标对象的活动区域确定方法、装置、设备及存储介质 |
EP4450160A1 (en) | 2022-01-13 | 2024-10-23 | Cataler Corporation | Catalyzer for purifying exhaust gas of gasoline engine, and exhaust gas purification system using same |
GB2626937A (en) * | 2023-02-07 | 2024-08-14 | Milestone Systems As | Video surveillance system |
KR102710645B1 (ko) * | 2023-12-22 | 2024-09-26 | 주식회사 인텔리빅스 | 객체 썸네일 처리장치 및 그 장치의 구동방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011113255A (ja) | 2009-11-26 | 2011-06-09 | Toyota Home Kk | 地域警備システム |
CN103004188A (zh) | 2010-07-19 | 2013-03-27 | 爱普索科技有限公司 | 设备、系统和方法 |
JP2014153813A (ja) | 2013-02-06 | 2014-08-25 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
WO2016042946A1 (ja) | 2014-09-19 | 2016-03-24 | シャープ株式会社 | 監視システム |
JP2016201758A (ja) | 2015-04-14 | 2016-12-01 | パナソニックIpマネジメント株式会社 | 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法 |
WO2017026155A1 (ja) | 2015-08-11 | 2017-02-16 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5111342A (ja) | 1974-07-18 | 1976-01-29 | Matsushita Electric Ind Co Ltd | Chensochi |
JPS57149449A (en) | 1981-03-10 | 1982-09-16 | Toyota Motor Corp | Wear-resistant cast iron |
US20050073585A1 (en) * | 2003-09-19 | 2005-04-07 | Alphatech, Inc. | Tracking systems and methods |
CN100541535C (zh) * | 2004-01-06 | 2009-09-16 | 索尼株式会社 | 图像处理设备和方法 |
US7697024B2 (en) * | 2005-11-03 | 2010-04-13 | Broadcom Corp. | Method and system of tracking and stabilizing an image transmitted using video telephony |
JP5037279B2 (ja) * | 2007-09-19 | 2012-09-26 | 株式会社日立国際電気 | 監視装置 |
US8195598B2 (en) * | 2007-11-16 | 2012-06-05 | Agilence, Inc. | Method of and system for hierarchical human/crowd behavior detection |
US20100201815A1 (en) * | 2009-02-09 | 2010-08-12 | Vitamin D, Inc. | Systems and methods for video monitoring |
JP5358851B2 (ja) * | 2009-11-12 | 2013-12-04 | 将文 萩原 | 不審行動検知方法および不審行動検知装置 |
JP5975353B2 (ja) * | 2011-03-31 | 2016-08-23 | パナソニックIpマネジメント株式会社 | 人数計測装置 |
CN102831615A (zh) * | 2011-06-13 | 2012-12-19 | 索尼公司 | 对象监控方法和装置,以及监控系统操作方法 |
JP5891061B2 (ja) * | 2012-02-15 | 2016-03-22 | 株式会社日立製作所 | 映像監視装置、監視システム、監視システム構築方法 |
JP5438861B1 (ja) * | 2013-07-11 | 2014-03-12 | パナソニック株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
US9934423B2 (en) * | 2014-07-29 | 2018-04-03 | Microsoft Technology Licensing, Llc | Computerized prominent character recognition in videos |
JP5999394B2 (ja) * | 2015-02-20 | 2016-09-28 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
CN106469443B (zh) * | 2015-08-13 | 2020-01-21 | 微软技术许可有限责任公司 | 机器视觉特征跟踪系统 |
CN106096577B (zh) * | 2016-06-24 | 2019-05-31 | 安徽工业大学 | 一种摄像头分布地图中的目标追踪方法 |
-
2017
- 2017-03-06 JP JP2017041547A patent/JP6961363B2/ja active Active
-
2018
- 2018-02-28 US US15/908,632 patent/US10872242B2/en active Active
- 2018-03-06 CN CN201810182621.4A patent/CN108647557A/zh active Pending
- 2018-03-06 EP EP18160343.2A patent/EP3373201A1/en not_active Withdrawn
-
2021
- 2021-10-11 JP JP2021166671A patent/JP7282851B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011113255A (ja) | 2009-11-26 | 2011-06-09 | Toyota Home Kk | 地域警備システム |
CN103004188A (zh) | 2010-07-19 | 2013-03-27 | 爱普索科技有限公司 | 设备、系统和方法 |
JP2014153813A (ja) | 2013-02-06 | 2014-08-25 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
WO2016042946A1 (ja) | 2014-09-19 | 2016-03-24 | シャープ株式会社 | 監視システム |
JP2016201758A (ja) | 2015-04-14 | 2016-12-01 | パナソニックIpマネジメント株式会社 | 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法 |
WO2017026155A1 (ja) | 2015-08-11 | 2017-02-16 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6961363B2 (ja) | 2021-11-05 |
US20180253603A1 (en) | 2018-09-06 |
US10872242B2 (en) | 2020-12-22 |
EP3373201A1 (en) | 2018-09-12 |
JP2022003831A (ja) | 2022-01-11 |
CN108647557A (zh) | 2018-10-12 |
JP2018148399A (ja) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7282851B2 (ja) | 装置、方法及びプログラム | |
TWI677825B (zh) | 視頻目標跟蹤方法和裝置以及非易失性電腦可讀儲存介質 | |
US9626551B2 (en) | Collation apparatus and method for the same, and image searching apparatus and method for the same | |
US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
US11625835B2 (en) | Alias capture to support searching for an object-of-interest | |
CN106156693B (zh) | 用于面部识别的基于多模型表示的鲁棒错误纠正方法 | |
JP6172551B1 (ja) | 画像検索装置、画像検索システム及び画像検索方法 | |
JP6516832B2 (ja) | 画像検索装置、システム及び方法 | |
JP6362085B2 (ja) | 画像認識システム、画像認識方法およびプログラム | |
Pala et al. | Enhanced skeleton and face 3D data for person re-identification from depth cameras | |
JP2017059945A (ja) | 画像解析装置及び画像解析方法 | |
WO2019033567A1 (zh) | 眼球动作捕捉方法、装置及存储介质 | |
JP6384167B2 (ja) | 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム | |
JP2019185205A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6132996B1 (ja) | 画像処理装置,画像処理方法,画像処理プログラム | |
JP6393409B2 (ja) | 画像認識システム、カメラ状態推定装置及びプログラム | |
JPWO2018179119A1 (ja) | 映像解析装置、映像解析方法およびプログラム | |
JP2017097549A (ja) | 画像処理装置、方法、及びプログラム | |
JP7374632B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Chakraborty et al. | Person reidentification using multiple egocentric views | |
JP2022048817A (ja) | 情報処理装置、情報処理方法 | |
JP7357649B2 (ja) | 識別を容易にするための方法および装置 | |
JP2018195872A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
Saeijs et al. | Dense-HOG-based drift-reduced 3D face tracking for infant pain monitoring | |
JP2022054247A (ja) | 情報処理装置、情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230517 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7282851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |