JP2018148399A - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2018148399A
JP2018148399A JP2017041547A JP2017041547A JP2018148399A JP 2018148399 A JP2018148399 A JP 2018148399A JP 2017041547 A JP2017041547 A JP 2017041547A JP 2017041547 A JP2017041547 A JP 2017041547A JP 2018148399 A JP2018148399 A JP 2018148399A
Authority
JP
Japan
Prior art keywords
target
information processing
display
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017041547A
Other languages
English (en)
Other versions
JP6961363B2 (ja
Inventor
山本 真司
Shinji Yamamoto
真司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017041547A priority Critical patent/JP6961363B2/ja
Priority to US15/908,632 priority patent/US10872242B2/en
Priority to EP18160343.2A priority patent/EP3373201A1/en
Priority to CN201810182621.4A priority patent/CN108647557A/zh
Publication of JP2018148399A publication Critical patent/JP2018148399A/ja
Priority to JP2021166671A priority patent/JP7282851B2/ja
Application granted granted Critical
Publication of JP6961363B2 publication Critical patent/JP6961363B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】映像の解析結果を確認する際の負荷を軽減させることを目的とする。【解決手段】画像中の物体を検出する検出手段と、物体の地図上の位置を取得する第1の取得手段と、物体の注目度を取得する第2の取得手段と、注目度に基づいて地図上の位置に表示する物体の表示形式を第1の表示形式と第2の表示形式とで切り替える表示制御手段と、を有する。【選択図】図9

Description

本発明は、情報処理システム、情報処理方法及びプログラムに関する。
近年、映像解析技術の向上と共に、街中に設置したカメラからの映像に対して、人物照合処理や異常行動検知処理を実施することで、監視すべき人物を自動で検知するシステムが考案されている。
特許文献1では、複数のカメラで撮影した映像に対して、画像認識技術による人物同定を実施し、地図上にカメラ映像を重畳表示しつつ、対象人物が映るカメラ映像を強調する表示方法が提案されている。また、非特許文献1では、人物位置を地図上にプロットする方法が提案されている。これにより、監視員は、監視対象者の位置と行動を容易に確認することが可能である。
特許第5438861号公報
S.Yu,Y.Yang,A.Hauptmann,Harry Potter's Marauder's Map:Localizing and Tracking Multiple Persons−of−Interest by Nonnegative Discretization,IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2013.
しかしながら、カメラ映像をそのまま監視員に掲示した場合、注視すべき人物が映像中のどこにいるのかを、改めて確認する必要がある。また、地図上に人物の位置をプロットした場合、その人物がどのような容姿、行動をしているかまでは確認できず、実際のカメラ映像を改めて確認する必要がある。
本発明の情報処理システムは、画像中の物体を検出する検出手段と、前記物体の地図上の位置を取得する第1の取得手段と、前記物体の注目度を取得する第2の取得手段と、前記注目度に基づいて前記地図上の位置に表示する前記物体の表示形式を第1の表示形式と第2の表示形式とで切り替える表示制御手段と、を有する。
本発明によれば、映像の解析結果を確認する際の負荷を軽減させることができる。
映像処理システムのシステム構成の一例を示す図である。 データ解析サーバー装置のハードウェア構成の一例を示す図である。 実施形態1の映像処理システムを構成する各装置の機能構成の一例を示す図である。 画像から物体を検出した結果の一例を示す図である。 足元座標を地図座標に射影する処理の一例を示す図である。 物体情報管理テーブルの一例を示す図である。 地図データ上にカメラアイコン、人物アイコンを重畳して表示した一例を示す図である。 物体情報をサムネイルで表示した一例を示す図である。 ターゲットの移動経路とターゲットの過去のサムネイルとを表示した一例を示す図である。 実施形態1の情報処理の一例を示すフローチャート(その1)である。 実施形態1の情報処理の一例を示すフローチャート(その2)である。 実施形態2の映像処理システムを構成する各装置の機能構成の一例を示す図である。 実施形態2の情報処理の一例を示すフローチャート(その1)である。 実施形態2の情報処理の一例を示すフローチャート(その1)である。 表示画面のレイアウトの一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
本実施形態では、複数の映像から物体特徴量を解析し、解析結果と監視対象とを照合した結果を注目度に基づいてユーザーに掲示する処理について説明する。
図1は、映像処理システムのシステム構成の一例を示す図である。映像処理システムは、複数の撮像装置101、映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104、情報処理装置105がネットワーク回線であるLAN107を介して接続されている。映像処理システムは、情報処理システムの一例である。
撮像装置101は、ネットワークカメラ等である。映像解析サーバー装置102は、複数の撮像装置101で撮影された映像データを収集し、映像解析処理を行う。映像解析サーバー装置102は、映像解析処理として、例えば、人物の顔領域から特徴量を抽出する。データ解析サーバー装置103は、映像解析サーバー装置102で抽出された特徴量を収集し、データ解析処理を行う。データ解析サーバー装置103は、データ解析処理として、例えば、映像解析サーバー装置102で抽出された人物の特徴量を照合し、人物同定を行う。ネットワークストレージ装置104は、撮像装置101で撮影された画像、更に映像解析サーバー装置102で抽出された特徴量、データ解析サーバー装置103で人物照合された照合結果がLAN107を介して記録される。情報処理装置105は、例えば、パーソナルコンピュータ等の装置である。情報処理装置105は、例えば、マウスやキーボード、タッチパネルの入力装置とディスプレイ等の表示装置とを有する。情報処理装置105は、入力装置を介して入力された情報を映像解析サーバー装置102等に送信したり、映像解析サーバー装置102で解析された解析結果を表示装置に表示したりする。情報処理装置105は、ネットワークストレージ装置104に記録された映像データに解析結果を重畳してディスプレイ等の表示装置に表示する。
撮像装置101は、複数のカメラで構成されていればよく、2台以上であれば何台でもよい。更に映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104、情報処理装置105がLAN107に接続される数は、図1で示したような本実施形態のように限定されるものではない。アドレス等で識別できれば複数の映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104、情報処理装置105がLAN107に接続されていてもよい。
情報処理装置105はPC等を想定している。しかし、LAN107への物理的な接続形態として有線だけでなく、例えばタブレット端末のように無線の場合もあり、プロトコル的にLAN107に接続されていれば、物理的な形態にこだわるものではない。
図2は、データ解析サーバー装置103のハードウェア構成の一例を示す図である。図2に示されるように、データ解析サーバー装置103は、ハードウェア構成として、CPU10と、記憶装置20と、通信装置30と、入力装置40と、表示装置50と、を含む。
CPU10は、記憶装置20に格納されたプログラムに従って処理を実行する。記憶装置20は、プログラムを記憶したり、CPU10が処理を実行する際に利用するデータ等を記憶したりする。通信装置30は、データ解析サーバー装置103をLAN107に接続するための装置である。入力装置40は、例えば、キーボードやマウス等であり、ユーザーからの入力をCPU10に入力する。表示装置50は、液晶ディスプレイ等であり、ユーザーに対してCPU10の処理結果等を表示する。
CPU10が記憶装置20に記憶されているプログラムに基づき処理を実行することによって、後述するデータ解析サーバー装置103の機能構成及びデータ解析サーバー装置103が処理を実行するフローチャートの処理が実現される。
映像解析サーバー装置102、ネットワークストレージ装置104、情報処理装置105も図2に示したデータ解析サーバー装置103のハードウェア構成と同様のハードウェア構成を有する。そして、各々の装置のCPUが各々の装置の記憶装置に記憶されているプログラムに基づき処理を実行することによって各々の装置の機能構成及び各々の装置が処理を実行するフローチャートの処理等が実現される。
但し、データ解析サーバー装置103のハードウェア構成として、入力装置40や表示装置50は必須の構成要素ではない。
図3は、実施形態1の映像処理システムを構成する各装置の機能構成の一例を示す図である。映像処理システムは、画像取得部201、物体検出部202、画像切り出し部203、特徴抽出部204、ターゲット管理部205、地図座標算出部206、注目度算出部207、表示切替部208、物体情報管理部209を機能構成として有する。また、映像処理システムは、更に、入力部210、表示部211を機能構成として有する。
画像取得部201、物体検出部202、画像切り出し部203、特徴抽出部204は、映像解析サーバー装置102に実装されている。ターゲット管理部205、地図座標算出部206、注目度算出部207、表示切替部208は、データ解析サーバー装置103に実装されている。但し、例えば、地図座標算出部206、注目度算出部207は、映像解析サーバー装置102に実装されてもよく、機能の切り分けは図3の例に限るものではない。
画像取得部201は、LAN107を介して、撮像装置101から所定の時間間隔で画像を順次取得し、画像と撮像装置101に関連付けられたカメラID、例えばIPアドレス、と撮影時刻とを物体検出部202及び画像切り出し部203に提供する。画像取得部201による画像の取得は、撮像装置101からの撮影画像の入力に限定されるものではない。例えば、ネットワークストレージ装置104からの映像データ(録画映像)の読み込みやネットワークを介したストリーミング入力等で画像が入力されてもよい。
物体検出部202は、画像取得部201の画像から対象を検出する検出処理を実施する。物体検出部202は、カメラIDと検出された対象を一意に特定する識別子(以下、物体ID)と対象の検出矩形(位置、サイズ)と検出時刻とをまとめて検出情報とし、画像切り出し部203に提供する。物体検出部202は、検出時刻として、画像取得部201の撮影時刻を用いる。物体検出部202は、画像からの対象の検出として、例えば「N.Dalal,B.Triggs,Histograms of Oriented Gradients for Human Detection,IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2005.」に記載された人の全身を検出する技術を利用することができる。
図4は、画像から物体を検出した結果の一例を示す図である。カメラ画像300に対して、物体検出部202が検出処理を実施することで、物体ID302と検出矩形303とが生成される。
画像切り出し部203は、画像取得部201の画像と物体検出部202の検出情報とから、対象の切り出し画像(以下、サムネイルという)の作成処理を実施する。画像切り出し部203は、作成したサムネイルを検出情報と対応付け、特徴抽出部204に提供する。サムネイルは、物体検出部202の検出情報の検出矩形を用いて、画像取得部201の画像から物体領域のみを切り出して作成する。
特徴抽出部204は、画像切り出し部203のサムネイルから、検出対象の特徴量を抽出する特徴量抽出処理を実施する。特徴抽出部204は、検出情報、サムネイル、特徴量をまとめて物体情報とし、物体情報管理部209に提供する。特徴抽出部204は、特徴抽出として、例えば「S.Paisitkriangkrai,Learning to rank in person re−identification with metric ensembles.IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2015.」に記載された全身の特徴算出技術を利用することができる。
ターゲット管理部205は、ターゲット、ターゲット履歴、ターゲット候補の情報を管理し、注目度算出部207と表示切替部208とに提供する。ターゲットとは、入力部210で指定された物体を示す。また、ターゲットとは、ターゲットの物体情報を示す。ターゲット履歴とは、過去にターゲットとして確証の得られた物体情報リストを示す。ターゲット候補とは、ターゲットとして照合され、かつ、確証が得られていない物体情報のリストを示す。ターゲット管理部205は、保持しているターゲット情報を注目度算出部207に提供する。ターゲット管理部205は、注目度算出部207の物体情報を用いて、ターゲット候補を更新する。例えば、ターゲット管理部205は、照合スコア(後段に記述する)が閾値以上の物体情報をターゲット候補にすべて追加する。ターゲット管理部205は、更新条件を満たしたターゲット候補をターゲットとして確定し、ターゲット情報、ターゲット履歴を更新する。例えば、ターゲット管理部205は、ターゲットの検出時刻からの経過時間が閾値以上であるとき、最も照合スコアが高いターゲット候補をターゲットとして更新する。又は、ターゲット管理部205は、ターゲットの検出時刻からの経過時間にかかわらず、照合スコアが閾値以上のターゲット候補をターゲットとして更新する。ターゲット管理部205は、ターゲット情報を更新する際は、ターゲット履歴にターゲット情報を追加する。
地図座標算出部206は、物体情報管理部209の物体情報を用いて、物体の地図上の位置(以下、地図座標という)を算出し、地図座標を物体情報に追加し、物体情報管理部209に提供する。以下、地図座標の算出について説明する。まず、地図座標算出部206は、カメラ映像上の床面と地図上の床面間において、射影行列を求める。例えば、地図座標算出部206は、入力部210から入力された、カメラ映像上の4点と地図上の4点を関連付け、ホモグラフィー行列Hを求める。次に、地図座標算出部206は、物体情報の検出矩形から、画像上の物体の足元座標を推定する。例えば、地図座標算出部206は、足元座標fp=(fpx,fpy)、検出矩形r=(rx,ry,rw,rh)について、fp=(rx+rw/2,ry+rh)で求めることができる。fpx,fpyはそれぞれ、x座標、y座標を表している。rx,ry,rw,rhはそれぞれ、右上x座標、右上y座標、幅、高さを表している。地図座標算出部206は、地図座標mpを算出する。例えば、地図座標算出部206は、mp=Hfpの計算によって、画像上の足元座標を地図上の座標にホモグラフィー変換することで、地図座標を求める。図5は、足元座標を地図座標に射影する処理の一例を示す図である。地図座標算出部206は、カメラ上の床面座標401と地図上の床面座標403とを入力することで、ホモグラフィー行列を求め、足元座標402を地図座標404に射影する。点の指定は4点だけではなく3点以上の場合であれば地図上の足元座標を推定することが可能である。
注目度算出部207は、ターゲット管理部205のターゲット情報と、物体情報管理部209の物体情報とを用いて、ターゲットと物体との特徴量を比較し、類似度を物体の注目度として算出する。注目度算出部207は、物体情報に注目度と照合スコアとを追加し、ターゲット管理部205と物体情報管理部209とに提供する。まず、注目度算出部207は、特徴量を比較し、カメラ間で人物を照合する。このとき、注目度算出部207は、特徴量の類似度を照合スコアとする。照合スコアは、物体間の類似度が高いほど大きく、類似度が低いほど小さいものである。注目度算出部207は、照合スコアそのものを注目度とする。注目度算出部207は、特徴量の比較として、例えば、「S.Paisitkriangkrai,Learning to rank in person re−identification with metric ensembles.IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2015.」に記載の全身の特徴比較技術を利用することができる。
表示切替部208は、ターゲット管理部205のターゲット、ターゲット履歴、ターゲット候補の情報と、物体情報管理部209の物体情報とを用いて、表示形式、表示サイズを決定する。表示切替部208は、物体情報に表示形式、表示サイズを追加し、物体情報管理部209に提供する。まず、表示切替部208は、ターゲット、ターゲット履歴、ターゲット候補の物体情報について、表示形式をサムネイルに決定する。次に、表示切替部208は、注目度が予め設定された閾値以上の物体情報について、表示形式をサムネイルに決定する。表示切替部208は、注目度が予め設定された閾値以上でない物体情報の表示形式をアイコンに決定する。更に、表示切替部208は、すべての物体情報について、表示サイズを注目度が高いほど大きく、注目度が低いほど小さく設定する。表示切替部208の処理は、表示制御処理の一例である。アイコンは、物体を模式的に現した絵柄の一例である。
物体情報管理部209は、特徴抽出部204と地図座標算出部206と注目度算出部207と表示切替部208とからの物体情報を物体情報管理テーブルに保存する。図6は、物体情報管理テーブルの一例を示す図である。物体情報管理部209は、物体ID=3001の情報を検索した場合、地図座標=(150,120)や表示形式=アイコンを取得することができる。
入力部210は、人物を指定するための情報(以下、クエリという)を生成し、物体情報管理部209から指定された人物に関する物体情報を検索し、ターゲット管理部205に提供する。クエリの一例として、物体IDが利用できる。クエリは、情報処理装置105の入力装置40等を介したユーザー操作に基づいて入力部210によって生成される。
表示部211は、ターゲット管理部205のターゲット、ターゲット履歴、ターゲット候補の情報と、物体情報管理部209から物体情報とを用いて、例えば、情報処理装置105の表示装置に解析結果を表示することで、ユーザーに解析結果を掲示する。表示部211は、予め設定された地図データ上に、カメラアイコン、人物アイコン、サムネイル、人物移動経路情報を重畳して表示する。図7は、地図データ上にカメラアイコン、人物アイコンを重畳して表示した一例を示す図である。まず、表示部211は、カメラ座標とカメラ向きとを撮像装置101又はネットワークストレージ装置104等から取得し、カメラアイコン602をカメラ座標の位置に表示することで、地図データ600上にカメラアイコン602を重畳して表示する。次に、表示部211は、物体情報管理部209から、検出時刻が描画対象時刻と一致する物体情報を取得する。そして、表示部211は、地図座標と表示形式とに基づいて、地図座標位置に人物アイコン601を重畳する。図8は、表示形式をサムネイルに指定された物体情報をサムネイルで表示した一例を示す図である。表示部211は、物体情報管理部209から物体情報を取得した際、表示形式がサムネイルになっている物体情報について、物体情報に含まれるサムネイル701を取得し、その画像をアイコンの代わりに地図座標の位置に重畳する。図9は、ターゲットの移動経路とターゲットの過去のサムネイルとを表示した一例を示す図である。まず、表示部211は、ターゲット管理部205のターゲット、ターゲット履歴、ターゲット候補に対応する物体情報を物体情報管理部209から取得する。次に、表示部211は、物体情報管理部209の物体情報に基づいて、地図データ上に物体情報を描画する。このとき、表示部211は、物体情報の表示サイズに基づいて、描画するアイコンやサムネイルのサイズを変更してもよい。次に、表示部211は、ターゲット802とターゲット履歴801とに対応する物体情報を描画する。ターゲット802とターゲット履歴801とに対応する物体情報は、検出時刻が描画対象時刻と一致していなくても、表示部211は、地図データ600上に描画する。また、表示部211は、ターゲット履歴801とターゲット802とを検出時刻順に並べ、地図座標間を経路線803で描画する。表示部211は、ターゲット候補804に対応する物体情報を描画する。ターゲット候補804に対応する物体情報は、検出時刻が描画対象時刻と一致していなくても、表示部211は、地図データ600上に描画する。また、表示部211は、ターゲット802からターゲット候補804までに対して補助経路線805を描画する。表示部211は、ターゲット履歴801、ターゲット802、ターゲット候補804のサムネイルを、対応する物体情報の表示サイズに基づいて、描画サイズを変更してもよい。また、表示部211は、ターゲットとして未確定のターゲット候補の枠の色を変える等して、未確定状態を表現してもよい。図9の例では、表示部211は、ターゲット候補804の枠を破線で表示している。また、表示部211は、補助経路線805も線の色を変える等して、未確定状態を表現してもよい。図9の例では、表示部211は、補助経路線805を破線で表示している。表示部211の処理も表示制御処理の一例である。
ここで、物体検出部202は、画像から勾配方向ヒストグラム特徴(Histograms of Oriented Gradients)を抽出し、抽出した特徴量をサポートベクターマシンで学習したモデルを用いて人か否かを識別するようにしている。しかし、物体検出部202は、他の方法を用いて物体を検出してもよい。例えば、物体検出部202は、抽出する特徴量は勾配方向ヒストグラム特徴に限らず、Haar−like特徴、LBPH特徴(Local Binary Pattern Histogram)等を用いてもよいし、それらを組み合せてもよい。抽出した特徴量は人物の検出のために共用される。また、物体検出部202は、人を識別するモデルとしてサポートベクターマシンに限らず、アダブースト識別器、ランダム分類木(Randomized Tree)等を用いてもよい。物体検出部202は、人物の検出結果として、夫々画像中の人物を囲む矩形を表す4つの頂点の位置座標を出力する。また、物体検出部202は、位置座標と共に検出結果を表す尤度を出力する。尤度は抽出した特徴量と人物を識別するモデルとを照合した結果であり、モデルとの一致度を表す。また、物体検出部202は、対象の位置をより高精度に特定するために、人体を追尾する方法を併用してもよい。検出処理により検出した人物を、後のフレームで追尾することによって、1枚の画像で検出できない人物の位置を特定し、対象の位置を高精度に特定することが可能となる。また、追尾の方法についても、対象の位置を特定する処理であればよく、記載の方法に限定されるものではない。例えば、物体検出部202は、追尾処理として、Mean−shift tracking、Kalman Filter、on−line boosting等を用いてもよい。
特徴抽出部204の特徴抽出は、対象の特徴を抽出する処理であり、特定の特徴量に限定されるものではなく、対象を表す情報を抽出する処理であればよい。例えば、特徴抽出部204は、特徴量の種類として、SIFT特徴や色ヒストグラム、等を用いてもよいし、それらを組み合わせてもよい。また、全身の特徴に限るものではなく、顔領域に限定した特徴量であってもよい。
地図座標算出部206は、画像上の座標を地図上の座標に変換する処理であり、特定の変換処理に限定されるものではなく、座標を返還する処理であればよい。
物体情報管理部209のサムネイルは、物体領域を切り出した画像又は映像であればよく、1枚の切り出し画像に限るものではない。例えば、物体情報管理部209は、物体情報を保存する際に同じ物体IDの情報を検索し、同じ物体情報のサムネイルを検出時間順に結合して動画としてもよい。
注目度算出部207の特徴比較は、特徴抽出部204で求めた特徴を比較する処理であり、特定の比較手段に限定されるものではない。例えば、注目度算出部207は、比較方法として、L1距離やバタチャリヤ距離、交差法、等を用いてもよい。
図10、図11は本実施形態の情報処理の流れを示したものである。
まず、図10を用いて、物体情報を作成する情報処理について説明する。S901において、画像取得部201は、画像を取得する。S902において、画像取得部201は、画像を取得できたか否かを判定する。画像取得部201は、画像を取得できた場合、画像が存在するとして(S902においてYES)、S903に処理を進め、画像を取得できなかった場合、画像が存在しないとして(S902においてNO)、図10に示すフローチャートの処理を終了する。S903において、物体検出部202は、画像から複数の物体を検出する。S904において、物体検出部202は、物体を検出できたか否かを判定する。物体検出部202は、物体を検出できた場合、物体が存在するとして(S904においてYES)、S905に処理を進め、物体を検出できなかった場合、物体が存在しないとして(S904においてNO)、S901に処理を戻す。S905において、画像切り出し部203は、サムネイルを作成する。S906において、特徴抽出部204は、特徴量を抽出する。S907において、物体情報管理部209は、検出情報、サムネイル、特徴量を物体情報としてまとめて保存する。例えば、物体検出部202は、未処理の物体が存在すれば(S908においてYES)、S905に処理を進め、未処理の物体が存在しなければ(S908においてNO)、S901に処理を戻す。
次に、図11を用いて、物体の注目度を算出し、地図上に表示する情報処理について説明する。S1001において、入力部210は、例えば情報処理装置105の入力装置40等を介したユーザー操作に基づいてクエリを入力する。クエリが入力されると、S1002において、地図座標算出部206は、各物体の地図座標を算出する。S1003において、注目度算出部207は、各物体の注目度を算出する。S1004において、ターゲット管理部205は、ターゲット、ターゲット履歴、ターゲット候補を更新する。S1005において、表示切替部208は、物体の注目度が閾値以上か否かを判定する。表示切替部208は、物体の注目度が閾値以上である場合(S1005においてYES)、S1007に処理を進め、物体の注目度が閾値以上でない場合(S1005においてNO)、S1006に処理を進める。S1006において、表示切替部208は、表示をアイコンに設定する。S1007において、表示切替部208は、表示をサムネイルに設定する。S1008において、表示切替部208は、物体の表示サイズを設定する。S1009において、表示部211は、例えば情報処理装置105の表示装置50に物体情報を表示する。S1010において、表示部211は、例えば情報処理装置105の表示装置50にターゲット、ターゲット履歴、ターゲット候補を表示する。S1011において、例えば、表示部211は、情報処理装置105の入力装置40等を介したユーザー操作等に基づき処理を終了するか否かを判定する。表示部211は、処理を終了すると判定すると(S1011においてYES)、図11に示すフローチャートの処理を終了し、処理を終了しないと判定すると(S1011においてNO)、S1002に処理を戻す。
以上説明したように本実施形態によれば、複数の映像から物体特徴量を解析し、解析結果と監視対象とを照合した結果を注目度に基づいてユーザーに掲示するようにしたので、物体が存在する位置の確認と注目すべき物体の行動の把握とを同時に行うことができる。そのため、映像の解析結果を確認する際の負荷を軽減させることができる。
<実施形態2>
本実施形態では、映像から物体の注目度を解析し、注目度に基づいてアイコンとサムネイルとを切り替える処理について説明する。
図12は、実施形態2の映像処理システムを構成する各装置の機能構成の一例を示す図である。映像処理システムは、画像取得部201、物体検出部202、画像切り出し部203、地図座標算出部206、注目度算出部207、表示切替部208、物体情報管理部209、入力部210、表示部211を機能構成として有する。
注目度算出部207は、物体情報管理部209の物体情報を用いて、物体ごとの注目度を算出する。注目度算出部207は、物体の注目度を、物体単位の異常値又は滞留値を用いて求める。
まず、物体の異常値を基に注目度を求める方法について説明する。注目度算出部207は、物体の行動を認識し、異常として定義された行動をした回数を物体の異常値とすることで物体の異常値を求める。又は、注目度算出部207は、行動の異常度合を異常値として定義してもよい。そして、注目度算出部207は、算出した異常値をそのまま注目度とする。注目度算出部207は、物体の行動の認識として、例えば、「B.X.Nie,C.Xiong,S−C.Zhu,Joint Action Recognition and Pose Estimation From Video.IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),2015.」に記載の物体の姿勢を求める技術を用いることができる。
次に、物体の滞留値を基に注目度を求める方法について説明する。注目度算出部207は、物体情報管理部209の物体情報について、同じ物体IDの地図座標を検出時刻順に並べ、所定の期間での座標の差分値の和が一定以下であれば、その物体が滞留しているとみなす。注目度算出部207は、座標の差分値の和が小さいほど、大きくなるように滞留値を計算する。そして、注目度算出部207は、算出した滞留値をそのまま注目度とする。
図13、図14は本実施形態の情報処理の流れを示したものである。
まず、図13を用いて、物体情報を作成する情報処理について説明する。S901において、画像取得部201は、画像を取得する。S902において、画像取得部201は、画像を取得できたか否かを判定する。画像取得部201は、画像を取得できた場合、画像が存在するとして(S902においてYES)、S903に処理を進め、画像を取得できなかった場合、画像が存在しないとして(S902においてNO)、図10に示すフローチャートの処理を終了する。S903において、物体検出部202は、画像から複数の物体を検出する。S904において、物体検出部202は、物体を検出できたか否かを判定する。物体検出部202は、物体を検出できた場合、物体が存在するとして(S904においてYES)、S905に処理を進め、物体を検出できなかった場合、物体が存在しないとして(S904においてNO)、S901に処理を戻す。S905において、画像切り出し部203は、サムネイルを作成する。S907において、物体情報管理部209は、検出情報、サムネイル、特徴量を物体情報としてまとめて保存する。例えば、物体検出部202は、未処理の物体が存在すれば(S908においてYES)、S905に処理を進め、未処理の物体が存在しなければ(S908においてNO)、S901に処理を戻す。
次に、図14を用いて、物体の注目度を算出し、地図上に表示する情報処理について説明する。S1001において、入力部210は、例えば情報処理装置105の入力装置40等を介したユーザー操作に基づいてクエリを入力する。クエリが入力されると、S1002において、地図座標算出部206は、各物体の地図座標を算出する。S1003において、注目度算出部207は、各物体の注目度を算出する。S1005において、表示切替部208は、物体の注目度が閾値以上か否かを判定する。表示切替部208は、物体の注目度が閾値以上である場合(S1005においてYES)、S1007に処理を進め、物体の注目度が閾値以上でない場合(S1005においてNO)、S1006に処理を進める。S1006において、表示切替部208は、表示をアイコンに設定する。S1008において、表示切替部208は、物体の表示サイズを設定する。S1009において、表示部211は、例えば情報処理装置105の表示装置50に物体情報を表示する。S1011において、例えば、表示部211は、情報処理装置105の入力装置40等を介したユーザー操作等に基づき処理を終了するか否かを判定する。表示部211は、処理を終了すると判定すると(S1011においてYES)、図14に示すフローチャートの処理を終了し、処理を終了しないと判定すると(S1011においてNO)、S1002に処理を戻す。
<実施形態3>
本実施形態では、表示部211が情報処理装置105の表示装置等に表示する表示画面のレイアウトを説明する。本実施形態の処理は、表示切替部208が行う。図15(a)の画面では、追尾のターゲットである人物が「camera1」の画像から認識されている。図15(a)に示されるように、「camera1」によって撮影された動画像は、他の撮像装置(他のカメラ)によって撮影された動画像より大きいサイズで表示される。この図15(a)の表示画面の状態において、「未確定」状態のターゲット候補が他のカメラの画像で複数認識された場合、最も照合スコアの高い候補が存在するカメラ(例えば、「camera6」)を大きいサイズで表示する。同じく、他のカメラ(例えば、「camera6」)の画像から追尾のターゲットである人物が「確定」状態で認識された場合、図15(b)の表示画面の状態にレイアウトが変更される。即ち、注目度が最も高い人物が認識された「camera6」によって撮影された動画像が他のカメラの画像より大きなサイズで表示される。そして「camera1」によって撮影された動画像が「camera6」によって撮影された動画像と入れ替わるように配置位置が変更され、「camera1」によって撮影された動画像より小さいサイズで表示される。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した実施形態を任意に組み合わせて実施してもよい。
また、上述した各装置の機能構成の一部又は全てはハードウェア構成として各装置に実装してもよい。
また、各装置のハードウェア構成として、CPU、記憶装置、通信装置等は1つである必要はない。複数のCPUが複数の記憶装置のうちの一の記憶装置又は複数の記憶装置に記憶されたプログラムに基づき、複数の記憶装置に記憶されたデータ等を用いながら処理を実行することで各装置の機能等を実現するようにしてもよい。
また、映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104、情報処理装置105の機能を一つの装置(コンピュータ)に実装するようにしてもよい。
以上、上述した各実施形態によれば、映像の解析結果を確認する際の負荷を軽減させることができる。
10 CPU
101 撮像装置
102 映像解析サーバー装置
103 データ解析サーバー装置
104 ネットワークストレージ装置
105 情報処理装置

Claims (12)

  1. 画像中の物体を検出する検出手段と、
    前記物体の地図上の位置を取得する第1の取得手段と、
    前記物体の注目度を取得する第2の取得手段と、
    前記注目度に基づいて前記地図上の位置に表示する前記物体の表示形式を第1の表示形式と第2の表示形式とで切り替える表示制御手段と、
    を有する情報処理システム。
  2. 前記表示制御手段は、前記注目度が閾値以上の場合、前記第1の表示形式として前記物体の切り出し画像で前記物体を前記地図上の位置に表示し、前記注目度が閾値以上でない場合、前記第2の表示形式として前記物体を模式的に現した絵柄で前記物体を前記地図上の位置に表示するよう表示形式を切り替える請求項1記載の情報処理システム。
  3. 前記物体の切り出し画像はサムネイルであり、
    前記物体を模式的に現した絵柄はアイコンである請求項2記載の情報処理システム。
  4. 前記表示制御手段は、前記注目度が前記閾値以上の物体をターゲット候補とし、前記ターゲット候補の中からターゲットを決定し、前記ターゲット候補と前記ターゲットとで前記物体の表示形式を変更する請求項2又は3記載の情報処理システム。
  5. 前記表示制御手段は、複数の撮像装置それぞれで撮影された画像を表示画面に表示し、前記画像のうち前記ターゲットが含まれる画像と前記ターゲットが含まれない画像とで画像の表示サイズを変更することで前記表示形式を変更する請求項4記載の情報処理システム。
  6. 前記表示制御手段は、複数の撮像装置で撮影された画像を表示画面に表示し、前記画像のうち前記ターゲットが含まれる画像と前記ターゲットが含まれない画像とで画像の配置位置を変更することで前記表示形式を変更する請求項4又は5記載の情報処理システム。
  7. 前記物体の特徴量を抽出する抽出手段を更に有し、
    前記第2の取得手段は、前記特徴量とターゲットの物体の特徴量とを比較した際の類似度を前記物体の注目度として取得する請求項1乃至6何れか1項記載の情報処理システム。
  8. 前記第2の取得手段は、前記物体の行動の異常値を前記物体の注目度として取得する請求項1乃至6何れか1項記載の情報処理システム。
  9. 前記第2の取得手段は、前記物体の滞留値を前記物体の注目度として取得する請求項1乃至6何れか1項記載の情報処理システム。
  10. 前記表示制御手段は、前記注目度に基づいて前記地図上に描画する物体の表示サイズを変更する請求項1乃至9何れか1項記載の情報処理システム。
  11. 情報処理システムが実行する情報処理方法であって、
    画像中の物体を検出する検出工程と、
    前記物体の地図上の位置を取得する第1の取得工程と、
    前記物体の注目度を取得する第2の取得工程と、
    前記注目度に基づいて前記地図上の位置に表示する前記物体の表示形式を第1の表示形式と第2の表示形式とで切り替える表示制御工程と、
    を含む情報処理方法。
  12. コンピュータを請求項1乃至10何れか1項記載の情報処理システムの各手段として機能させるためのプログラム。
JP2017041547A 2017-03-06 2017-03-06 情報処理システム、情報処理方法及びプログラム Active JP6961363B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017041547A JP6961363B2 (ja) 2017-03-06 2017-03-06 情報処理システム、情報処理方法及びプログラム
US15/908,632 US10872242B2 (en) 2017-03-06 2018-02-28 Information processing apparatus, information processing method, and storage medium
EP18160343.2A EP3373201A1 (en) 2017-03-06 2018-03-06 Information processing apparatus, information processing method, and storage medium
CN201810182621.4A CN108647557A (zh) 2017-03-06 2018-03-06 信息处理设备、信息处理方法和存储介质
JP2021166671A JP7282851B2 (ja) 2017-03-06 2021-10-11 装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017041547A JP6961363B2 (ja) 2017-03-06 2017-03-06 情報処理システム、情報処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021166671A Division JP7282851B2 (ja) 2017-03-06 2021-10-11 装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018148399A true JP2018148399A (ja) 2018-09-20
JP6961363B2 JP6961363B2 (ja) 2021-11-05

Family

ID=61581063

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017041547A Active JP6961363B2 (ja) 2017-03-06 2017-03-06 情報処理システム、情報処理方法及びプログラム
JP2021166671A Active JP7282851B2 (ja) 2017-03-06 2021-10-11 装置、方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021166671A Active JP7282851B2 (ja) 2017-03-06 2021-10-11 装置、方法及びプログラム

Country Status (4)

Country Link
US (1) US10872242B2 (ja)
EP (1) EP3373201A1 (ja)
JP (2) JP6961363B2 (ja)
CN (1) CN108647557A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112040186A (zh) * 2020-08-28 2020-12-04 北京市商汤科技开发有限公司 目标对象的活动区域确定方法、装置、设备及存储介质
JPWO2021176553A1 (ja) * 2020-03-03 2021-09-10

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles
CN110175975A (zh) * 2018-12-14 2019-08-27 腾讯科技(深圳)有限公司 对象检测方法、装置、计算机可读存储介质和计算机设备
WO2020136795A1 (ja) * 2018-12-27 2020-07-02 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
US20220004748A1 (en) * 2019-01-16 2022-01-06 Hangzhou Hikvision Digital Technology Co., Ltd. Video display method, device and system, and video camera
JP7096176B2 (ja) * 2019-02-01 2022-07-05 株式会社日立製作所 物体位置推定装置およびその方法
US20220138982A1 (en) * 2019-02-26 2022-05-05 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, and program
JP7313862B2 (ja) * 2019-03-29 2023-07-25 キヤノン株式会社 情報処理装置、方法、及びプログラム
CN110796074B (zh) * 2019-10-28 2022-08-12 桂林电子科技大学 一种基于时空数据融合的行人再识别方法
WO2021152837A1 (ja) * 2020-01-31 2021-08-05 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
CN111311601B (zh) * 2020-03-26 2023-10-13 山东极视角科技股份有限公司 一种拼接图像的分割方法及装置
JP2021174098A (ja) 2020-04-21 2021-11-01 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075775A (ja) * 2007-09-19 2009-04-09 Hitachi Kokusai Electric Inc 監視装置
JP2011107765A (ja) * 2009-11-12 2011-06-02 Masafumi Hagiwara 不審行動検知方法および不審行動検知装置
WO2016042946A1 (ja) * 2014-09-19 2016-03-24 シャープ株式会社 監視システム
JP2016154306A (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5111342A (ja) 1974-07-18 1976-01-29 Matsushita Electric Ind Co Ltd Chensochi
JPS57149449A (en) 1981-03-10 1982-09-16 Toyota Motor Corp Wear-resistant cast iron
WO2005029264A2 (en) * 2003-09-19 2005-03-31 Alphatech, Inc. Tracking systems and methods
CN100541535C (zh) * 2004-01-06 2009-09-16 索尼株式会社 图像处理设备和方法
US7697024B2 (en) * 2005-11-03 2010-04-13 Broadcom Corp. Method and system of tracking and stabilizing an image transmitted using video telephony
US8195598B2 (en) * 2007-11-16 2012-06-05 Agilence, Inc. Method of and system for hierarchical human/crowd behavior detection
US20100201815A1 (en) * 2009-02-09 2010-08-12 Vitamin D, Inc. Systems and methods for video monitoring
JP2011113255A (ja) 2009-11-26 2011-06-09 Toyota Home Kk 地域警備システム
GB2515926B (en) 2010-07-19 2015-02-11 Ipsotek Ltd Apparatus, system and method
JP5975353B2 (ja) * 2011-03-31 2016-08-23 パナソニックIpマネジメント株式会社 人数計測装置
CN102831615A (zh) * 2011-06-13 2012-12-19 索尼公司 对象监控方法和装置,以及监控系统操作方法
JP5891061B2 (ja) * 2012-02-15 2016-03-22 株式会社日立製作所 映像監視装置、監視システム、監視システム構築方法
JP6171374B2 (ja) * 2013-02-06 2017-08-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP5438861B1 (ja) * 2013-07-11 2014-03-12 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US9934423B2 (en) * 2014-07-29 2018-04-03 Microsoft Technology Licensing, Llc Computerized prominent character recognition in videos
JP6593742B2 (ja) 2015-04-14 2019-10-23 パナソニックIpマネジメント株式会社 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法
JP6773037B2 (ja) 2015-08-11 2020-10-21 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN106469443B (zh) * 2015-08-13 2020-01-21 微软技术许可有限责任公司 机器视觉特征跟踪系统
CN106096577B (zh) * 2016-06-24 2019-05-31 安徽工业大学 一种摄像头分布地图中的目标追踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075775A (ja) * 2007-09-19 2009-04-09 Hitachi Kokusai Electric Inc 監視装置
JP2011107765A (ja) * 2009-11-12 2011-06-02 Masafumi Hagiwara 不審行動検知方法および不審行動検知装置
WO2016042946A1 (ja) * 2014-09-19 2016-03-24 シャープ株式会社 監視システム
JP2016154306A (ja) * 2015-02-20 2016-08-25 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021176553A1 (ja) * 2020-03-03 2021-09-10
JP7199593B2 (ja) 2020-03-03 2023-01-05 三菱電機株式会社 人検知装置、人検知システム、設備機器システム、人検知方法及びプログラム
CN112040186A (zh) * 2020-08-28 2020-12-04 北京市商汤科技开发有限公司 目标对象的活动区域确定方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP2022003831A (ja) 2022-01-11
JP6961363B2 (ja) 2021-11-05
US10872242B2 (en) 2020-12-22
EP3373201A1 (en) 2018-09-12
CN108647557A (zh) 2018-10-12
JP7282851B2 (ja) 2023-05-29
US20180253603A1 (en) 2018-09-06

Similar Documents

Publication Publication Date Title
JP7282851B2 (ja) 装置、方法及びプログラム
JP7317919B2 (ja) 外観検索のシステムおよび方法
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
JP5358083B2 (ja) 人物画像検索装置及び画像検索装置
US11625835B2 (en) Alias capture to support searching for an object-of-interest
JP6172551B1 (ja) 画像検索装置、画像検索システム及び画像検索方法
CN106156693B (zh) 用于面部识别的基于多模型表示的鲁棒错误纠正方法
JP2017033547A (ja) 情報処理装置及びその制御方法及びプログラム
US11176679B2 (en) Person segmentations for background replacements
JP2011170711A (ja) 移動物体追跡システムおよび移動物体追跡方法
US11429985B2 (en) Information processing device calculating statistical information
WO2019033567A1 (zh) 眼球动作捕捉方法、装置及存储介质
Cheng et al. Part-aware trajectories association across non-overlapping uncalibrated cameras
JP2019185205A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6384167B2 (ja) 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム
JP7374632B2 (ja) 情報処理装置、情報処理方法及びプログラム
Yeh et al. Fast medium-scale multiperson identification in aerial videos
Chakraborty et al. Person reidentification using multiple egocentric views
JP2023065024A (ja) 検索処理装置、検索処理方法及びプログラム
JP2018195872A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US20230126761A1 (en) Method and apparatus for people flow analysis with inflow estimation
JP2021018518A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211013

R151 Written notification of patent or utility model registration

Ref document number: 6961363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151