JP7067613B2 - 情報処理装置、人物検索システム、場所推定方法及びプログラム - Google Patents

情報処理装置、人物検索システム、場所推定方法及びプログラム Download PDF

Info

Publication number
JP7067613B2
JP7067613B2 JP2020507329A JP2020507329A JP7067613B2 JP 7067613 B2 JP7067613 B2 JP 7067613B2 JP 2020507329 A JP2020507329 A JP 2020507329A JP 2020507329 A JP2020507329 A JP 2020507329A JP 7067613 B2 JP7067613 B2 JP 7067613B2
Authority
JP
Japan
Prior art keywords
existence
location
information
time
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020507329A
Other languages
English (en)
Other versions
JPWO2019181047A1 (ja
Inventor
泰奨 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019181047A1 publication Critical patent/JPWO2019181047A1/ja
Application granted granted Critical
Publication of JP7067613B2 publication Critical patent/JP7067613B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は情報処理装置、人物検索システム、場所推定方法、及びプログラムに関する。
カメラにより撮影された映像データを解析する種々の技術が提案されている。例えば、特許文献1は、入力された映像の画像に基づいて、画像中に物体が現れる確率を表す存在確率マップを生成することについて開示している。また、特許文献2は、空港において、搭乗を予定している顧客でありながら、出発時間が迫ってきているにも関わらず未だ搭乗していない顧客を監視カメラにより撮影された映像を用いて探し出す技術について開示している。
特開2013-92955号公報 国際公開第2014/148395号
検索対象者がある場所から別の場所に移動する場合、検索対象者が撮影された画像に基づいて特定された検索対象者の位置と、実際の現在の検索対象者の位置が異なる場合がある。このような場合であっても、検索対象者を検索することが求められている。
特許文献1では、任意の人物が存在する確率を示す存在確率マップを生成する技術であり、検索対象者などの特定の人物の検索に利用することができない。また、特許文献2では、エリア区分ラインに設置された監視カメラにより未搭乗者が最後に撮影された場合、エリア区分ラインの両サイドのエリアのいずれかに留まっていると推測することが開示されている。しかしながら、このような推測は未搭乗者が移動しないことを前提としており、検索対象者が移動する場合の検索に十分に対応できない。
そこで、本明細書に開示される実施形態が達成しようとする目的の1つは、移動する予定のある検索対象者を検索することができる情報処理装置、人物検索システム、場所推定方法、及びプログラムを提供することにある。
第1の態様にかかる情報処理装置は、複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得手段と、前記存在情報取得手段により取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段とを有し、前記存在情報は、前記撮影時点の時刻情報を含み、前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。
第2の態様にかかる人物検索システムは、所定の場所毎の撮影画像に基づいて、人物の撮影時点における存在場所を示す存在情報を生成する存在情報生成手段と、前記存在情報に基づいて、複数の前記所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段とを有し、前記存在情報は、前記撮影時点の時刻情報を含み、前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。
第3の態様にかかる場所推定方法では、複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得し、取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定し、前記存在情報は、前記撮影時点の時刻情報を含み、存在場所の推定では、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。
第4の態様にかかるプログラムは、複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得ステップと、前記存在情報取得ステップで取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定ステップとをコンピュータに実行させ、前記存在情報は、前記撮影時点の時刻情報を含み、前記存在場所推定ステップでは、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する。
上述の態様によれば、移動する予定のある検索対象者を検索することができる情報処理装置、人物検索システム、場所推定方法、及びプログラムを提供することができる。
実施の形態の概要にかかる情報処理装置の構成の一例を示すブロック図である。 実施の形態にかかる人物検索システムの構成の一例を示すブロック図である。 実施の形態にかかる映像解析サーバ、制御サーバ、及び検索受付サーバのハードウェア構成の一例を示すブロック図である。 実施の形態にかかる映像解析サーバ、制御サーバ、及び検索受付サーバの機能構成の一例を示すブロック図である。 実施の形態にかかる人物検索システムの適用例を示す模式図である。 制御部による構成の変更について示す模式図である。 実施の形態にかかる人物検索システムの動作例を示すシーケンスチャートである。
<実施形態の概要>
実施形態の詳細な説明に先立って、実施形態の概要を説明する。図1は、実施の形態の概要にかかる情報処理装置1の構成の一例を示すブロック図である。図1に示すように、情報処理装置1は、存在情報取得部2と、存在場所推定部3とを有する。
存在情報取得部2は、複数の所定の場所毎の撮影画像に基づいて生成された存在情報を取得する。ここで、存在情報は、人物の撮影時点における存在場所を示す情報である。存在情報は、撮影時点の時刻情報、すなわち撮影時刻情報を含む。なお、存在情報取得部2による取得方法は、任意である。したがって、存在情報取得部2は、他の装置により生成された存在情報を、ネットワークを介して取得してもよいし、情報処理装置1の記憶装置(不図示)に記憶された存在情報を読み出して取得してもよい。
存在場所推定部3は、存在情報取得部2により取得された存在情報に基づいて、上記複数の所定の場所の中から特定の人物の現在の存在場所を推定する。ここで、存在場所推定部3は、撮影時点からの経過時間に基づいて算出される、当該特定の人物の所定の場所における存在確率により、当該特定の人物の現在の存在場所を推定する。
検索対象である特定の人物に移動する予定がある場合、時間の経過とともに、過去に当該人物が撮影された場所から移動している可能性が高くなる。これに対し、情報処理装置1では、存在場所推定部3は、撮影時点からの経過時間に基づいて、特定の人物の存在確率を算出し、当該人物の現在の存在場所を推定する。このため、人物の移動を考慮した検索を行うことができる。
<実施の形態の詳細>
次に、実施の形態の詳細について説明する。図2は、実施の形態にかかる人物検索システム10の構成の一例を示すブロック図である。図2に示すように人物検索システム10は、複数のカメラ100と、複数の映像解析サーバ200を含む映像解析サーバ群250と、制御サーバ300と、検索受付サーバ400とを有する。人物検索システム10は、複数の所定の場所のそれぞれに配置されたカメラ100により撮影された画像を解析することにより人物を検索するシステムである。
上述の通り、カメラ100は、予め定められた場所毎に配置されており、配置された場所の周辺の様子を撮影する。カメラ100のそれぞれは、映像解析サーバ群250と有線又は無線のネットワークにより接続されており、各カメラ100は、撮影した映像データを映像解析サーバ群250に送信する。なお、カメラ100は、後述する映像取得制御部201からの指示に従って、映像解析サーバ群250のいずれかの映像解析サーバ200に撮影した映像データを送信する。なお、映像データは、撮影時刻情報を含む。
カメラ100の設置場所は任意である。例えば、カメラ100の設置場所は、空港、港湾、テーマパーク、ショッピングセンター、スタジアムなどであってもよい。また、カメラ100の設置場所は、1つの建物内に限らず、複数の建物などに点在していてもよい。本実施の形態では、これらの設置場所について、順方向の経路が予め定められている。したがって、人物は、この順方向の経路に従って移動する。
映像解析サーバ群250は、複数の映像解析サーバ200を含む。映像解析サーバ200は、カメラ100が送信した映像データに対し、画像認識処理を行って、カメラ100の撮影領域(すなわち、カメラ100の設置場所の周辺)における人物を認識するサーバである。本実施の形態では、映像解析サーバ200は、人物の顔についての認識処理により人物を認識するが、人物の他の外見的特徴を用いて、人物を認識してもよい。映像解析サーバ200は、制御サーバ300と有線又は無線のネットワークにより接続されており、解析処理の結果を制御サーバ300に送信する。
検索受付サーバ400は、検索要求をクライアント端末(図示せず)から受け付けるサーバである。例えば、検索受付サーバ400は、検索(捜索)すべき人物(以下、検索対象者)を指定する情報を含む検索要求を受け付ける。例えば、カメラ100の設置場所が空港内の各エリアである場合、検索対象者は、行方不明の搭乗予定者であってもよい。なお、検索対象者は、搭乗予定者に限らず、任意の人物であってもよいことは言うまでもない。検索受付サーバ400は、制御サーバ300と有線又は無線のネットワークにより接続されており、検索対象者情報を制御サーバ300に送信する。
制御サーバ300は、映像解析サーバ群250の解析処理の結果に基づいて、検索対象者の現在の居場所を推定するサーバである。また、制御サーバ300は、検索対象者が居る可能性が高い場所の映像解析に映像解析サーバ群250が注力できるよう、推定結果に基づいてシステム構成又は設定を変更する。
以下、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400の詳細について説明する。図3は、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400のハードウェア構成の一例を示すブロック図である。図3に示すように、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400は、それぞれ、例えば、ネットワークインタフェース50、メモリ51、及びプロセッサ52を含む。
ネットワークインタフェース50は、他の装置と通信するために使用される。ネットワークインタフェース50は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。
メモリ51は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。なお、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400は、メモリ51の他にハードディスクなどの記憶装置を有してもよい。
メモリ51は、プロセッサ52により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)などを格納するために使用される。
このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、Compact Disc Read Only Memory(CD-ROM)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、Programmable ROM(PROM)、Erasable PROM(EPROM)、フラッシュROM、Random Access Memory(RAM))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
プロセッサ52は、メモリ51からソフトウェア(コンピュータプログラム)を読み出して実行することで、後述する映像解析サーバ200の処理、制御サーバ300の処理、又は検索受付サーバ400の処理を行う。このように、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400は、コンピュータとしての機能を備えている。プロセッサ52は、例えば、マイクロプロセッサ、MPU(Micro Processor Unit)、又はCPU(Central Processing Unit)などであってもよい。プロセッサ52は、複数のプロセッサを含んでもよい。
メモリ51又は記憶装置は、後述する存在情報記憶部302として利用されてもよい。なお、カメラ100も図3に示した構成と同様のハードウェア構成を備えており、コンピュータとしての機能を有する。
図4は、映像解析サーバ200、制御サーバ300、及び検索受付サーバ400の機能構成の一例を示すブロック図である。まず、映像解析サーバ200について説明する。映像解析サーバ200は、図4に示すように、映像取得制御部201と、存在情報生成部202と、存在情報出力部203とを有する。
映像取得制御部201は、1以上のカメラ100から映像データを取得する。映像取得制御部201が取得するデータは、カメラ100の撮影画像と撮影時刻情報とを含む。本実施の形態では、映像解析サーバ200は、制御サーバ300の制御部305から指定されたカメラ100の映像データを解析する。このため、映像取得制御部201は、制御部305から指定されたカメラ100からの映像データを取得する。具体的には、映像取得制御部201は、制御サーバ300の制御部305からの指示で指定されたカメラ100に映像データを要求する。これに対し、カメラ100は、映像取得制御部201からの要求があった映像解析サーバ200へと、撮影した映像データを伝送する。
存在情報生成部202は、所定の場所毎の撮影画像に基づいて存在情報を生成する。ここで、存在情報は、人物の撮影時点における存在場所を示す情報である。本実施の形態では、存在情報生成部202は、撮影画像に対し画像認識処理によるリアルタイムな解析を行って、撮影画像に含まれる顔を識別することにより、存在情報を生成する。具体的には、例えば、存在情報生成部202は、カメラ100の撮影画像に含まれる人物の外見的特徴を示す所定の特徴量(顔画像の特徴量)と、特定の人物の外見的特徴を示す所定の特徴量とのマッチングを行うことにより、存在情報を生成する。すなわち、存在情報生成部202は、両者の特徴量のマッチングにより、当該特定の人物が当該カメラ100の撮影範囲の場所に、当該撮影画像の撮影時点に存在していたという存在情報を生成する。したがって、存在情報は、撮影時点の時刻情報(すなわち、撮影時刻情報)を含む。本実施の形態では、存在情報は、人物の検索に利用されるが、例えば空港等における所定の場所ついての顔認証による入退場情報としても利用されてもよい。
上述の通り、存在情報は、誰が、いつ、どこに存在したかを特定した情報である。
存在情報出力部203は、存在情報生成部202により生成された存在情報を、制御サーバ300に出力する。
次に、検索受付サーバ400について説明する。検索受付サーバ400は、図4に示すように、検索要求受付部401と、検索対象者情報出力部402とを有する。
検索要求受付部401は、検索要求を受け付ける。検索要求は、検索対象者を指定する情報を含む情報である。検索対象者を指定する情報は、例えば、検索対象者の氏名、ID、パスポート情報などの識別情報(以下、検索対象者情報)を含む。ユーザは、例えば、検索受付サーバ400と有線又は無線のネットワークを介して通信接続されたクライアント端末を操作することにより、検索対象者を指定する。これにより、クライアント端末から検索受付サーバ400に検索要求が送信される。
検索対象者情報出力部402は、検索要求受付部401が受け付けた検索要求で指定された検索対象者情報を制御サーバ300に出力する。
次に、制御サーバ300について説明する。制御サーバ300は、図4に示すように、存在情報取得部301と、存在情報記憶部302と、検索対象者情報取得部303と、存在場所推定部304と、制御部305と、検索結果出力部306とを有する。
存在情報取得部301は、複数の所定の場所毎の撮影画像に基づいて生成された存在情報を取得する。本実施の形態では、存在情報取得部301は、映像解析サーバ200が送信した存在情報を取得する。存在情報取得部301は、取得した存在情報を存在情報記憶部302に記憶する。
存在情報記憶部302は、存在情報を記憶する記憶領域である。存在情報記憶部302には、各カメラ100からの映像データのリアルタイムな解析によって、逐次、存在情報が蓄積されていく。
検索対象者情報取得部303は、検索受付サーバ400から送信された検索対象者情報を取得する。
存在場所推定部304は、存在情報取得部301により取得された存在情報に基づいて、カメラ100が設置されている複数の所定の場所の中から特定の人物の現在の存在場所を推定する。詳細には、存在場所推定部304は、まず、検索対象者情報によって特定される検索対象者についての最新の存在情報を存在情報記憶部302から検索する。次に、存在場所推定部304は、検索された存在情報で示される撮影時刻からの経過時間に基づいて算出される、当該特定の人物(すなわち、検索対象者)の存在確率により、当該特定の人物の現在の存在場所を推定する。すなわち、存在場所推定部304は、当該特定の人物についての最新の存在情報の生成に用いられた撮影画像の撮影時点からの経過時間に基づいて算出される存在確率により、現在の存在場所を推定する。ここで、存在確率とは、カメラ100が設置された所定の場所に当該特定の人物が存在する確率である。
本実施の形態では、一例として、存在場所推定部304は、上記の経過時間を変数とする単調関数を用いて存在確率を算出する。ここでは、具体的な一例として、下記式(1)で示される単調増加関数f(t)を用いる。
Figure 0007067613000001
なお、tは、上記の経過時間である。すなわち、tは、現在の時刻と、検索対象者である特定の人物についての最新の存在情報に対応する撮影時刻との差である。また、TXYiは、場所Xに現れた人物が場所Yiに現れるまでにかかる時間(以下、移動予定時間と称す)であり、場所Xから場所Yiに移動する人々についての統計的な結果などに基づいて予め設定された値である。ここで、場所Xは、カメラ100が設置された場所のうち、検索対象者についての最新の存在情報によって示される存在場所であり、第1の場所とも称される。また、場所Yiは、カメラ100が設置された場所のうち、場所Xから到達可能な場所であり第2の場所とも称される。なお、場所Xから到達可能な場所は、n箇所(nは1以上の整数)あるものとする。すなわち、Yiの「i」は、1以上n以下のインデックス番号であり、場所Xから到達可能な場所は、場所Y1から場所Ynの合計n箇所である。
存在場所推定部304は、上記の関数f(t)を用いて、現在、検索対象者が場所Yiに存在する存在確率pYi(t)を下記式(2)により算出する。また、存在場所推定部304は、現在、検索対象者が場所Xに存在する存在確率p(t)を下記式(3)により算出する。
Figure 0007067613000002
Figure 0007067613000003
ここで、PXYiは、場所Xからの人物の移動先が場所Yiである確率である。すなわち、PXYiは、場所Yi毎の場所Xからの移動確率である。移動確率PXYiは、場所Xから場所Yiに移動する人々についての統計的な結果などに基づいて予め設定された値である。このように本実施の形態では、存在場所推定部304は、場所Xから到達可能な場所Yi毎の所定の移動確率と、経過時間tとに基づいて算出される存在確率により、検索対象者の現在の存在場所を推定する。このように移動確率も用いることにより、場所Xからの到達先が複数である場合であっても、各到達先に対する存在確率を算出することができる。
存在場所推定部304は、上述のようにして検索対象者の場所毎の存在確率を算出し、存在確率の大きさによって存在場所を推定する。ここで、人物検索システム10の具体的な適用例について説明する。図5は、本実施の形態にかかる人物検索システム10の適用例を示す模式図である。図5は、空港での人物の検索を行う例を示している。図5に示した例では、カメラ100は、搭乗手続きエリア(場所Aと称す)と、出国審査エリア(場所Bと称す)と、免税店(場所Cと称す)と、ラウンジ(場所Dと称す)と、搭乗ゲート(場所Eと称す)に設置されている。
これらの場所については、図5において矢印で示されるように、順方向の経路が予め定められている。具体的には、場所Aに到着した人物は、その後、場所Bへ移動することになっている。場所Aから場所Bへの移動確率PABとして予め100%が設定され、移動予定時間TABとして、予め5分が設定されている。
また、場所Bに到着した人物は、その後、場所C又はD又はEのいずれかへ移動することになっている。場所Bから場所Cへの移動確率PBCとして予め10%が設定され、移動予定時間TBCとして、予め1分が設定されている。場所Bから場所Dへの移動確率PBDとして予め40%が設定され、移動予定時間TBDとして、予め5分が設定されている。場所Bから場所Eへの移動確率PBEとして予め50%が設定され、移動予定時間TBEとして、予め1分が設定されている。
さらに、場所Cに到着した人物は、その後、場所Eへ移動することになっている。場所Cから場所Eへの移動確率PCEとして予め100%が設定され、移動予定時間TCEとして、予め30分が設定されている。そして、場所Dに到着した人物は、その後、場所Eへ移動することになっている。場所Dから場所Eへの移動確率PDEとして予め100%が設定され、移動予定時間TDEとして、予め60分が設定されている。
例えば、検索対象者についての最新の存在情報により検索対象者が場所Bに存在していたことを存在場所推定部304が確認した場合、存在場所推定部304は、次のように検索対象者の現在の居場所を推定する。すなわち、存在場所推定部304は、場所Bを場所Xとし、場所C、D、及びEを場所Yiとして、検索対象者の場所B、C、D、及びEのそれぞれにおける存在確率を上述のようにして算出し、現在の存在場所を推定する。なお、存在場所推定部304は、存在確率に基づいて検索対象者の現在の存在場所を任意の手法により推定すればよい。例えば、存在場所推定部304は、所定の閾値を超える存在確率が算出された場所を、検索対象者の現在の居場所と推定してもよいし、存在確率が最大である場所を検索対象者の現在の居場所と推定してもよい。
制御部305は、存在場所推定部304による推定結果に応じて、存在情報の生成に関する構成又は設定を変更する制御を行う。例えば、制御部305は、カメラ100が設置された場所の撮影画像に対する存在情報の生成のための処理に、当該場所の存在確率の大きさに応じたリソースを割り当てるよう構成の変更を行う。具体的には、例えば、制御部305は、映像解析サーバ200が担当するカメラ100の台数を変更するよう制御する。図6は、制御部305による構成の変更について示す模式図である。図6において、左側は、制御部305による構成の変更前のカメラ100と映像解析サーバ200との対応関係を示し、右側は、制御部305による構成の変更後のカメラ100と映像解析サーバ200との対応関係を示している。構成変更前では、各映像解析サーバ200は、それぞれ2台のカメラ100の映像データの解析を担当している。存在場所推定部304により、場所D又は場所Eに、現在、検索対象者が居ると推定された場合、制御部305は、場所Dのカメラ100(カメラD)及び場所Eのカメラ100(カメラE)の映像データの解析に注力できるよう構成を変更する。すなわち、制御部305は、カメラDの映像データを処理する映像解析サーバ200(映像解析サーバH)が、リソースをカメラDの映像データの解析に集中できるよう構成を変更する(図6の右側の図参照)。同様に、制御部305は、カメラEの映像データを処理する映像解析サーバ200(映像解析サーバI)が、リソースをカメラEの映像データの解析に集中できるよう構成を変更する(図6の右側の図参照)。これに伴い、制御部305は、映像解析サーバHが担当していたカメラCの映像データの解析処理を映像解析サーバGに割り振り、映像解析サーバIが担当していたカメラFの映像データの解析処理を映像解析サーバGに割り振る。これにより、現在、検索対象者が存在する可能性が高いエリアに注力して、検索対象者を探すことができる。
また、制御部305は、存在場所推定部304による推定結果に応じて、カメラ100の設置場所の撮影画像に対する存在情報の生成のための画像認識処理性能に関する設定を変更してもよい。図6に示した例により説明すると、制御部305は、カメラDの映像データの解析の際に実施する画像認識処理の性能を向上させるよう設定を変更する。同様に、制御部305は、カメラEの映像データの解析の際に実施する画像認識処理の性能を向上させるよう設定を変更する。なお、画像認識処理性能に関する設定としては、具体的には、例えば、解析対象とする画像のフレームレート(FPS:frames per second)であってもよいし、1フレーム内で検出可能な顔画像の数であってもよい。これらの設定値を上げることにより、より高精度な認識結果が期待される。なお、制御部305は、4台のカメラを担当するように変更された映像解析サーバGに対し、映像解析サーバGのリソース不足に陥らないよう、各カメラの映像データの解析の際に実施する画像認識処理の性能を低下させるよう設定を変更してもよい。
制御部305は、構成又は設定の変更を映像解析サーバ200に指示する。これにより、映像解析サーバ200の映像取得制御部201は、制御サーバ300の制御部305に指示されたカメラ100の映像データを取得する。また、映像解析サーバ200の存在情報生成部202は、制御サーバ300の制御部305に指示された設定で解析処理を行う。
検索結果出力部306は、検索対象者情報によって特定される検索対象者についての現在の居場所を示す存在情報を検索する。例えば、検索結果出力部306は、現在の時刻と撮影時刻との差が僅少である存在情報、言い換えると、現在の時刻と撮影時刻との差が予め定められた時間以内である存在情報を検索する。これにより、検索結果出力部306は、制御部305による変更後に映像解析サーバ200に生成され存在情報記憶部302に蓄積された当該検索対象者についての存在情報を得る。検索結果出力部306は、得られた存在情報を、検索対象者の現在の居場所として出力する。なお、検索結果出力部306は、得られた存在情報を検索受付サーバ400に出力してもよいし、クライアント端末などの装置に出力してもよい。検索結果出力部306から出力された存在情報は、任意の手法により、検索結果としてユーザへ提示することができる。
次に、人物検索システム10の動作の流れについて説明する。図7は、人物検索システム10の動作例を示すシーケンスチャートである。
まず、通常時の動作の流れについて説明する。
ステップ100(S100)において、カメラ100から送信された映像データを映像解析サーバ200の映像取得制御部201が取得する。
次に、ステップ101(S101)において、映像解析サーバ200の存在情報生成部202が、映像データを解析し、様々な人物の存在情報を生成する。
次に、ステップ102(S102)において、映像解析サーバ200の存在情報出力部203によって出力された存在情報を、制御サーバ300の存在情報取得部301が取得する。そして、存在情報取得部301は、取得した存在情報を存在情報記憶部302に格納する。
存在情報は、逐次生成され、存在情報記憶部302に逐次蓄積される。
次に、人物検索時の動作の流れについて説明する。
ステップ200(S200)において、ユーザからの検索要求を検索受付サーバ400の検索要求受付部401が受け付ける。
次に、ステップ201(S201)において、検索要求に基づいて、検索受付サーバ400の検索対象者情報出力部402が検索対象者情報を制御サーバ300に送信し、これを制御サーバ300の検索対象者情報取得部303が取得する。
次に、ステップ202(S202)において、制御サーバ300の存在場所推定部304は、ステップ102において蓄積された存在情報に基づいて、検索対象者の現在の居場所を推定する。
次に、ステップ203(S203)において、制御サーバ300の制御部305が、ステップ202における推定結果に応じて、システムの構成及び設定の変更を決定する。
次に、ステップ204(S204)において、制御サーバ300の制御部305は、映像解析サーバ200に変更を指示する。
ステップ205(S205)において、映像取得制御部201は、ステップ204で制御サーバ300から通知された指示に従い、カメラ100に対し映像データの送信先を指示する。すなわち、映像取得制御部201は、自サーバが担当するカメラ100からの映像データが自サーバに届くように、カメラ100に通知する。カメラ100は通知に従った送信先の映像解析サーバ200に映像データを送信する。以降、制御部305により変更された構成及び設定の下、存在情報生成部202により、検索対象者を検索する解析が行われる。このようにして、検索対象者が存在しそうな場所に対して注力した検索処理を行うことができる。
なお、検索対象者の存在情報がいずれかの映像解析サーバ200において生成された場合、制御サーバ300の検索結果出力部306がこれを存在情報記憶部302から得て、検索結果として出力する。
以上、実施の形態について説明した。人物検索システム10では、撮影時点からの経過時間に基づいて算出される存在確率により、検索対象者の現在の存在場所が推定される。このため、移動する予定のある検索対象者を検索することができる。
また、人物検索システム10では、検索対象者の存在場所の推定結果に応じて、システムの構成又は設定が変更される。このため、検索対象者が発見される可能性がより高い場所の映像解析に注力して処理を行うことができる。このため、限られた計算リソースを効率的に利用することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、人物検索システム10は、複数の映像解析サーバ200を有していたが、映像解析サーバ200は1つであってもよい。この場合、例えば、制御サーバ300の制御部305は、この1つの映像解析サーバ200におけるリソースを存在場所推定部304の推定結果に応じて、カメラ100毎の解析処理に対し割り振るよう設定を変更する。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得手段と、
前記存在情報取得手段により取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段と
を有し、
前記存在情報は、前記撮影時点の時刻情報を含み、
前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
情報処理装置。
(付記2)
前記存在場所推定手段は、第1の場所から到達可能な第2の場所毎の前記第1の場所からの所定の移動確率と、前記撮影時点からの経過時間とに基づいて算出される前記存在確率により、前記特定の人物の現在の存在場所を推定し、
前記第1の場所は、前記複数の所定の場所のうち、前記特定の人物の前記撮影時点における存在場所であり、
前記第2の場所は、前記複数の所定の場所のうち、前記第1の場所から到達可能な場所である
付記1に記載の情報処理装置。
(付記3)
前記存在場所推定手段による推定結果に応じて、前記存在情報の生成に関する構成又は設定を変更する制御手段をさらに有する
付記1又は2に記載の情報処理装置。
(付記4)
前記制御手段は、前記所定の場所の撮影画像に対する前記存在情報の生成のための処理に、当該場所の前記存在確率の大きさに応じたリソースを割り当てる
付記3に記載の情報処理装置。
(付記5)
前記制御手段は、前記存在場所推定手段による推定結果に応じて、前記所定の場所の撮影画像に対する前記存在情報の生成のための画像認識処理性能に関する設定を変更する
付記3又は4に記載の情報処理装置。
(付記6)
前記画像認識処理性能に関する設定は、解析対象とする画像のフレームレートの設定である
付記5に記載の情報処理装置。
(付記7)
前記画像認識処理性能に関する設定は、1フレーム内で検出可能な顔画像の数の設定である
付記5に記載の情報処理装置。
(付記8)
所定の場所毎の撮影画像に基づいて、人物の撮影時点における存在場所を示す存在情報を生成する存在情報生成手段と、
前記存在情報に基づいて、複数の前記所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段と
を有し、
前記存在情報は、前記撮影時点の時刻情報を含み、
前記存在場所推定手段は、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
人物検索システム。
(付記9)
前記存在情報生成手段は、撮影画像に含まれる顔を識別することにより、前記存在情報を生成する
付記8に記載の人物検索システム。
(付記10)
複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得し、
取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定し、
前記存在情報は、前記撮影時点の時刻情報を含み、
存在場所の推定では、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
場所推定方法。
(付記11)
複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得ステップと、
前記存在情報取得ステップで取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定ステップと
をコンピュータに実行させ、
前記存在情報は、前記撮影時点の時刻情報を含み、
前記存在場所推定ステップでは、前記撮影時点からの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定する
プログラムが格納された非一時的なコンピュータ可読媒体。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年3月23日に出願された日本出願特願2018-056862を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 情報処理装置
2 存在情報取得部
3 存在場所推定部
10 人物検索システム
50 ネットワークインタフェース
51 メモリ
52 プロセッサ
100 カメラ
200 映像解析サーバ
201 映像取得制御部
202 存在情報生成部
203 存在情報出力部
250 映像解析サーバ群
300 制御サーバ
301 存在情報取得部
302 存在情報記憶部
303 検索対象者情報取得部
304 存在場所推定部
305 制御部
306 検索結果出力部
400 検索受付サーバ
401 検索要求受付部
402 検索対象者情報出力部

Claims (6)

  1. 複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得手段と、
    前記存在情報取得手段により取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段と
    前記存在場所推定手段による推定結果に応じて、前記存在情報の生成に関する構成又は設定を変更する制御手段と
    を有し、
    前記存在情報は、前記撮影時点の時刻情報を含み、
    前記存在場所推定手段は、前記撮影時点から現在の時刻までの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定し、
    前記制御手段は、前記存在場所推定手段による推定結果に応じて、前記所定の場所の撮影画像に対する前記存在情報の生成のための画像認識処理性能に関する設定を変更し、
    前記画像認識処理性能に関する設定は、1フレーム内で検出可能な顔画像の数の設定である
    情報処理装置。
  2. 前記存在場所推定手段は、第1の場所から到達可能な第2の場所毎の前記第1の場所からの所定の移動確率と、前記撮影時点から現在の時刻までの経過時間とに基づいて算出される前記存在確率により、前記特定の人物の現在の存在場所を推定し、
    前記第1の場所は、前記複数の所定の場所のうち、前記特定の人物の前記撮影時点における存在場所であり、
    前記第2の場所は、前記複数の所定の場所のうち、前記第1の場所から到達可能な場所である
    請求項1に記載の情報処理装置。
  3. 前記制御手段は、前記所定の場所の撮影画像に対する前記存在情報の生成のための処理に、当該場所の前記存在確率の大きさに応じたリソースを割り当てる
    請求項1又は2に記載の情報処理装置。
  4. 所定の場所毎の撮影画像に基づいて、人物の撮影時点における存在場所を示す存在情報を生成する存在情報生成手段と、
    前記存在情報に基づいて、複数の前記所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定手段と
    前記存在場所推定手段による推定結果に応じて、前記存在情報の生成に関する構成又は設定を変更する制御手段と
    を有し、
    前記存在情報は、前記撮影時点の時刻情報を含み、
    前記存在場所推定手段は、前記撮影時点から現在の時刻までの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定し、
    前記制御手段は、前記存在場所推定手段による推定結果に応じて、前記所定の場所の撮影画像に対する前記存在情報の生成のための画像認識処理性能に関する設定を変更し、
    前記画像認識処理性能に関する設定は、1フレーム内で検出可能な顔画像の数の設定である
    人物検索システム。
  5. 複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得し、
    取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定し、
    前記推定の結果に応じて、前記存在情報の生成に関する構成又は設定を変更し、
    前記存在情報は、前記撮影時点の時刻情報を含み、
    存在場所の推定では、前記撮影時点から現在の時刻までの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定し、
    前記変更では、前記推定の結果に応じて、前記所定の場所の撮影画像に対する前記存在情報の生成のための画像認識処理性能に関する設定を変更し、
    前記画像認識処理性能に関する設定は、1フレーム内で検出可能な顔画像の数の設定である
    場所推定方法。
  6. 複数の所定の場所毎の撮影画像に基づいて生成された、人物の撮影時点における存在場所を示す存在情報を取得する存在情報取得ステップと、
    前記存在情報取得ステップで取得された前記存在情報に基づいて、前記複数の所定の場所の中から特定の人物の現在の存在場所を推定する存在場所推定ステップと
    前記存在場所推定ステップでの推定結果に応じて、前記存在情報の生成に関する構成又は設定を変更する制御ステップと
    をコンピュータに実行させ、
    前記存在情報は、前記撮影時点の時刻情報を含み、
    前記存在場所推定ステップでは、前記撮影時点から現在の時刻までの経過時間に基づいて算出される、前記特定の人物の前記所定の場所における存在確率により、前記特定の人物の現在の存在場所を推定し、
    前記制御ステップでは、前記存在場所推定ステップでの推定結果に応じて、前記所定の場所の撮影画像に対する前記存在情報の生成のための画像認識処理性能に関する設定を変更し、
    前記画像認識処理性能に関する設定は、1フレーム内で検出可能な顔画像の数の設定である
    プログラム。
JP2020507329A 2018-03-23 2018-10-26 情報処理装置、人物検索システム、場所推定方法及びプログラム Active JP7067613B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018056862 2018-03-23
JP2018056862 2018-03-23
PCT/JP2018/039858 WO2019181047A1 (ja) 2018-03-23 2018-10-26 情報処理装置、人物検索システム、場所推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Publications (2)

Publication Number Publication Date
JPWO2019181047A1 JPWO2019181047A1 (ja) 2021-02-25
JP7067613B2 true JP7067613B2 (ja) 2022-05-16

Family

ID=67987595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020507329A Active JP7067613B2 (ja) 2018-03-23 2018-10-26 情報処理装置、人物検索システム、場所推定方法及びプログラム

Country Status (5)

Country Link
US (1) US11501568B2 (ja)
EP (1) EP3770855A1 (ja)
JP (1) JP7067613B2 (ja)
AU (1) AU2018414269A1 (ja)
WO (1) WO2019181047A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7407018B2 (ja) * 2020-02-28 2023-12-28 株式会社日立製作所 捜索支援システム、捜索支援方法
US11792501B2 (en) * 2020-12-17 2023-10-17 Motorola Solutions, Inc. Device, method and system for installing video analytics parameters at a video analytics engine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061342A1 (ja) 2012-10-18 2014-04-24 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2016143312A (ja) 2015-02-04 2016-08-08 沖電気工業株式会社 予測システム、予測方法およびプログラム
JP2016163328A (ja) 2015-03-05 2016-09-05 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018032950A (ja) 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4506801B2 (ja) * 2007-09-25 2010-07-21 カシオ計算機株式会社 画像認識装置、画像認識方法、画像認識プログラム
JP5743849B2 (ja) 2011-10-27 2015-07-01 株式会社日立製作所 映像解析装置及びシステム
BR112015005258A2 (pt) * 2012-09-13 2017-07-04 Nec Corp sistema de processamento de imagem, método de processamento de imagem e programa
JP5851651B2 (ja) 2013-03-21 2016-02-03 株式会社日立国際電気 映像監視システム、映像監視方法、および映像監視装置
US9794525B2 (en) * 2014-03-25 2017-10-17 Ecole Polytechnique Federale De Lausanne (Epfl) Systems and methods for tracking interacting objects
JP6428144B2 (ja) * 2014-10-17 2018-11-28 オムロン株式会社 エリア情報推定装置、エリア情報推定方法、および空気調和装置
EP3435665A4 (en) * 2016-03-25 2019-03-20 Panasonic Intellectual Property Management Co., Ltd. MONITORING AND MONITORING SYSTEM
JP2018056862A (ja) 2016-09-30 2018-04-05 ブラザー工業株式会社 通信装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061342A1 (ja) 2012-10-18 2014-04-24 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2016143312A (ja) 2015-02-04 2016-08-08 沖電気工業株式会社 予測システム、予測方法およびプログラム
JP2016163328A (ja) 2015-03-05 2016-09-05 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018032950A (ja) 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム

Also Published As

Publication number Publication date
JPWO2019181047A1 (ja) 2021-02-25
EP3770855A1 (en) 2021-01-27
US11501568B2 (en) 2022-11-15
WO2019181047A1 (ja) 2019-09-26
AU2018414269A1 (en) 2020-10-08
US20210012095A1 (en) 2021-01-14

Similar Documents

Publication Publication Date Title
JP7131843B2 (ja) 監視システム、管理装置および監視方法
JP2015002553A (ja) 情報処理システムおよびその制御方法
CN108875648A (zh) 一种基于手机视频流的实时车辆损伤和部件检测的方法
JP7067613B2 (ja) 情報処理装置、人物検索システム、場所推定方法及びプログラム
JP2007219948A (ja) ユーザ異常検出装置、及びユーザ異常検出方法
JP7484985B2 (ja) 認証システム、認証方法、及び、プログラム
WO2018116973A1 (ja) 未搭乗者捜索装置、未搭乗者捜索方法、及び記録媒体
JP6769475B2 (ja) 情報処理システム、認証対象の管理方法、及びプログラム
Kim et al. Stabilized adaptive sampling control for reliable real-time learning-based surveillance systems
JP7080578B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20210133432A1 (en) Fast face image capture system
JP2015233204A (ja) 画像記録装置及び画像記録方法
JP6941457B2 (ja) 監視システム
KR20220056279A (ko) 인공 지능 기반 비전 감시 장치
KR102099816B1 (ko) 실시간 로드 영상을 통해 유동 인구 데이터를 수집하는 방법 및 장치
US20210342475A1 (en) Control apparatus, data analysys system, conrol method, and computer program
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
JP6558178B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
WO2021124705A1 (ja) 計数システム、計数方法、プログラム
JP6888840B2 (ja) 画像処理システム、画像処理方法、及び画像処理プログラム
JP6927585B2 (ja) 管理装置、自動改札機制御方法、及びプログラム
JP7264283B2 (ja) 画像処理装置、人検索システム、画像処理方法、及び画像処理プログラム
JP7182893B2 (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP2022048077A (ja) 画像処理装置およびその制御方法
JP2022142326A (ja) 情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R151 Written notification of patent or utility model registration

Ref document number: 7067613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151