JP2021514548A - 目標対象物の監視方法、装置及びシステム - Google Patents

目標対象物の監視方法、装置及びシステム Download PDF

Info

Publication number
JP2021514548A
JP2021514548A JP2019570566A JP2019570566A JP2021514548A JP 2021514548 A JP2021514548 A JP 2021514548A JP 2019570566 A JP2019570566 A JP 2019570566A JP 2019570566 A JP2019570566 A JP 2019570566A JP 2021514548 A JP2021514548 A JP 2021514548A
Authority
JP
Japan
Prior art keywords
target
video
image
server
surveillance device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019570566A
Other languages
English (en)
Other versions
JP7018462B2 (ja
Inventor
云 波 臧
云 波 臧
建 壮 支
建 壮 支
鄒 尭 魯
鄒 尭 魯
明 輝 呉
明 輝 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mininglamp Software Systems Co Ltd
Beijing Mininglamp Software System Co ltd
Original Assignee
Mininglamp Software Systems Co Ltd
Beijing Mininglamp Software System Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mininglamp Software Systems Co Ltd, Beijing Mininglamp Software System Co ltd filed Critical Mininglamp Software Systems Co Ltd
Publication of JP2021514548A publication Critical patent/JP2021514548A/ja
Application granted granted Critical
Publication of JP7018462B2 publication Critical patent/JP7018462B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

本願は、目標対象物の監視方法、装置及びシステムを提供し、該方法は、第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、画像は、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得した画像であることと、第1のサーバが、画像に基づいて、対象物が目標対象物であるか否かを判定することと、を含む。本願によれば、関連技術における、目標対象物を監視する効率が低いとの問題を解決し、さらに、目標対象物を監視する効率を向上させる効果を達成する。

Description

本願は、コンピュータの分野に関し、具体的には、目標対象物の監視方法、装置及びシステムに関する。
現在、目標対象物を監視する方法は、通常、撮像したビデオにて目標対象物を認識するようにしているが、しかし、このような方式は、効率が低い傾向がある。
上記問題に対して、現在、未だに有効な対応策が提示されていない。
本願実施例は、関連技術における、目標対象物を監視する効率が低いとの問題を少なくとも解決するように、目標対象物の監視方法、装置及びシステムを提供する。
本願の一実施例は、第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、前記画像は、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから取得した画像であることと、前記第1のサーバ前記画像に基づいて前記対象物が目標対象物であるか否かを判定することと、を含む目標対象物の監視方法を提供する。
オプションとして、前記第1のサーバが前記画像に基づいて前記対象物が目標対象物であるか否かを判定した後、前記方法は、前記対象物が前記目標対象物であると判定された場合に、前記第1のサーバが、前記目標ビデオを取得すること、をさらに含んでもよい。
オプションとして、前記第1のサーバが、前記目標ビデオを取得することは、前記第1のサーバが、前記ビデオ監視機器から前記目標ビデオを取得すること、或いは、前記第1のサーバが、第2のサーバから前記目標ビデオを取得すること、を含み、前記目標ビデオは、移動する対象物が目標領域に現れると検出された場合に前記ビデオ監視機器によって前記第2のサーバに送信されたものであってもよい。
オプションとして、前記第1のサーバが、前記画像に基づいて前記対象物が目標対象物であるか否かを判定した後、前記方法は、前記対象物が前記目標対象物ではないと判定された場合に、前記第1のサーバが、前記目標ビデオを削除するように前記第2のサーバに指示するための指示情報を前記第2のサーバへ送信すること、をさらに含んでもよい。
オプションとして、前記第1のサーバが、前記目標ビデオを取得した後、前記方法は、前記第1のサーバが、前記目標ビデオにおいて、前記目標領域における前記目標対象物の移動軌跡を特定すること、をさらに含んでもよい。
オプションとして、前記第1のサーバが、前記目標ビデオにおいて、前記目標領域における前記目標対象物の移動軌跡を特定した後、前記方法は、前記第1のサーバが、前記移動軌跡に基づいて、前記目標対象物を排除する方式を提示するための提示情報を生成すること、をさらに含んでもよい。
オプションとして、前記第1のサーバが、前記移動軌跡に基づいて、提示情報を生成した後、前記方法は、前記第1のサーバが前記目標対象物に対応する、前記目標領域に前記目標対象物が現れたことを示すためのアラート情報を生成し、前記アラート情報には、前記目標ビデオ、前記移動軌跡、前記提示情報の少なくとも一方が含まれていることと、前記第1のサーバが、前記アラート情報をクライアントに送信することと、をさらに含んでもよい。
オプションとして、第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信する前に、前記方法は、前記ビデオ監視機器が、移動する対象物が目標領域に現れると検出された場合に、前記目標領域に前記対象物が現れてから所定時間毎に、前記ビデオ監視機器で目標領域を撮像したビデオから前記画像に含まれるビデオ画像を、前記対象物が前記目標領域に現れなくなるまで、キャプチャすることと、前記ビデオ監視機器が、キャプチャした前記ビデオ画像を前記第1のサーバにリアルタイムに送信すること、或いは、前記ビデオ監視機器が、キャプチャした全てのビデオ画像を含む画像セットを取得し、前記画像セットを前記第1のサーバに送信することと、をさらに含んでもよい。
オプションとして、前記第1のサーバが、前記画像に基づいて前記対象物が目標対象物であるか否かを判定することは、前記第1のサーバが、受信した各前記ビデオ画像における前記対象物が前記目標対象物であるか否かを認識し、各前記ビデオ画像に対応する認識結果を得ることと、前記第1のサーバが、受信した全ての前記ビデオ画像に対応する認識結果を目標結果となるように統合することと、前記第1のサーバが、前記目標結果に基づいて、前記対象物が目標対象物であるか否かを判定することと、をさらに含んでもよい。
オプションとして、前記第1のサーバが、受信した各前記ビデオ画像における前記対象物が前記目標対象物であるか否かを認識することは、前記第1のサーバが、受信した各前記ビデオ画像に前記対象物が現れたか否かを判定することと、前記第1のサーバが、前記対象物が現れた前記ビデオ画像における前記対象物が前記目標対象物であるか否かを認識することと、をさらに含んでもよい。
オプションとして、前記第1のサーバが、前記画像に基づいて前記対象物が目標対象物であるか否かを判定することは、
前記第1のサーバが、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各前記目標ビデオフレーム画像の画像特徴を得て、前記画像は、前記目標ビデオから取得した複数の目標ビデオフレーム画像を含み、各前記目標ビデオフレーム画像は、前記目標領域における前記対象物を示すために用いられ、前記画像特徴は、前記対象物のうち、前記目標対象物との類似度が第1の閾値を超えた対象物がある目標画像領域を表すために用いられることと、
前記第1のサーバが、各前記目標ビデオフレーム画像の画像特徴に基づいて、前記複数の目標ビデオフレーム画像における前記対象物の動き速度及び動き方向を表すための動き特徴を特定することと、
前記第1のサーバが、前記動き特徴及び各前記目標ビデオフレーム画像の画像特徴に基づいて、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを判定することと、を含んでもよい。
オプションとして、前記第1のサーバが、各前記目標ビデオフレーム画像の画像特徴に基づいて、動き特徴を特定することは、
各前記目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する目標ベクトルを取得し、それぞれ、対応する1つの前記目標ビデオフレーム画像における前記対象物が前記目標画像領域を通る時の動き速度及び動き方向を表すための複数の目標ベクトルを得て、前記複数の目標ベクトルを、前記ビデオファイルにおける各前記目標ビデオフレーム画像の時間順に従って前記動き特徴に含まれる第1の目標ベクトルとして構成すること、或いは、
各前記目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する2次元オプティカルフロー図を取得し、それぞれ、対応する1つの前記目標ビデオフレーム画像における前記対象物が前記目標画像領域を通る時の動き速度及び動き方向を含む複数の2次元オプティカルフロー図を得て、前記複数の2次元オプティカルフロー図を、前記ビデオファイルにおける各前記目標ビデオフレーム画像の時間順に従って前記動き特徴に含まれる3次元の第2の目標ベクトルとして構成すること、を含んでもよい。
オプションとして、前記第1のサーバが、前記動き特徴及び各前記目標ビデオフレーム画像の画像特徴に基づいて、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを判定することは、
前記動き特徴及び各前記目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを表すための対象物認識結果を得ること、を含んでもよい。
オプションとして、前記動き特徴及び各前記目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、対象物認識結果を得ることは、
各前記画像特徴に畳み込み層、正規化層及び活性化関数層を含むニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、前記複数の第1の特徴ベクトルと前記動き特徴を統合し、第2の特徴ベクトルを得て、前記第2の特徴ベクトルを全結合層に入力し分類し、第1の分類結果を得て、前記ニューラルネットワークモデルは、前記ニューラルネットワーク層構造及び前記全結合層を含み、前記対象物認識結果は、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを表すための前記第1の分類結果を含むこと、或いは、
各前記画像特徴に畳み込み層、正規化層及び活性化関数層を含む第1のニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、前記動き特徴に畳み込み層、正規化層、活性化関数層を含む第2のニューラルネットワーク層構造を通らせ、第2の特徴ベクトルを得て、前記複数の第1の特徴ベクトルと前記第2の特徴ベクトルを統合し、第3の特徴ベクトルを得て、前記第3の特徴ベクトルを全結合層に入力し分類し、第2の分類結果を得て、前記ニューラルネットワークモデルは、前記第1のニューラルネットワーク層構造、前記第2のニューラルネットワーク層構造及び前記全結合層を含み、前記対象物認識結果は、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを表すための前記第2の分類結果を含むこと、を含んでもよい。
オプションとして、前記第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信することは、
前記第1のサーバが、ビデオ監視機器から送信された、前記ビデオ監視機器によって、前記目標ビデオのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得て、前記1グループのビデオフレーム画像における画素点の画素値に基づいて、前記1グループのビデオフレーム画像において特定した前記複数の目標ビデオフレーム画像を受信すること、或いは、
前記第1のサーバが、ビデオ監視機器から送信された、前記ビデオ監視機器によって、前記目標ビデオのフレーム抽出・サンプリングを行なって得られた1グループのビデオフレーム画像を受信し、前記1グループのビデオフレーム画像における画素点の画素値に基づいて、前記1グループのビデオフレーム画像において前記複数の目標ビデオフレーム画像を特定すること、を含んでもよい。
オプションとして、前記第1のサーバは、第1のクラウドサーバを含んでもよい。
オプションとして、前記第2のサーバは、第2のクラウドサーバを含んでもよい。
本願の他の実施例は、ビデオ監視機器が、移動する対象物が目標領域に現れると検出された場合に、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから画像を取得することと、前記ビデオ監視機器が、前記画像に基づいて前記対象物が目標対象物であるか否かを判定するように前記第1のサーバに指示するための前記画像を第1のサーバに送信することと、を含む目標対象物の監視方法を提供する。
オプションとして、移動する対象物が目標領域に現れると検出された場合に、前記方法は、前記ビデオ監視機器が、前記目標ビデオを、前記第1のサーバから送信された第1の要求を受信した場合に、前記第1の要求に応えて前記目標ビデオを前記第1のサーバに送信するための第2のサーバに送信すること、をさらに含んでもよい。
オプションとして、前記ビデオ監視機器が、前記画像を第1のサーバに送信した後、前記方法は、前記ビデオ監視機器が、前記第1のサーバから送信された第2の要求を受信することと、前記ビデオ監視機器が、前記第2の要求に応えて前記目標ビデオを前記第1のサーバに送信することと、をさらに含んでもよい。
オプションとして、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから画像を取得することは、前記ビデオ監視機器が、移動する対象物が目標領域に現れると検出された場合に、前記目標領域に前記対象物が現れてから所定時間毎に、前記ビデオ監視機器で目標領域を撮像したビデオから前記画像に含まれるビデオ画像を、前記対象物が前記目標領域に現れなくなるまで、キャプチャすること、を含み、前記ビデオ監視機器が、前記画像を第1のサーバに送信することは、前記ビデオ監視機器が、キャプチャした前記ビデオ画像を前記第1のサーバにリアルタイムに送信すること、或いは、前記ビデオ監視機器が、キャプチャした全てのビデオ画像を含む画像セットを取得し、前記画像セットを前記第1のサーバに送信すること、を含んでもよい。
オプションとして、移動する対象物が目標領域に現れると検出された場合に、前記方法は、前記ビデオ監視機器が、前記目標領域を撮像したビデオから、前記目標領域に前記対象物が現れてから前記目標領域に前記対象物が現れなくなるまでの第1のビデオを取得することと、前記ビデオ監視機器が、前記目標領域に前記対象物が現れる前の第1の目標時間帯の第2のビデオ、及び、前記目標領域に前記対象物が現れなくなった後の第2の目標時間帯の第3のビデオを取得することと、前記ビデオ監視機器が、前記第2のビデオ、前記第1のビデオ及び前記第3のビデオを前記目標ビデオとして特定することと、をさらに含んでもよい。
本願の他の実施例は、ビデオ監視機器と第1のサーバとを備える目標対象物の監視システムであって、前記ビデオ監視機器が前記第1のサーバに接続され、前記ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから画像を取得し、前記画像を前記第1のサーバに送信するように構成され、前記第1のサーバは、前記画像に基づいて前記対象物が目標対象物であるか否かを判定するように構成されるシステムを提供する。
オプションとして、前記ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、前記目標領域に前記対象物が現れてから所定時間毎に、前記ビデオ監視機器で目標領域を撮像したビデオから前記画像に含まれるビデオ画像を、前記対象物が前記目標領域に現れなくなるまで、キャプチャし、キャプチャした前記ビデオ画像を前記第1のサーバにリアルタイムに送信するか、或いは、キャプチャした全てのビデオ画像を含む画像セットを取得し、前記画像セットを前記第1のサーバに送信するように構成されてもよい。
オプションとして、前記第1のサーバは、受信した各前記ビデオ画像における前記対象物が前記目標対象物であるか否かを認識し、各前記ビデオ画像に対応する認識結果を得て、受信した全ての前記ビデオ画像に対応する認識結果を目標結果となるように統合し、前記目標結果に基づいて、前記対象物が目標対象物であるか否かを判定するように構成されてもよい。
オプションとして、前記第1のサーバは、さらに、前記対象物が前記目標対象物であると判定された場合に、前記目標ビデオを取得し、前記目標ビデオにおいて、前記目標領域における前記目標対象物の移動軌跡を特定し、前記移動軌跡に基づいて、前記目標対象物を排除する方式を提示するための提示情報を生成し、前記目標対象物に対応する、前記目標領域に前記目標対象物が現れたことを示すためのアラート情報を生成し、前記アラート情報には、前記目標ビデオ、前記移動軌跡、前記提示情報の少なくとも一方が含まれているように構成されてもよい。
オプションとして、前記システムは、クライアントをさらに備え、前記第1のサーバが前記クライアントに接続され、前記第1のサーバは、前記アラート情報を前記クライアントに送信するように構成され、前記クライアントは、表示インターフェースに前記アラート情報を表示させるように構成されてもよい。
オプションとして、前記システムは、第2のサーバをさらに備え、前記第2のサーバが前記ビデオ監視機器及び前記第1のサーバに接続され、前記ビデオ監視機器は、さらに、前記ビデオを前記第2のサーバに送信するように構成され、前記第2のサーバは、前記目標ビデオを記憶するように構成され、前記第1のサーバは、前記第2のサーバから前記目標ビデオを取得するように構成されてもよい。
オプションとして、前記第1のサーバは、さらに、前記対象物が前記目標対象物ではないと判定された場合に、前記第2のサーバへ指示情報を送信するように構成され、前記第2のサーバは、前記指示情報に応えて前記目標ビデオを削除するように構成されてもよい。
オプションとして、前記ビデオ監視機器は、さらに、前記目標領域を撮像したビデオから、前記目標領域に前記対象物が現れてから前記目標領域に前記対象物が現れなくなるまでの第1のビデオを取得し、前記目標領域に前記対象物が現れる前の第1の目標時間帯の第2のビデオ、及び、前記目標領域に前記対象物が現れなくなった後の第2の目標時間帯の第3のビデオを取得し、前記第2のビデオ、前記第1のビデオ及び前記第3のビデオを前記目標ビデオとして特定するように構成されてもよい。
本願の他の実施例は、第1のサーバに適用される目標対象物の監視装置であって、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、前記画像は、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから取得した画像であるように構成される受信モジュールと、前記画像に基づいて前記対象物が目標対象物であるか否かを判定するように構成される判定モジュールと、を備える装置を提供する。
本願の他の実施例は、ビデオ監視機器に適用される目標対象物の監視装置であって、移動する対象物が目標領域に現れると検出された場合に、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから画像を取得するように構成される取得モジュールと、前記画像に基づいて前記対象物が目標対象物であるか否かを判定するように前記第1のサーバを指示するための前記画像を第1のサーバに送信するように構成される送信モジュールと、を備える装置を提供する。
本願の更なる実施例は、実行されると、上記いずれかの方法実施例におけるステップを実行するように構成されるコンピュータプログラムが記憶されている記憶媒体をさらに提供する。
本願の更なる実施例は、メモリとプロセッサとを備え、前記メモリには、コンピュータプログラムが記憶され、前記プロセッサは、前記コンピュータプログラムを実行して上記いずれかの方法実施例におけるステップを実行するように構成される電子装置をさらに提供する。
本願によれば、第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、画像は、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得した画像であり、第1のサーバは、画像に基づいて、対象物が目標対象物であるか否かを判定する方式により、第1のサーバは、ビデオ監視機器から取得した画像に基づいて、目標領域に現れた対象物が目標対象物であるか否かを判定し、該画像は、移動する対象物が目標領域に現れるとビデオ監視機器によって検出された場合に、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得したものであり、これにより、ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、対象物が存在する可能性のある画像を第1のサーバへ送信すれば、第1のサーバは、受信した画像に基づいて、目標領域に現れた対象物が目標対象物であるか否かを判定することができ、このように、ビデオによる目標対象物の監視方式に比べると、伝送データのデータ量を大幅に低減することができ、そのうえ、伝送速度を高め、伝送時間を短縮し、監視効率を向上させる。それゆえ、関連技術における、目標対象物を監視する効率が低いという問題を解決することができ、目標対象物を監視する効率を向上させる効果を達成する。
ここに説明される図面は、本発明をさらに理解させるためのものであり、本願の一部を構成し、また、本願における模式的実施例及びその説明は本願を説明するものであり、本願を不当に限定するものではない。図面において、
本願実施例の目標対象物の監視方法のモバイル端末のハードウェアの構造ブロック図である。 本願実施例による目標対象物の監視方法の第1のフローチャートである。 本願実施例による各モジュールがデータ接続される模式図である。 本願実施例によるねずみによる被害の検出システムの原理模式図である。 本願実施例のFaster-RCNNネットワークモデルの模式図である。 本願実施例による目標対象物の監視方法の第2のフローチャートである。 本願実施例による目標対象物の監視装置の第1の構造ブロック図である。 本願実施例による目標対象物の監視装置の第2の構造ブロック図である。 本願実施例による目標対象物の監視システムの構造ブロック図である。 本願の代替な実施例による目標対象物の監視アーキテクチャの模式図である。
以下、図面を参照しつつ実施例を結合して本発明を詳しく説明する。なお、衝突しない限り、本願実施例及び実施例中の構成要件を組み合わせることができる。
なお、本願の明細書及び特許請求の範囲並びに上記図面に言及された「第1」、「第2」等の用語は、類似した対象を区別するためのものであり、特定の順番又は前後順序を説明するためのものではない。
本願実施例1に提供される方法実施例は、モバイル端末、コンピュータ端末又は類似した演算装置にて実行される。モバイル端末にて実行されることを例として、図1は、本願実施例の目標対象物の監視方法のモバイル端末のハードウェア構造ブロック図である。図1に示すように、モバイル端末10は、1つ又は複数(図1には一つのみが示される)のプロセッサ102(プロセッサ102は、マイクロプロセッサMCU又はプログラマブルロジックデバイスFPGA等の処理装置を含みうるが、これに限られない)と、データを記憶するためのメモリ104とを備えることができる。オプションとして、上記モバイル端末は、通信機能のための伝送装置106及び入出力装置108をさらに備えてもよい。図1に示される構造は模式的なものに過ぎず、上記モバイル端末の構造を限定していないことは、当業者が理解することができる。例えば、モバイル端末10は、図1に示されるものよりも多いか少ない構成要素をさらに含むか、或いは、図1に示されるものとは異なる構成を有してもよい。
メモリ104は、コンピュータプログラム、例えば、本願実施例における目標対象物の監視方法に対応するコンピュータプログラムのようなアプリケーションソフトウェアのソフトウェアプログラム及びモジュールを記憶することができる。プロセッサ102は、メモリ104内に記憶されるコンピュータプログラムを実行することで、様々な機能アプリケーション及びデータ処理を実行し、即ち、上述した方法を実現する。メモリ104は、高速ランダムメモリを含むことができ、また、不揮発性メモリ、例えば、1つ又は複数の磁性記憶装置、フラッシュメモリ、又は他の不揮発性ソリッドステートメモリを含むこともできる。一部の例において、メモリ104は、プロセッサ102に対して遠隔配置されたメモリをさらに含んでもよく、これらの遠隔メモリは、ネットワークを介してモバイル端末10に接続されることができる。上記ネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、移動通信網及びそれらの組み合わせを含むが、これに限られない。
伝送装置106は、ネットワークを介してデータの送受信を行うように構成される。上記ネットワークの具体例は、モバイル端末10の通信サプライヤが提供した無線ネットワークを含むことができる。一例において、伝送装置106は、基地局を介して他のネットワーク機器に接続されることでインターネットと通信可能なネットワークアダプター(Network Interface Controller、単にNICという)を含む。一例において、伝送装置106は、無線の方式によりインターネットと通信するように構成される無線周波数(Radio Frequency、単にRF)モジュールであることができる。
本実施例において目標対象物の監視方法を提供する。図2は、本願実施例による目標対象物の監視方法の第1のフローチャートであり、図2に示すように、そのフローは、以下のステップS202〜ステップS204を含む。
ステップS202:第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、画像は、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得した画像である。
ステップS204:第1のサーバは、画像に基づいて、対象物が目標対象物であるか否かを判定する。
オプションとして、本実施例において、目標対象物は、ねずみ、害虫などの有害生物を含んでもよいが、これに限られない。
オプションとして、本実施例において、目標領域は、キッチン、倉庫、工場などを含んでもよいが、これに限られない。
オプションとして、本実施例において、ビデオ監視機器は、カメラ、モニターなどを含んでもよいが、これに限られない。
オプションとして、上記カメラは、赤外線照明機能付きのカメラ、例えば、赤外線微光暗視カメラを含んでもよいが、これに限られない。さらに、このカメラは、移動検知機能、記憶機能、ネットワーキング機能(例えば、ワイヤレス・フィディリティー(WIerless Fidelity、単にWIFIという)ネットワーキング)及び高精細化(例えば、1080pよりも大きい)構成をも含んでもよいが、これに限られない。
オプションとして、本実施例において、ビデオ監視機器は、1つ又は複数のビデオ監視機器を含んでもよいが、これに限られない。
オプションとして、本実施例において、第1のサーバは、第1のクラウドサーバを含んでもよいが、これに限られない。例えば、プライベートクラウドである。
上記ステップを通じて、第1のサーバは、ビデオ監視機器から取得した画像に基づいて、目標領域に現れた対象物が目標対象物であるか否かを判定し、該画像は、移動する対象物が目標領域に現れるとビデオ監視機器によって検出された場合に、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得したものであり、これにより、ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、対象物が存在する可能性のある画像を第1のサーバへ送信すれば、第1のサーバは、受信した画像に基づいて、目標領域に現れた対象物が目標対象物であるか否かを判定することができ、このように、ビデオによる目標対象物の監視方式に比べると、伝送データのデータ量を大幅に低減することができ、そのうえ、伝送速度を高め、伝送時間を短縮し、監視効率を向上させる。それゆえ、関連技術における、目標対象物を監視する効率が低いという問題を解決することができ、目標対象物を監視する効率を向上させる効果を達成する。
オプションとして、第1のサーバは、目標領域に現れた対象物が目標対象物であると判定した場合に、目標ビデオを取得してもよい。目標領域に現れた対象物が目標対象物でなければ、目標ビデオをこれ以上取得しないことにすることで、リソースを節約する。例えば、上記ステップS204の後に、対象物が目標対象物であると判定した場合に、第1のサーバは目標ビデオを取得する。
オプションとして、目標ビデオの記憶位置は、ビデオ監視機器又は第2のサーバを含んでもよいが、これに限られない。例えば、第1のサーバは、下記いずれかの方式で目標ビデオを取得してもよいが、これに限られない。
方式1:第1のサーバは、ビデオ監視機器から目標ビデオを取得する。
方式2:第1のサーバは、第2のサーバから目標ビデオを取得し、目標ビデオは、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって第2のサーバに送信されたものである。
オプションとして、本実施例において、第2のサーバは、第2のクラウドサーバを含んでもよいが、これに限られない。例えば、EZVIZクラウドである。
オプションとして、ビデオ監視機器は、目標ビデオを第2のサーバに送信してもよい。第1のサーバは、画像に基づいて、目標領域に現れた対象物が目標対象物ではないと判定していれば、目標ビデオを削除するように第2のサーバに指示する指示情報を第2のサーバに送信することができ、これにより、記憶空間を節約する。例えば、上記ステップS204の後に、対象物が目標対象物ではないと判定した場合に、第1のサーバは、目標ビデオを削除するように第2のサーバに指示するための指示情報を第2のサーバへ送信する。
オプションとして、第1のサーバは、目標ビデオを取得した後、目標ビデオから目標領域における目標対象物の移動軌跡を解析してもよい。例えば、第1のサーバが目標ビデオを取得した後、第1のサーバは、目標ビデオにおいて、目標領域における目標対象物の移動軌跡を特定する。
オプションとして、第1のサーバは、解析した目標対象物の移動軌跡に基づいて、目標対象物を排除するためのアドバイスを生成して、ユーザに提供してもよい。例えば、第1のサーバが目標ビデオにおいて、目標領域における目標対象物の移動軌跡を特定した後、第1のサーバは、移動軌跡に基づいて、目標対象物を排除する方式を提示するための提示情報を生成する。
オプションとして、第1のサーバは、目標ビデオ、移動軌跡、提示情報が付加されたアラート情報をクライアントへ送信してもよく、これにより、ユーザに目標対象物のアラートを提供するとともに、目標対象物の移動軌跡、目標対象物をどのように排除するかの方式、及び目標対象物の移動過程の再生を参照のためにユーザに提供する。例えば、第1のサーバが移動軌跡に基づいて提示情報を生成した後、第1のサーバは、目標対象物に対応するアラート情報を生成し、アラート情報は、目標領域に目標対象物が現れたことを示すために用いられ、アラート情報には、目標ビデオ、移動軌跡、提示情報の少なくとも一方が含まれており、第1のサーバは、アラート情報をクライアントに送信する。
オプションとして、上記ステップS202の前に、ビデオ監視機器は、第1のサーバに送信する画像を以下の方式で取得してもよいが、これに限られない。ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、対象物が目標領域に現れてから所定時間毎に、ビデオ監視機器で目標領域を撮像したビデオからビデオ画像を、対象物が目標領域に現れなくなるまで、キャプチャし、画像はビデオ画像を含む。そして、ビデオ監視機器は、キャプチャしたビデオ画像を第1のサーバにリアルタイムに送信する。或いは、ビデオ監視機器は、キャプチャした全てのビデオ画像を含む画像セットを取得し、画像セットを第1のサーバに送信する。
オプションとして、ビデオ監視機器から第1のサーバに送信される画像は、複数枚の画像であり、第1のサーバは、各画像を認識し認識結果を得て、これらの認識結果を統合し、最終の目標結果を得るようにしてもよい。例えば、上記ステップS204において、第1のサーバは、受信した各ビデオ画像における対象物が目標対象物であるか否かを認識し、各ビデオ画像に対応する認識結果を得て、そして、第1のサーバは、受信した全てのビデオ画像に対応する認識結果を目標結果となるように統合し、さらに、第1のサーバは、目標結果に基づいて、対象物が目標対象物であるか否かを判定する。
オプションとして、第1のサーバは、ビデオ画像における対象物が目標対象物であるか否かを以下の方式で認識してもよいが、これに限られない。
第1のサーバは、受信した各ビデオ画像に対象物が現れたか否かを判定する。
第1のサーバは、対象物が現れたビデオ画像における対象物が目標対象物であるか否かを認識する。
オプションとして、上記ステップS204において、目標対象物を以下の方式で認識してもよいが、これに限られない。
第1のサーバは、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各目標ビデオフレーム画像の画像特徴を得る。画像は、目標ビデオから取得した複数の目標ビデオフレーム画像を含み、各目標ビデオフレーム画像は、目標領域における対象物を示すために用いられ、画像特徴は、移動する対象物のうち、目標対象物との類似度が第1の閾値を超えた対象物がある目標画像領域を表すために用いられる。
第1のサーバは、各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像における対象物の動き速度及び動き方向を表すための動き特徴を特定する。
第1のサーバは、動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定する。
オプションとして、本実施例において、目標対象物の特定方法をさらに提供してもよい。ビデオ監視機器が撮像機器であり、取得した画像が、目標ビデオから抽出した画像フレームであるとする。上記方法は、以下のステップS1〜ステップS6を含む。
ステップS1:撮像機器で目標領域を撮像したビデオファイルを取得する。
本願の上記ステップS1に提供される技術的構成において、撮像機器は監視カメラであり、例えば、該撮像機器は、目標領域を撮像監視し、ビデオファイルを得るための赤外線微光暗視カメラである。目標領域は、目標建物内の検出される空間領域であり、即ち、目標対象物が現れたか否かを検出するための領域であり、該目標対象物は、防除の必要がある大型のベクトル生物であることができ、例えば、該目標対象物はねずみである。
該実施例のビデオファイルは、目標領域を撮像した生ビデオデータを含み、目標領域の監視ビデオシーケンスを含んでもよく、該監視ビデオシーケンスは、すなわち、画像ビデオシーケンスである。
オプションとして、該実施例では、ビデオデータ収集層においてARMボードによって目標領域の生ビデオデータを取得して、上記ビデオファイルを生成してもよい。これにより、目標領域のビデオを収集する目的を実現する。
ステップS2:ビデオファイルのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得る。
本願の上記ステップS2に提供される技術的構成において、撮像機器で目標領域を撮像したビデオファイルを取得した後、ビデオファイルを前処理し、ビデオデータ処理層においてビデオファイルのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得ることができる。
該実施例において、ビデオファイルに対して等間隔のフレーム抽出・サンプリングを行うことにより、ビデオファイルの1グループのビデオフレーム画像を得ることができる。例えば、ビデオファイルは、100個のビデオフレームシーケンスを含み、フレーム抽出・サンプリングを行った後、10個のビデオフレームシーケンスを得ていれば、この10個のビデオフレームシーケンスを上記1グループのビデオフレーム画像と、これにより、目標対象物を特定するアルゴリズムの演算量を低減する。
ステップS3:1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において複数の目標ビデオフレーム画像を特定する。
本願の上記ステップS3に提供される技術的構成において、ビデオファイルのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得た後、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において複数の目標ビデオフレーム画像を特定し、各目標ビデオフレーム画像は、対応する目標領域内を移動する対象物を示すために用いられる。
該実施例において、ビデオファイルを前処理することは、ビデオファイルの動的検出を行い、1グループのビデオフレーム画像から目標領域内を移動する対象物を示すための目標ビデオフレーム画像、即ち、該目標ビデオフレーム画像における移動する対象物を特定することをさらに含み、該目標ビデオフレーム画像は、移動する対象物のビデオセグメントであることができ、移動する対象物は目標対象物であるかもしれないし、目標対象物ではないかもしれない。該実施例では、動的検出アルゴリズムによって目標ビデオフレーム画像を特定し、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において複数の目標ビデオフレーム画像を特定し、さらにステップS4を実行する。
オプションとして、1グループのビデオフレーム画像のうち、複数の目標ビデオフレーム画像以外のビデオフレーム画像は、移動する画像が対応する目標領域にあることを示していないため、後の検出を行わなくてもよい。
ステップS4:各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各目標ビデオフレーム画像の画像特徴を得る。
本願の上記ステップS4に提供される技術的構成において、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において複数の目標ビデオフレーム画像を特定した後、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各目標ビデオフレーム画像の画像特徴を得る。画像特徴は、各目標ビデオフレーム画像にとって、移動する対象物のうち、目標対象物との類似度が第1の閾値を超えた対象物がある目標画像領域を表すために用いられる。
該実施例において、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、つまり、目標ビデオフレーム画像に存在する動き物体を検出する。目標検出システムで、動的目標検出方法及びニューラルネットワークに基づく目標検出方法を用いて、目標ビデオフレーム画像に存在する動き物体を検出し、各目標ビデオフレーム画像の画像特徴を得ることができる。動的目標検出方法の演算速度が速く、機器の構成に対する要求が低い一方、ニューラルネットワークに基づく目標検出方法の正確性及びロバスト性がより優れている。画像特徴は、目標画像領域を表すための、矩形枠における視覚情報であることができ、該矩形枠は、移動する対象物のうち、認識されるべき目標対象物との類似度が第1の閾値を超えた対象物がある目標画像領域を表すための検出枠であることができる。つまり、上記画像特徴は、粗選別で確認した目標対象物が現れる可能性のある位置を示すために用いられる。
ステップS5:各目標ビデオフレーム画像の画像特徴に基づいて、動き特徴を特定する。
本願の上記ステップS5に提供される技術的構成において、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各目標ビデオフレーム画像の画像特徴を得た後、各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像における移動する対象物の動き速度及び動き方向を表すための動き特徴を特定する。
該実施例において、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各目標ビデオフレーム画像の画像特徴を得た後、各目標ビデオフレーム画像の画像特徴を動き特徴抽出モジュールに入力することができ、該動き特徴抽出モジュールは、各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像にとって、複数の目標ビデオフレーム画像における移動する対象物の動き速度及び動き方向を表すための動き特徴を特定すると同時に、非目標対象物の移動による干渉画像をさらに除去し、例えば、蚊や昆虫の移動等の干渉情報を削除する。
オプションとして、該実施例において、各目標ビデオフレーム画像における移動する対象物の動きは連続するため、動き特徴抽出モジュールの動き特徴抽出アルゴリズムは、まず各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像間の画像特徴の相関性を検出してもよい。相関性が大きい画像特徴に対応する対象物を同一対象物として特定することができ、それぞれの目標ビデオフレーム画像の画像特徴の照合を行い、対象物の一連の動画像を得る。最後に、3次元(3-Dimension、単に3Dという)の特徴抽出ネットワークを用いて動きシーケンスの特徴を抽出することにより、動き特徴を得ることができる。例えば、各目標ビデオフレーム画像の検出枠に基づいて、複数の目標ビデオフレーム画像間の検出枠の相関性を算出し、相関性が大きい検出枠に対応する対象物を同一対象物として特定することができ、各目標ビデオフレーム画像の検出枠の照合を行い、対象物の一連の動画像を得る。最後に、3Dの特徴抽出ネットワークを用いて動きシーケンスの特徴を抽出し、動き特徴を得て、さらに、複数の目標ビデオフレーム画像における移動する対象物の動き速度及び動き方向を特定する。
オプションとして、該実施例では、複数の目標ビデオフレーム画像の画像特徴を統合し、そして特徴抽出を行ってもよい。これにより、単一フレームの目標検出器が誤判断することを防止し、さらに、目標ビデオフレーム画像を精選別して、目標対象物が現れたか否かを正確に判定することを実現する。
ステップS6:動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定する。
本願の上記ステップS6に提供される技術的構成において、各目標ビデオフレーム画像の画像特徴に基づいて、動き特徴を特定した後、動き特徴及び各目標ビデオフレーム画像の画像特徴を統合し、予めトレーニングしておいた分類ネットワークに入力してもよい。該分類ネットワークは、予めデザインしておいた、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定するための分類ネットワークモデルである。さらに、動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定し、例えば、複数の目標ビデオフレーム画像にねずみが現れたか否かを判定する。
オプションとして、該実施例では、複数の目標ビデオフレーム画像に目標対象物がある画像における画像特徴を、フロントエンド表示インターフェースを入力してもよい。該フロントエンド表示インターフェースは、さらに、目標対象物の検出枠及び移動軌跡を表示することができる。
オプションとして、該実施例の分類ネットワークモデルは、非目標対象物のピクチャシーケンスを除去し、目標対象物のピクチャシーケンスを保留することに用いられてもよい。これにより、誤警報確率を下げ、目標対象物の提示情報の正確性を保証する。
上記ステップS1〜ステップS6を通じて、撮像機器で目標領域を撮像したビデオファイルを取得し、ビデオファイルのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得て、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において複数の目標ビデオフレーム画像を特定し、各目標ビデオフレーム画像は、目標領域内を移動する対象物を示すために用いられ、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各目標ビデオフレーム画像の画像特徴を得て、画像特徴は、移動する対象物のうち、目標対象物との類似度が第1の閾値を超えた対象物がある目標画像領域を表すために用いられ、各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像における移動する対象物の動き速度及び動き方向を表すための動き特徴を特定し、動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定する。つまり、目標領域のビデオファイルのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得て、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において目標領域内を移動する対象物を示すための複数の目標ビデオフレーム画像を特定してから、各目標ビデオフレーム画像の画像特徴に基づいて、動き特徴を特定し、さらに、動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを自動的に判定する目的を達成し、目標対象物を特定するための人件費を大幅に低減するだけでなく、目標対象物を特定する正確率を高め、目標対象物を特定する効率が低いという問題を解決し、さらに、ねずみによる被害の検出正確度を向上させる効果を達成する。
代替な実施形態として、ステップS3では、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において複数の目標ビデオフレーム画像を特定することは、1グループのビデオフレーム画像における各画素点の平均画素値を取得することと、1グループのビデオフレーム画像のそれぞれにおける各画素点の画素値と対応する平均画素値との差を取得することと、1グループのビデオフレーム画像のうち差が所定条件を満たすビデオフレーム画像を、目標ビデオフレーム画像として特定することと、を含む。
該実施例において、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において複数の目標ビデオフレーム画像を特定する時に、1グループのビデオフレーム画像における各画素点の画素値を取得し、各画素点の画素値に基づいて平均画素値を算出し、さらに、1グループのビデオフレーム画像における各画素点の画素値と対応する平均画素値との差を取得することができる。
オプションとして、該実施例では、1グループのビデオフレーム画像のそれぞれにおける各画素点の画素値と背景又は各ビデオフレーム画像の前のフレームとの差を取得してもよい。
上記差を取得した後、その差が所定条件を満たすか否かを判断し、1グループのビデオフレーム画像のうち差が所定条件を満たすビデオフレーム画像を、目標ビデオフレーム画像として特定することにより、1グループのビデオフレーム画像における複数の目標ビデオフレーム画像を得る。
代替な実施形態として、1グループのビデオフレーム画像のそれぞれにおける各画素点の画素値と対応する平均画素値との差を取得することは、1グループのビデオフレーム画像のそれぞれにおける各画素点に対して以下の操作を実行することを含む。以下の操作を実行する時に、各ビデオフレーム画像を現在ビデオフレーム画像と見なし、各画素点を現在画素点と見なす。
Figure 2021514548
ただし、(x,y)は、現在ビデオフレーム画像における現在画素点の座標であり、f(x,y)は、現在画素点の画素値を表し、b(x,y)は、現在画素点の平均画素値を表し、D(x,y)は、現在画素点の画素値と対応する平均画素値との差を表す。
該実施例において、1グループのビデオフレーム画像のそれぞれにおける各画素点の画素値と対応する平均画素値との差を取得する時に、各ビデオフレーム画像を現在ビデオフレーム画像と見なし、各画素点を現在画素点と見なし、現在ビデオフレーム画像における現在画素点の座標を(x,y)で表すことができ、例えば、現在ビデオフレーム画像の左上角を原点とし、幅方向をX軸とし、高さ方向をY軸として確立した座標系における画素点の座標であり、現在画素点の画素値をf(x,y)で表し、現在画素点の平均画素値をb(x,y)で表し、現在画素点の画素値と対応する平均画素値との差をD(x,y)で表し、式
Figure 2021514548
に従って現在画素点の画素値と対応する平均画素値との差を算出し、そこで、上記方法によって、1グループのビデオフレーム画像のそれぞれにおける各画素点の画素値と対応する平均画素値との差を取得する目的を達成する。
代替な実施形態として、1グループのビデオフレーム画像のうち差が所定条件を満たすビデオフレーム画像を、目標ビデオフレーム画像として特定することは、1グループのビデオフレーム画像のそれぞれにおける各画素点に対して以下の操作を実行することを含む。以下の操作を実行する時に、各ビデオフレーム画像を現在ビデオフレーム画像と見なし、各画素点を現在画素点と見なす。
Figure 2021514548
ただし、D(x,y)は、現在画素点の画素値と対応する平均画素値との差を表し、Tは、第1の予め設定された閾値である。所定条件は、目標ビデオフレーム画像におけるM(x,y)=1の画素点の数が第2の予め設定された閾値を超えることを含む。
該実施例において、1グループのビデオフレーム画像のうち差が所定条件を満たすビデオフレーム画像を、目標ビデオフレーム画像として特定する時に、各ビデオフレーム画像を現在ビデオフレーム画像と見なし、各画素点を現在画素点と見なし、現在ビデオフレーム画像をM(x,y)で表し、D(x,y)は、現在画素点の画素値と対応する平均画素値との差を表し、第1の予め設定された閾値をTで表し、現在ビデオフレームにおけるM(x,y)=1の画素点の数が第2の予め設定された閾値を超えていれば、現在ビデオフレーム画像を目標ビデオフレーム画像として特定し、つまり、現在ビデオフレーム画像における移動する対象物は、目標ビデオフレーム画像であり、そうでなければ、現在ビデオフレーム画像における移動しない対象物である。
該実施例の1グループのビデオフレーム画像において、複数の目標ビデオフレーム画像で動き目標ビデオフレーム画像を形成し、モルフォロジー演算により画素点を合成することで、全ての動き物体を出力結果として得ることができる。
オプションとして、該実施例では、目標ビデオフレーム画像における移動する対象物の検出は、ニューラルネットワークに基づく目標検出であってもよい。1グループのビデオフレーム画像を、予めトレーニングしておいたネットワークモデルに入力し、全ての移動する対象物及びその信頼度を得て、ある信頼度の閾値を超えた画像特徴を該ネットワークモジュールの出力とすることができる。使用されるネットワークモデルは、単発多目標検出器(Single Shot MultiBox Detector、単にSSDという)、領域ベース畳み込みネットワーク(Faster Region-CNN、単にFaster-RCNNという)、特徴ピラミッドネットワーク(Feature Pyramid Network、単にFPNという)等を含むことができるが、これに限られず、ここでは何ら限定もしない。
代替な実施形態として、ステップS5では、各目標ビデオフレーム画像の画像特徴に基づいて、動き特徴を特定することは、各目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する目標ベクトルを取得し、複数の目標ベクトルを得て、各目標ベクトルは、対応する1つの目標ビデオフレーム画像における移動する対象物が目標画像領域を通る時の動き速度及び動き方向を表すために用いられ、複数の目標ベクトルを、ビデオファイルにおける各目標ビデオフレーム画像の時間順に従って第1の目標ベクトルとして構成し、動き特徴は第1の目標ベクトルを含むこと、或いは、各目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する2次元オプティカルフロー図を取得し、複数の2次元オプティカルフロー図を得て、各2次元オプティカルフロー図は、対応する1つの目標ビデオフレーム画像における移動する対象物が目標画像領域を通る時の動き速度及び動き方向を含み、複数の2次元オプティカルフロー図を、ビデオファイルにおける各目標ビデオフレーム画像の時間順に従って3次元の第2の目標ベクトルとして構成し、動き特徴は3次元の第2の目標ベクトルを含むこと、を含む。
該実施例において、各目標ビデオフレーム画像の画像特徴は、目標画像領域に対応する目標ベクトルを示すために用いられることができ、これにより、複数の目標ビデオフレームと1対1に対応する複数の目標ベクトルを得る。各目標ベクトルは、対応する1つの目標ビデオフレーム画像における移動する対象物が目標画像領域を通る時の動き速度及び動き方向を表すために用いられる。つまり、各目標ビデオフレーム画像における移動する対象物が目標画像領域を通る時の動き速度及び動き方向を、各目標ビデオフレーム画像の画像特徴とすることができる。複数の目標ベクトルを得た後、複数の目標ベクトルを、ビデオファイルにおける各目標ビデオフレーム画像の時間順に従って第1の目標ベクトルとして構成し、ビデオファイルにおける各目標ビデオフレーム画像の時間順を時間軸で表すことができ、さらに、複数の目標ベクトルを時間軸に沿って結合し、第1の目標ベクトルを得ることができ、該第1の目標ベクトルは1次元ベクトルであり、該1次元ベクトルを動き特徴として出力する。
オプションとして、各目標ビデオフレーム画像の画像特徴は目標画像領域を表すために用いられ、各目標画像領域のオプティカルフロー(Optical flow or optic flow)を算出することで、該目標画像領域に対応する2次元オプティカルフロー図を得て、さらに、複数の目標ビデオフレーム画像と1対1に対応する複数の2次元オプティカルフロー図を得るようにしてもよい。オプティカルフローは、観察者の動きに対する観測対象、表面又はエッジの動きを記述するために用いられる。該実施例の各2次元オプティカルフロー図は、対応する1つの目標ビデオフレーム画像における移動する対象物が目標画像領域を通る時の動き速度及び動き方向を含み、つまり、目標ビデオフレーム画像における移動する対象物が目標画像領域を通る時の動き速度及び動き方向は、2次元オプティカルフロー図で表されることができる。複数の2次元オプティカルフロー図を得た後、複数の2次元オプティカルフロー図を、ビデオファイルにおける各目標ビデオフレーム画像の時間順に従って3次元の第2の目標ベクトルとして構成し、ビデオファイルにおける各目標ビデオフレーム画像の時間順を時間軸で表すことができる。複数の2次元オプティカルフロー図を時間軸に沿って結合し、第2の目標ベクトルを得ることができ、該第2の目標ベクトルは3次元ベクトルであり、該3次元ベクトルを動き特徴として出力する。
該実施例では、対応する1つの目標ビデオフレーム画像における移動する対象物が目標画像領域を通る時の動き速度及び動き方向を表すための目標ベクトル、或いは、各目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する2次元オプティカルフロー図によって、動き特徴を特定し、該動き特徴は、1次元ベクトル又は3次元ベクトルであることができる。これにより、各目標ビデオフレーム画像の画像特徴に基づいて、動き特徴を特定する目的を実現し、さらに、動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定し、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを自動的に判定する目的を達成し、目標対象物を特定する正確率を高める。
代替例として、上記移動する対象物の検出(目標検出)と動き特徴の抽出を統合したネットワーク出力特徴マップによって、視覚と動き特徴を含む4次元ベクトルを統合し、該4次元ベクトルは、時間次元、チャンネル次元、長さ次元、高さ次元を含むことができるが、これに限られない。
代替な実施形態として、ステップS6では、動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定することは、動き特徴及び各目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための対象物認識結果を得ることを含む。
該実施例において、動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定する時に、動き特徴及び各目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、対象物認識結果を得ることができる。該ニューラルネットワークモデルは、すなわち、分類ネットワークモデルであり、動きのある目標対象物が存在する画像特徴サンプル、動き特徴サンプル及び目標対象物を示すためのデータに基づいて初期ニューラルネットワークモデルをトレーニングすることができるとともに、ビデオフレーム画像に目標対象物が現れたか否かを判定するためのモデルである。対象物認識結果は、すなわち、分類結果、判別結果であり、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すために用いられる。
代替な実施形態として、動き特徴及び各目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、対象物認識結果を得ることは、各画像特徴に畳み込み層、正規化層及び活性化関数層を含むニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、複数の第1の特徴ベクトルと動き特徴を統合し、第2の特徴ベクトルを得て、第2の特徴ベクトルを全結合層に入力して分類し、第1の分類結果を得て、ニューラルネットワークモデルは、ニューラルネットワーク層構造と全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第1の分類結果を含むこと、或いは、各画像特徴に畳み込み層、正規化及び活性化関数層を含む第1のニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、動き特徴に畳み込み層、正規化層、活性化関数層を含む第2のニューラルネットワーク層構造を通らせ、第2の特徴ベクトルを得て、複数の第1の特徴ベクトルと第2の特徴ベクトルを統合し、第3の特徴ベクトルを得て、第3の特徴ベクトルを全結合層に入力して分類し、第2の分類結果を得て、ニューラルネットワークモデルは、第1のニューラルネットワーク層構造、第2のニューラルネットワーク層構造及び全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第2の分類結果を含むこと、を含む。
該実施例において、ニューラルネットワークモデルの全体構造は、畳み込み層、正規化層、活性化関数層、全結合層に分けられることができ、畳み込み層は、いくつかの畳み込みユニットからなり、各畳み込みユニットのパラメータは、それぞれバックプロパゲーションアルゴリズムの最適化により得られたものである。正規化層は、ニューラルネットワークモデルのトレーニングの過剰適合を防止するために用いられることができ、活性化関数層は非線形性をネットワークに導入することができ、全結合層は、畳み込みニューラルネットワーク全体において分類器として機能する。
該実施例において、動き特徴及び各目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、対象物認識結果を得る時に、各画像特徴に畳み込み層、正規化層及び活性化関数層を含むニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得ることができ、該複数の第1の特徴ベクトルと上記動き特徴を統合することで、第2の特徴ベクトルを得て、動き特徴は1次元動き特徴である。
代替な統合方式として、複数の第1の特徴ベクトルと動き特徴を結合して(或いは、組み合わせて)、第2の特徴ベクトルを得ることができる。
第2の特徴ベクトルを得た後、第2の特徴ベクトルを全結合層に入力して分類し、つまり、全結合層により第2の特徴ベクトルを分類することで、第1の分類結果を得る。該実施例のニューラルネットワークモデルは、上記ニューラルネットワーク層構造及び上記全結合層を含み、第1の分類結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かの対象物認識結果を示すために用いられ、例えば、複数の目標ビデオフレーム画像にねずみが現れたか否かの分類結果である。
オプションとして、上述したような、各画像特徴に畳み込み層、正規化層及び活性化関数層を含むニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、複数の第1の特徴ベクトルと動き特徴を統合し、第2の特徴ベクトルを得て、第2の特徴ベクトルを全結合層に入力して分類し、第1の分類結果を得る方法は、各目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する目標ベクトルを取得し、複数の目標ベクトルを得て、複数の目標ベクトルを、ビデオファイルにおける各目標ビデオフレーム画像の時間順に従って第1の目標ベクトルとして構成した後に実行されてもよい。
オプションとして、動き特徴及び各目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、対象物認識結果を得る時に、各画像特徴に畳み込み層、正規化及び活性化関数層を含む第1のニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、上記動き特徴に畳み込み層、正規化層、活性化関数層を含む第2のニューラルネットワーク層構造を通らせ、第2の特徴ベクトルを得るようにしてもよい。第1の特徴ベクトルを得るとともに第2の特徴ベクトルを得た後、複数の第1の特徴ベクトルと第2の特徴ベクトルを統合し、第3の特徴ベクトルを得る。
代替な統合方式として、複数の第1の特徴ベクトルと第2の特徴ベクトルを結合して(或いは、組み合わせて)、第3の特徴ベクトルを得ることができる。
第3の特徴ベクトルを得た後、第3の特徴ベクトルを全結合層に入力して分類することで、第2の分類結果を得る。該実施例のニューラルネットワークモデルは、第1のニューラルネットワーク層構造、第2のニューラルネットワーク層構造及び全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第2の分類結果を含み、例えば、複数の目標ビデオフレーム画像にねずみが現れたか否かの分類結果である。
オプションとして、上述したような、各画像特徴に畳み込み層、正規化及び活性化関数層を含む第1のニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、動き特徴に畳み込み層、正規化層、活性化関数層を含む第2のニューラルネットワーク層構造を通らせ、第2の特徴ベクトルを得て、複数の第1の特徴ベクトルと第2の特徴ベクトルを統合し、第3の特徴ベクトルを得て、第3の特徴ベクトルを全結合層に入力して分類し、第2の分類結果を得る方法は、各目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する2次元オプティカルフロー図を取得し、複数の2次元オプティカルフロー図を得て、複数の2次元オプティカルフロー図を、ビデオファイルにおける各目標ビデオフレーム画像の時間順に従って3次元の第2の目標ベクトルとして構成した後に実行されてもよい。
他の代替例として、動き特徴及び各目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、対象物認識結果を得ることは、各画像特徴に複数のブロックを順に通らせ、複数の第1の特徴ベクトルを得て、各ブロックにおいて、ブロックの入力に対して畳み込み層における畳み込み操作、正規化層における正規化操作、活性化関数層における活性化操作を順に実行し、複数の第1の特徴ベクトルと動き特徴を結合し、第2の特徴ベクトルを得て、第2の特徴ベクトルを全結合層に入力し、全結合層により出力して第1の分類結果を得て、ニューラルネットワークモデルは複数のブロック及び全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第1の分類結果を含むこと、或いは、各画像特徴に複数の第1のブロックを順に通らせ、複数の第1の特徴ベクトルを得て、各第1のブロックにおいて、第1のブロックの入力に対して畳み込み層における畳み込み操作、正規化層における正規化操作、活性化関数層における活性化操作を順に実行し、動き特徴に複数の第2のブロックを順に通らせ、第2の特徴ベクトルを得て、各第2のブロックにおいて、第2のブロックの入力に対して畳み込み層における畳み込み操作、正規化層における正規化操作、活性化関数層における活性化操作を順に実行し、複数の第1の特徴ベクトルと第2の特徴ベクトルを結合し、第3の特徴ベクトルを得て、第3の特徴ベクトルを全結合層に入力し、全結合層により出力して第2の分類結果を得て、ニューラルネットワークモデルは、複数の第1のブロック、複数の第2のブロック及び全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第2の分類結果を含むこと、を含む。
該実施例において、さらに、ブロックによって各画像特徴を処理することもできる。各画像特徴に複数のブロックを順に通らせ、複数の第1の特徴ベクトルを得て、各ブロックにおいて、ブロックの入力に対して畳み込み層における畳み込み操作、正規化層における正規化操作及び活性化関数層における活性化操作を順に実行することができる。複数の第1の特徴ベクトルを得た後、複数の第1の特徴ベクトルと動き特徴を結合することで、第2の特徴ベクトルを得る。第2の特徴ベクトルを得た後、第2の特徴ベクトルを全結合層に入力して分類し、全結合層により出力して第1の分類結果を得る。該実施例のニューラルネットワークモデルは、複数のブロック及び全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第1の分類結果を含み、例えば、複数の目標ビデオフレーム画像にねずみが現れたか否かの分類結果である。
オプションとして、該実施例では、第1のブロックによって各画像特徴を処理し、各画像特徴に複数の第1のブロックを順に通らせ、複数の第1の特徴ベクトルを得て、各第1のブロックにおいて、第1のブロックの入力に対して畳み込み層における畳み込み操作、正規化層における正規化操作及び活性化関数層における活性化操作を順に実行するようにしてもよい。該実施例では、さらに、第2のブロックによって動き特徴を処理し、動き特徴に複数の第2のブロックを順に通らせ、第2の特徴ベクトルを得て、各第2のブロックにおいて、第2のブロックの入力に対して畳み込み層における畳み込み操作、正規化層における正規化操作及び活性化関数層における活性化操作を順に実行することもできる。複数の第1の特徴ベクトル及び第2の特徴ベクトルを得た後、複数の第1の特徴ベクトル及び第2の特徴ベクトルを結合し、第3の特徴ベクトルを得て、最後に、第3の特徴ベクトルを全結合層に入力して分類し、全結合層により出力して第2の分類結果を得る。該実施例のニューラルネットワークモデルは、複数の第1のブロック、複数の第2のブロック及び全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第2の分類結果を含み、例えば、複数の目標ビデオフレーム画像にねずみが現れたか否かの分類結果である。
代替な実施形態として、ビデオファイルのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得ることは、ビデオファイルにおけるビデオシーケンスに対して等間隔のフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得ることを含む。
該実施例において、ビデオファイルがビデオシーケンスを含み、ビデオファイルのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得る時に、ビデオファイルにおけるビデオシーケンスに対して等間隔のフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得ることができ、これにより、目標対象物を特定するアルゴリズムの演算量を低減し、さらに、複数の目標ビデオフレームに目標対象物が現れたか否かを迅速に判断し、目標対象物を特定する効率を向上させる。
代替な実施形態として、撮像機器で目標領域を撮像したビデオファイルを取得することは、赤外線微光暗視カメラで目標領域を撮像したビデオファイルを取得し、ビデオファイルにおけるビデオフレーム画像は、赤外線微光暗視カメラで撮像した画像であることを含む。
該実施例において、撮像機器はカメラであることができ、例えば、赤外線微光暗視カメラであり、該赤外線微光暗視カメラは赤外線照明機能が付いている。赤外線微光暗視カメラで目標領域を撮像し、ビデオファイルを得て、該ビデオファイルにおけるビデオフレーム画像は、赤外線微光暗視カメラで撮像した画像である。
オプションとして、該実施例の撮像機器は、移動検知機能、ネットワーキング機能(例えば、WIFIネットワーキング)及び高精細化(例えば、1080pよりも大きい)構成をさらに含んでもよいが、これに限られない。
代替な実施形態として、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定した後、該方法は、複数の目標ビデオフレーム画像に目標対象物が現れたと判定された場合に、複数の目標ビデオフレーム画像における目標対象物の位置を特定することと、位置を複数の目標ビデオフレーム画像に表示することと、をさらに含む。
該実施例において、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定した後、複数の目標ビデオフレーム画像に目標対象物が現れたと判定された場合に、複数の目標ビデオフレーム画像における目標対象物の位置をさらに特定し、例えば、複数の目標ビデオフレーム画像におけるねずみの位置を特定することができ、さらに、位置を複数の目標ビデオフレーム画像に表示し、例えば、位置を示すためのアイコン、テキスト等の情報を複数の目標ビデオフレーム画像に表示する。
オプションとして、該実施例では、目標対象物が現れた時間、目標領域における動き領域等の情報を取得し、目標対象物の位置、時間、目標領域における具体的な動き領域、目標領域における動き頻度、移動軌跡等の情報をフロントエンドに出力してもよい。該フロントエンドは、すなわち、表示部材であり、目標対象物が現れた時間、動き領域等の情報を表示インターフェースに表示させることができ、これにより、目標対象物を人が特定することに起因して、目標対象物を特定する効率が低下する問題を回避する。
オプションとして、複数の目標ビデオフレーム画像に目標対象物が現れたと判定された場合に、関連防除作業者が防除策を取るように、目標領域に目標対象物が現れたことを示すための警報情報をフロントエンドに送信してもよい。これにより、目標対象物を防除する効率を向上させる。
代替な実施形態として、目標対象物の特定方法は、ローカルに設けられたサーバによって実行される。
該実施例の目標対象物の特定方法は、ローカルに設けられたサーバによって実行されることができ、クラウドサーバに接続される必要がなく、内部で上記演算及び可視化を実現することができ、演算側がクラウドサーバにあるため、計算リソース面、伝送面の問題が発生し、フレームワーク全体の効率が低下する問題を回避し、これにより、目標対象物を特定する効率を向上させる。
該実施例は、画像認識技術を適用して、画像特徴及び動き特徴を統合し、監視ビデオに目標対象物があるか否かを自動的に検出し、目標対象物の位置決めと追跡を行うことを目的としており、目標対象物の移動軌跡及び各目標領域における動き頻度を生成することができ、全過程はすべてアルゴリズムによって実現され、余計な人件費が発生しない。また、該実施例では、目標捕捉装置を置くことで目標領域における目標対象物を特定する必要がないし、観測のための人手がかかる必要もなく、目標対象物をモニタリングする人件費を大幅に低減するだけでなく、目標対象物を特定する効率を向上させ、さらに、目標対象物の更なる防除作業が容易になる。
さらに、以下、代替な実施例を結合して本願実施例の技術的構成について例を挙げて説明する。具体的には、目標対象物がねずみであることを例として説明する。
本願実施例による他の目標対象物の特定方法である。該方法は、さらに以下のステップを含む。
ステップS1:赤外線微光暗視カメラで撮像したビデオファイルを取得する。
ステップS2:ビデオファイルに動き物体が存在するか否かを判断する。
ステップS3:動き物体が存在すれば、動き物体が存在するビデオセグメントを抽出する。
ステップS4:動き物体が存在するビデオセグメントの画像特徴及び動的特徴を抽出する。
ステップS5:抽出した画像特徴及び動的特徴に基づいて、動き物体がねずみであるか否かを判断する。
ステップS6:判断結果がYESであれば、提示情報を送る。
該実施例では、赤外線微光暗視カメラで撮像したビデオファイルを取得することと、ビデオファイルに動き物体が存在するか否かを判断することと、動き物体が存在すれば、動き物体が存在するビデオセグメントを抽出することと、動き物体が存在するビデオセグメントの画像特徴及び動的特徴を抽出することと、抽出した画像特徴及び動的特徴に基づいて、動き物体がねずみであるか否かを判断することと、判断結果がYESであれば、提示情報を送ることとにより、目標対象物を特定する効率が低いという問題を解決し、さらに、ねずみによる被害の検出正確度を向上させる効果を達成する。
本願実施例の技術的構成は、視覚特徴及び軌跡特徴を統合したねずみによる被害に対するビデオモニタリング方法とすることができ、様々な場面に適用されて、撮像したビデオにねずみが存在するか否かを検出することに用いられることができ、赤外線微光暗視カメラで現在環境のビデオファイルを撮像し、そして、動き物体が存在するか否かを判断し、動き物体が存在すれば、動き物体のビデオセグメントを抽出し特徴認識を行うことで、抽出した動き物体がねずみであるか否かをさらに判断し、ねずみであると判断されていれば、提示情報を送り、提示情報として、画面に文字を表示してもよいし、音声提示情報を送ってもよいし、或いは、点灯又は点滅等、様々なタイプの提示情報を送ってもよい。
なお、本願実施例の技術的構成において、監視カメラとして、赤外線微光暗視カメラを利用し、また、その判断、抽出等の処理過程はローカルサーバにて行われ、データをリモートサーバに送信して処理させる必要がなく、データ伝送量を低減し、モニタリング効率を高めることができる。
オプションとして、提示情報を送った後、ビデオファイルの各フレームのピクチャにおける動き物体の位置を特定し、予め設定されたマーカーを各フレームのピクチャの対応する位置に重ねてフロントエンドインターフェースに表示させるようにしてもよい。
ねずみがある旨の提示を送った後、ビデオファイルの各フレームのピクチャにおけるねずみの位置を特定し、そして、予め設定されたマーカーを各フレームのピクチャの対応する位置に重ねて表示させ、予め設定されたマーカーは、緑色又は赤色の矩形枠であることができ、各フレームのピクチャにおけるねずみの位置を矩形枠でマークし、これにより、ユーザは、ねずみの位置及びよく出る領域をタイムリーにチェックすることが容易になる。
オプションとして、ビデオファイルに動き物体が存在するか否かを判断することは、ビデオファイルにおけるビデオシーケンスに対して等間隔のフレーム抽出・サンプリングを行い、サンプリングビデオフレームを得ることと、動的目標検出アルゴリズム又はニューラルネットワークに基づく目標検出アルゴリズムに基づいて、サンプリングビデオフレーム画像に動き物体があるか否かを判断することと、を含んでもよい。
ビデオファイルに動き物体が存在するか否かを判断する時に、ビデオシーケンスに対して等間隔のフレーム抽出・サンプリングを行うことができ、これにより、アルゴリズムの演算量を低減し、その後、サンプリングビデオフレームに動き物体があるか否かを判断し、判断時に、動的目標検出アルゴリズム又はニューラルネットワークに基づく目標検出アルゴリズムのうちのいずれかを利用することができ、場合によって、両者を混合して使用してもよい。
オプションとして、動的目標検出アルゴリズムによってサンプリングビデオフレーム画像に動き物体があるか否かを判断することは、
Figure 2021514548
によって現在フレームと背景又は前のフレームとの差を算出することと、
Figure 2021514548
によって動き物体が存在するか否かを判断し、(x,y)は、画像の左上角を原点とし、幅方向をX軸とし、高さ方向をY軸として確立した座標系における画素点の座標であり、kは現在フレームのインデックスであり、fは現在フレームを表し、bは背景又は前のフレームを表し、M(x,y)は動き画像であり、Tは閾値であることと、を含んでもよい。
M(x,y)が1であれば、動き目標があることを表し、全てのX(x,y)の画素で動き目標のビデオフレーム画像を形成し、モルフォロジー演算により画素点を合成して全ての動き目標を得ることができる。
オプションとして、抽出した画像特徴及び動的特徴に基づいて、動き物体がねずみであるか否かを判断することは、抽出した画像特徴及び動的特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、モデル判別を行い、モデル出力結果を得ることと、モデル出力結果に基づいて、動き物体がねずみであるか否かを判断することと、を含んでもよい。
予めトレーニングしておいたニューラルネットワークモデルによって、抽出した画像特徴及び動的特徴に対してモデル判別を行うことができ、モデルは、予め数多くのサンプルに基づいてトレーニングしたものであり、数多くのサンプルは、ピクチャ及び該ピクチャにねずみがあるか否かのラベルを含み、場合によって、該ピクチャにおけるねずみの数のラベルをさらに含んでもよく、このようにして、モデルをより正確にすることができる。
本願実施例の技術的構成は、キッチン、レストラン等、ねずみによる被害があるか否かをモニタリングする必要のある応用場面に適用されることができ、ホテル業界学校、実験室、病院等、室内外の環境衛生が要求される場所に使用されることもでき、ねずみによる被害防除作業において、本願実施例の画像認識技術を適用してねずみの検出と追跡を行い、独立した装置を用いて、監視カメラによってローカルにてねずみによる被害の監視を完成し、ハサミ式ねずみ捕り器、かご式ねずみ捕り器を置く必要がないし、観測のための人手がかかる必要もなく、ねずみによる被害のモニタリングを高効率かつ全自動的な流れ作業で完成し、ねずみによる被害をモニタリングするための人件費を大幅に低減するだけでなく、正確率が高く、ねずみによる被害や衛生の規制が容易となり、同時に、軌跡情報を提供し、更なるねずみ駆除作業が容易となる。
本願実施例の技術的構成は、代替な実施形態をさらに提供し、以下、該代替な実施形態を結合して、本願実施例の技術的構成を説明する。
本願実施例は、画像認識技術を適用して、視覚及び画像シーケンス特徴を統合し、監視ビデオにねずみがあるか否かを自動的に検出し、ねずみの位置決めと追跡を行うとともに、ねずみの動き軌跡や経路及び各領域における動き頻度を生成することを目的としており、全過程はすべてアルゴリズムによって実現され、余計な人件費が発生しない。そして、独立した装置であり、クラウドサーバに接続される必要がなく、内部で全ての演算及び可視化を実現することができる。
本願実施例によるねずみによる被害のビデオモニタリング装置は、赤外線微光暗視カメラ、データ処理モジュール及びフロントエンド表示部材といったいくつかの部材に分けられることができ、上記装置の作業時の原理は、以下の通りである。赤外線微光暗視カメラは、シーンビデオシーケンスを収集する役割を担い、データ処理モジュールは、ビデオシーケンスを受信するとともに、ビデオにねずみがあるか否かを検出し、ねずみを検出していれば、ねずみの位置等、一連の情報をフロントエンド表示インターフェースに出力し、フロントエンド表示インターフェースは、ねずみの位置、出る時間、動き領域を表示するとともに、ねずみによる被害の警報を即時に行うことができる。
上記データ処理モジュールは、ビデオ収集モジュール302、ビデオ処理モジュール304及び記憶モジュール306に分けられることができる。図3は、本願実施例による各モジュールのデータ接続の模式図であり、図3に示すように、ビデオ収集モジュール302は、縮小命令セットコンピュータ(Reduced Instruction Set Computer、単にRISCという)マイクロプロセッサ(Advanced RISC Machines、単にARMという)ボード3022によってビデオデータを収集し、ビデオ前処理モジュール3024によって前処理を行い、ビデオ処理モジュール304は、トレーニングしておいたモデルを読み込み、組み込み型グラフィックスプロセッサ(Graphics Processing Unit、単にGPUという)プロセッサ3042にてディープラーニングアルゴリズムに基づいてビデオ処理を行い、ディープラーニングネットワークモデルは、あるセグメント時間にねずみがあると検出していれば、該セグメント及び対応する検出結果を記憶モジュール306に記憶し、記憶モジュール306は、この一連の情報をフロントエンドに出力する。
図4は、本願実施例によるねずみによる被害の検出システムの原理模式図である。図4に示すように、該アルゴリズムは、前処理、目標検出、動き特徴の抽出及び分類ネットワークといったいくつかのモジュールを含み、システムの入力は、生ビデオシーケンスであり、前処理は、フレーム抽出と動的検出の2ステップを含み、まず、生ビデオシーケンスに対して等間隔のフレーム抽出・サンプリングを行い、アルゴリズムの演算量を低減し、その後、目標検出アルゴリズムを用いて目標検出を行い、画像に動き物体があるか否かを判断し、動き物体がなければ、後の検出を行わないが、動き物体があれば、動き物体があるビデオセグメントを後のモジュールに入力する。目標の検出過程において、前処理後のビデオシーケンスのそれぞれのフレームを検出し、ねずみが存在する可能性のある位置にて画像特徴(例えば、該位置に対応する検出枠内の視覚情報)を取得し、動き特徴抽出モジュールによって、各ビデオ画像フレーム間の情報を統合し、特徴抽出を行い、単一フレームの目標検出器が誤判断することを防止し、その後、抽出した動き特徴及び画像特徴を分類ネットワークに入力し、分類ネットワークが、ねずみであるか否かを判別し、ねずみであれば、それぞれのフレームにおけるねずみの位置の矩形検出枠をフロントエンド表示インターフェースに伝送する。
なお、本実施例において、上記目標検出過程は、具体的な機器計算リソースに基づいて、動的目標検出アルゴリズムとニューラルネットワークに基づく目標検出アルゴリズムという2つのアルゴリズムが割り当てられ、前者は、演算速度が速く、機器の構成に対する要求が低く、後者は、正確性及びロバスト性に優れている。
1)動的目標検出アルゴリズムは、背景差分法及びフレーム差分法を含み、下記式(1)により、現在フレームと背景又は前のフレームとの差を算出する。
Figure 2021514548
上記式において、(x,y)は、画像の左上角を原点とし、幅方向をX軸とし、高さ方向をY軸として確立した座標系における画素点の座標であり、kは、現在フレームのインデックスであり、fは、現在フレームを表し、bは、背景又は前のフレームを表す。式(2)により動き目標が存在するか否かを判断する。
Figure 2021514548
M(x,y)は、動き画像であり、Tは閾値であり、M(x,y)が1であれば、動き目標があることを表し、全てのX(x,y)の画素で動き目標のビデオフレーム画像を形成し、モルフォロジー演算により画素点を合成することで、全ての動き目標を得ることができ、該モジュールの出力とする。
2)ニューラルネットワークに基づく目標検出アルゴリズムでは、ピクチャを予めトレーニングしておいたネットワークモデルに入力し、あらゆる可能な目標及びその信頼度を得て、ある信頼度の閾値を超えた検出枠を該モジュールの出力とする。使用されるネットワークモデルは、SSD、Faster-RCNN、FPN等を含むが、これに限られない。図5は、本願実施例のFaster-RCNNネットワークモデルの模式図である。図5に示すように、convは、畳み込み層であり、畳み込みカーネル(行列である)が入力において移動窓を設定し、各入力された移動窓の位置をそれぞれ式(3)に従って行列と点乗積し、その結果Fを該移動窓の位置の特徴として出力する。
Figure 2021514548
RPNは領域のためにネットワークを確立し、一連の候補枠を提案し、関心領域プーリング層(ROI pooling)は、畳み込み層の提案した特徴マップを、RPNで出力した座標に基づく領域においてサイズ(w,h)が一定である矩形枠にマッピングし、全結合層からなる分類器及びバウンディングボックス回帰子に入力し、バウンディングボックス回帰子は、ねずみの存在可能な座標位置を出力し、分類器は、該位置におけるねずみの信頼度を出力する。
上記動き特徴の抽出:物体の動きが連続するため、動き特徴抽出アルゴリズムではまずそれぞれのフレームに基づく検出枠から、フレームとフレーム間の検出枠の相関性を算出し、相関性が大きい検出枠を同一の物体と認め、それぞれのフレームの検出枠を照合し、物体の一連の動画像を得て、最後に、3D特徴抽出ネットワークを用いて動きシーケンスの特徴を抽出する。
上記分類ネットワーク:目標検出枠における視覚情報と動き特徴を統合し、デザインしておいた分類用のネットワークモデルに入力し、ねずみではないピクチャシーケンスを排除し、誤警報確率を下げ、結果をフロントエンド表示インターフェースに入力し、ねずみの検出枠及び軌跡を表示させる。
本願実施例において、フレームワーク全体について、フレームワークのレイアウトコストを節約するように、さらに目標の検出及び分類ネットワークによって検出や認識の目的を達成してもよいが、これに限られない。
本願実施例では、画像認識アルゴリズムを用いて、監視ビデオにおけるねずみを自動的に認識し、ハサミ式ねずみ捕り器、かご式ねずみ捕り器を配置する必要がないし、観測のための人手がかかる必要もなく、ねずみによる被害のモニタリングを高効率で全自動的な流れ作業で完成し、ねずみによる被害をモニタリングするための人件費を大幅に低減するだけでなく、正確率が高く、キッチンにおけるねずみによる被害や衛生への規制が容易となり、同時に、ねずみの動き軌跡をさらに提供することができ、作業者がねずみ駆除工具や配置位置を選択することが容易となり、更なる被害駆除作業が容易となる。
本実施例において他の目標対象物の監視方法をさらに提供する。図6は、本願実施例による目標対象物の監視方法の第2のフローチャートであり、図6に示すように、そのフローは以下のステップを含む。
ステップS602:ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから画像を取得する。
ステップS604:ビデオ監視機器は、画像に基づいて、対象物が目標対象物であるか否かを判定するように第1のサーバに指示するための画像を第1のサーバに送信する。
オプションとして、本実施例において、目標対象物は、ねずみ、害虫などの有害生物を含んでもよいが、これに限られない。
オプションとして、本実施例において、目標領域は、キッチン、倉庫、工場などを含んでもよいが、これに限られない。
オプションとして、本実施例において、ビデオ監視機器は、カメラ、モニターなどを含んでもよいが、これに限られない。
オプションとして、本実施例において、ビデオ監視機器は、1つ又は複数のビデオ監視機器を含んでもよいが、これに限られない。
オプションとして、本実施例において、第1のサーバは、第1のクラウドサーバを含んでもよいが、これに限られない。例えば、プライベートクラウドである。
上記ステップを通じて、第1のサーバは、ビデオ監視機器から取得した画像に基づいて、目標領域に現れた対象物が目標対象物であるか否かを判定し、該画像は、移動する対象物が目標領域に現れるとビデオ監視機器によって検出された場合に、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得したものであり、これにより、ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、対象物が存在する可能性のある画像を第1のサーバへ送信すれば、第1のサーバは、受信した画像に基づいて、目標領域に現れた対象物が目標対象物であるか否かを判定することができ、このように、ビデオによる目標対象物の監視方式に比べると、伝送データのデータ量を大幅に低減することができ、そのうえ、伝送速度を高め、伝送時間を短縮し、監視効率を向上させる。それゆえ、関連技術における、目標対象物を監視する効率が低いという問題を解決することができ、目標対象物を監視する効率を向上させる効果を達成する。
オプションとして、移動する対象物が目標領域に現れると検出された場合に、ビデオ監視機器は、目標ビデオを、第1のサーバから送信された第1の要求を受信した場合に、第1の要求に応えて目標ビデオを第1のサーバに送信する第2のサーバに送信してもよい。
オプションとして、上記ステップS604の後、ビデオ監視機器は、第1のサーバから送信された第2の要求を受信し、ビデオ監視機器は、第2の要求に応えて目標ビデオを第1のサーバに送信してもよい。
オプションとして、上記ステップS602において、ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、目標領域に対象物が現れてから所定時間毎に、ビデオ監視機器で目標領域を撮像したビデオからビデオ画像を、対象物が目標領域に現れなくなるまで、キャプチャし、画像はビデオ画像を含む。ビデオ監視機器が画像を第1のサーバに送信することは、ビデオ監視機器が、キャプチャしたビデオ画像をリアルタイムに第1のサーバに送信すること、或いは、ビデオ監視機器が、キャプチャした全てのビデオ画像を含む画像セットを取得し、画像セットを第1のサーバに送信すること、を含む。
オプションとして、移動する対象物が目標領域に現れると検出された場合に、ビデオ監視機器は、目標領域を撮像したビデオから、目標領域に対象物が現れてから目標領域に対象物が現れなくなるまでの第1のビデオを取得し、ビデオ監視機器は、目標領域に対象物が現れる前の第1の目標時間帯の第2のビデオ、及び、目標領域に対象物が現れなくなった後の第2の目標時間帯の第3のビデオを取得し、ビデオ監視機器は、第2のビデオ、第1のビデオ及び第3のビデオを目標ビデオとして特定するようにしてもよい。
以上の実施形態で説明したように、上記実施例による方法は、ソフトウェア及び必要な汎用ハードウェアフラップフォームを介して実現されることができ、もちろんハードウェアによって実現されることもできるが、多くの場合、前者がより適切な実施形態であることは、当業者にとって明らかである。このような理解に基づいて、本願の技術的構成は、本質上、或いは、関連技術に貢献する部分が、ソフトウェア製品の形で体現されることができ、このコンピュータソフトウェア製品は、記憶媒体(例えば、ROM/RAM、磁気ディスク、光ディスク)に記憶され、端末機器(携帯電話、コンピュータ、サーバ、又はネットワークデバイス等であってもよい)に本願の各実施例の方法を実行させるための若干の命令を含む。
本実施例において、第1のサーバに適用される目標対象物の監視装置をさらに提供し、該装置は、上記実施例及び代替な実施形態を実現するものであって、既に説明したものは省略される。以下で使用する用語である「モジュール」とは、所定の機能を実現可能なソフトウェア及び/又はハードウェアの組み合わせである。以下の実施例に説明する装置をソフトウェアで実現することが好ましいが、ハードウェア又はソフトウェアとハードウェアとの組み合わせにより実現することも可能であり、構想されている。
図7は、本願実施例による目標対象物の監視装置の第1の構造ブロック図である。図7に示すように、該装置は、
移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、画像は、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得した画像であるように構成される受信モジュール72と、
画像に基づいて、対象物が目標対象物であるか否かを判定するように構成される判定モジュール74と、を備える。
オプションとして、本実施例において、目標対象物は、ねずみ、害虫などの有害生物を含んでもよいが、これに限られない。
オプションとして、本実施例において、目標領域は、キッチン、倉庫、工場などを含んでもよいが、これに限られない。
オプションとして、本実施例において、ビデオ監視機器は、カメラ、モニターなどを含んでもよいが、これに限られない。
オプションとして、上記カメラは、赤外線照明機能付きのカメラ、例えば、赤外線微光暗視カメラを含んでもよいが、これに限られない。さらに、該カメラは、移動検知機能、記憶機能、ネットワーキング機能(例えば、wifiネットワーキング)及び高精細化(例えば、1080pよりも大きい)構成を含んでもよいが、これに限られない。
オプションとして、本実施例において、ビデオ監視機器は、1つ又は複数のビデオ監視機器を含んでもよいが、これに限られない。
オプションとして、本実施例において、第1のサーバは、第1のクラウドサーバを含んでもよいが、これに限られない。例えば、プライベートクラウドである。
オプションとして、上記装置は、さらに、対象物が目標対象物であると判定した場合に、目標ビデオを取得するように構成されてもよい。
オプションとして、上記装置は、さらに、ビデオ監視機器から目標ビデオを取得するか、或いは、第2のサーバから、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって第2のサーバに送信された目標ビデオを取得するように構成されてもよい。
オプションとして、上記装置は、さらに、対象物が目標対象物ではないと判定した場合に、目標ビデオを削除するように第2のサーバに指示するための指示情報を第2のサーバへ送信するように構成されてもよい。
オプションとして、上記装置は、さらに、目標ビデオにおいて、目標領域における目標対象物の移動軌跡を特定するように構成されてもよい。
オプションとして、上記装置は、さらに、移動軌跡に基づいて、目標対象物を排除する方式を提示するための提示情報を生成するように構成されてもよい。
オプションとして、上記装置は、さらに、目標対象物に対応する、目標領域に目標対象物が現れたことを示すためのアラート情報を生成し、アラート情報には、目標ビデオ、移動軌跡、提示情報の少なくとも一方が含まれており、アラート情報をクライアントに送信するように構成されてもよい。
オプションとして、判定モジュールは、受信した各ビデオ画像における対象物が目標対象物であるか否かを認識し、各ビデオ画像に対応する認識結果を得て、受信した全てのビデオ画像に対応する認識結果を目標結果となるように統合し、目標結果に基づいて、対象物が目標対象物であるか否かを判定するように構成されてもよい。
オプションとして、判定モジュールは、さらに、受信した各ビデオ画像に対象物が現れたか否かを判定し、対象物が現れたビデオ画像における対象物が目標対象物であるか否かを認識するように構成されてもよい。
オプションとして、判定モジュールは、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各目標ビデオフレーム画像の画像特徴を得て、画像は、目標ビデオから取得した複数の目標ビデオフレーム画像を含み、各目標ビデオフレーム画像は、目標領域における対象物を示すために用いられ、画像特徴は、対象物のうち、目標対象物との類似度が第1の閾値を超えた対象物がある目標画像領域を表すために用いられ、各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像における対象物の動き速度及び動き方向を表すための動き特徴を特定し、動き特徴及び各目標ビデオフレーム画像の画像特徴に基づいて、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを判定するように構成されてもよい。
オプションとして、判定モジュールは、各目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する目標ベクトルを取得し、それぞれ、対応する1つの目標ビデオフレーム画像における対象物が目標画像領域を通る時の動き速度及び動き方向を表すための複数の目標ベクトルを得て、複数の目標ベクトルをビデオファイルにおける各目標ビデオフレーム画像の時間順に従って第1の目標ベクトルとして構成し、動き特徴は第1の目標ベクトルを含み、或いは、各目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する2次元オプティカルフロー図を取得し、それぞれ、対応する1つの目標ビデオフレーム画像における対象物が目標画像領域を通る時の動き速度及び動き方向を含む複数の2次元オプティカルフロー図を得て、複数の2次元オプティカルフロー図を、ビデオファイルにおける各目標ビデオフレーム画像の時間順に従って3次元の第2の目標ベクトルとして構成し、動き特徴は3次元の第2の目標ベクトルを含むように構成されてもよい。
オプションとして、判定モジュールは、動き特徴及び各目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための対象物認識結果を得るように構成されてもよい。
オプションとして、判定モジュールは、各画像特徴に畳み込み層、正規化層及び活性化関数層を含むニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、複数の第1の特徴ベクトルと動き特徴を統合し、第2の特徴ベクトルを得て、第2の特徴ベクトルを全結合層に入力して分類し、第1の分類結果を得て、ニューラルネットワークモデルは、ニューラルネットワーク層構造と全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第1の分類結果を含み、或いは、各画像特徴に畳み込み層、正規化及び活性化関数層を含む第1のニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、動き特徴に畳み込み層、正規化層、活性化関数層を含む第2のニューラルネットワーク層構造を通らせ、第2の特徴ベクトルを得て、複数の第1の特徴ベクトルと第2の特徴ベクトルを統合し、第3の特徴ベクトルを得て、第3の特徴ベクトルを全結合層に入力して分類し、第2の分類結果を得て、ニューラルネットワークモデルは、第1のニューラルネットワーク層構造、第2のニューラルネットワーク層構造及び全結合層を含み、対象物認識結果は、複数の目標ビデオフレーム画像に目標対象物が現れたか否かを表すための第2の分類結果を含むように構成されてもよい。
オプションとして、受信モジュールは、ビデオ監視機器から送信された複数の目標ビデオフレーム画像を受信し、複数の目標ビデオフレーム画像は、通過ビデオ監視機器対目標ビデオのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得て、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において特定したものであり、或いは、
ビデオ監視機器から送信された1グループのビデオフレーム画像を受信し、1グループのビデオフレーム画像は、ビデオ監視機器によって目標ビデオのフレーム抽出・サンプリングを行ったものであり、1グループのビデオフレーム画像における画素点の画素値に基づいて、1グループのビデオフレーム画像において複数の目標ビデオフレーム画像を特定するように構成されてもよい。
本実施例において、ビデオ監視機器に適用される他の目標対象物の監視装置をさらに提供し、該装置は、上記実施例及び代替な実施形態を実現するものであって、既に説明したものは省略される。以下で使用する用語である「モジュール」とは、所定の機能を実現可能なソフトウェア及び/又はハードウェアの組み合わせである。以下の実施例に説明する装置をソフトウェアで実現することが好ましいが、ハードウェア又はソフトウェアとハードウェアとの組み合わせにより実現することも可能であり、構想されている。
図8は、本願実施例による目標対象物の監視装置の第2の構造ブロック図である。図8に示すように、該装置は、
移動する対象物が目標領域に現れると検出された場合に、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから画像を取得するように構成される取得モジュール82と、
画像に基づいて、対象物が目標対象物であるか否かを判定するように第1のサーバに指示するための画像を第1のサーバに送信するように構成される送信モジュール84と、を備える。
オプションとして、上記装置は、さらに、移動する対象物が目標領域に現れると検出された場合に、目標ビデオを、第1のサーバから送信された第1の要求を受信した場合に、第1の要求に応えて目標ビデオを第1のサーバに送信するように構成される第2のサーバに送信するように構成されてもよい。
オプションとして、上記装置は、さらに、第1のサーバから送信された第2の要求を受信し、第2の要求に応えて目標ビデオを第1のサーバに送信するように構成されてもよい。
オプションとして、取得モジュールは、移動する対象物が目標領域に現れるとビデオ監視機器によって検出された場合に、目標領域に対象物が現れてから所定時間毎に、ビデオ監視機器で目標領域を撮像したビデオからビデオ画像を、対象物が目標領域に現れなくなるまで、キャプチャし、画像はビデオ画像を含むように構成されてもよい。
送信モジュールは、ビデオ監視機器によって、キャプチャしたビデオ画像を第1のサーバにリアルタイムに送信し、或いは、ビデオ監視機器によって、キャプチャした全てのビデオ画像を含む画像セットを取得し、画像セットを第1のサーバに送信するように構成されてもよい。
オプションとして、上記装置は、さらに、移動する対象物が目標領域に現れると検出された場合に、目標領域を撮像したビデオから、目標領域に対象物が現れてから目標領域に対象物が現れなくなるまでの第1のビデオを取得し、目標領域に対象物が現れる前の第1の目標時間帯の第2のビデオ、及び、目標領域に対象物が現れなくなった後の第2の目標時間帯の第3のビデオを取得し、第2のビデオ、第1のビデオ及び第3のビデオを目標ビデオとして特定するように構成されてもよい。
なお、上記各モジュールはソフトウェア又はハードウェアによって実現されることができ、後者の場合、以下の方式で実現されることができるが、これに限定られない。上記モジュールは、すべて同一のプロセッサに位置するか、或いは、上記各モジュールは、任意に組み合わせる形でそれぞれ異なるプロセッサに位置する。
本実施例において、目標対象物の監視システムをさらに提供する。図9は、本願実施例による目標対象物の監視システムの構造ブロック図である。図9に示すように、該システムは、ビデオ監視機器92と、第1のサーバ94とを備える。
ビデオ監視機器92は、第1のサーバ94に接続される。
ビデオ監視機器92は、移動する対象物が目標領域に現れると検出された場合に、目標領域を撮像したビデオのうち対象物が現れた目標ビデオから画像を取得し、画像を第1のサーバ94に送信するように構成される。
第1のサーバ94は、画像に基づいて、対象物が目標対象物であるか否かを判定するように構成される。
オプションとして、ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、目標領域に対象物が現れてから所定時間毎に、ビデオ監視機器で目標領域を撮像したビデオからビデオ画像を、対象物が目標領域に現れなくなるまで、キャプチャし、画像はビデオ画像を含み、キャプチャしたビデオ画像リアルタイムに第1のサーバに送信し、或いは、キャプチャした全てのビデオ画像を含む画像セットを取得し、画像セットを第1のサーバに送信するように構成されてもよい。
オプションとして、第1のサーバは、受信した各ビデオ画像における対象物が目標対象物であるか否かを認識し、各ビデオ画像に対応する認識結果を得て、受信した全てのビデオ画像に対応する認識結果を目標結果となるように統合し、目標結果に基づいて、対象物が目標対象物であるか否かを判定するように構成されてもよい。
オプションとして、第1のサーバは、さらに、対象物が目標対象物であると判定した場合に、目標ビデオを取得し、目標ビデオにおいて、目標領域における目標対象物の移動軌跡を特定し、移動軌跡に基づいて、目標対象物を排除する方式を提示するための提示情報を生成し、目標対象物に対応する、目標領域に目標対象物が現れたことを示すためのアラート情報を生成し、アラート情報には、目標ビデオ、移動軌跡、提示情報の少なくとも一方が含まれるように構成されてもよい。
オプションとして、上記システムは、クライアントをさらに備え、第1のサーバがクライアントに接続され、第1のサーバは、アラート情報をクライアントに送信するように構成され、クライアントは、表示インターフェースにアラート情報を表示させるように構成されてもよい。
オプションとして、上記システムは、第2のサーバをさらに備え、第2のサーバがビデオ監視機器及び第1のサーバに接続され、ビデオ監視機器は、さらに、ビデオを第2のサーバに送信するように構成され、第2のサーバは、目標ビデオを記憶するように構成され、第1のサーバは、第2のサーバから目標ビデオを取得するように構成されてもよい。
オプションとして、第1のサーバは、さらに、対象物が目標対象物ではないと判定した場合に、指示情報を第2のサーバへ送信するように構成され、第2のサーバは、指示情報に応えて目標ビデオを削除するように構成されてもよい。
オプションとして、ビデオ監視機器は、さらに、目標領域を撮像したビデオから、目標領域に対象物が現れてから目標領域に対象物が現れなくなるまでの第1のビデオを取得し、目標領域に対象物が現れる前の第1の目標時間帯の第2のビデオ、及び、目標領域に対象物が現れなくなった後の第2の目標時間帯の第3のビデオを取得し、第2のビデオ、第1のビデオ及び第3のビデオを目標ビデオとして特定するように構成されてもよい。
以下、本願の代替な実施例を結合して詳しく説明する。
本願の代替な実施例は、目標対象物の監視アーキテクチャを提供する。図10は、本願の代替な実施例による目標対象物の監視アーキテクチャの模式図である。図10に示すように、内外部環境及び有害生物の動き情報を監視するシステムアーキテクチャを提供する。該システムは、迅速に配置されることができる特徴を有し、顧客サイトにサーバを配置する必要がなく、ビデオ監視機器でデータを収集するとともに、データアップロードのための無線ネットワーク環境を配置すればよく、全ての後続計算分析はクラウド側にて完成され、システムのハードウェアコスト、システム配置の複雑さを大幅に低減するとともに、虫類やねずみによる被害のリアルタイムな警報、ビデオ再生、パス分析、ねずみ昆虫駆除助言等の機能を見事に遂げることができる。本システムは、さらに、虫類やねずみによる被害のモニタリングと虫類やねずみによる被害の防除とを組み合わせて、良性な閉ループを形成し、実際の虫類やねずみによる被害防除作業を全体として援助する役割を担う。
該システムは、データ収集部分、データ分析部分、即時アラート部分、ビデオ再生部分、パス分析部分およびアプリケーション(Application、単にAPPという)表示部分を含む。
データ収集部分は、ビデオ及びピクチャセットを収集し、キッチン等の場所で、視界が良い適切な位置を選択し、ビデオ監視機器を配置し、虫類、ねずみ族の出没状況を観察するためのキッチン主要施設のビデオデータを取得する。室内環境は、実際の状況に応じて、複数グループの監視機器を配置してもよい。ねずみが夜間で出没する特徴を考慮し、ビデオ監視機器は赤外暗視機能を持つ必要がある。
ビデオ監視機器は、移動検知方式を用いて、撮像された画面内容に少しでも変化が生じた場合(例えば、ねずみが現れたり、ゴキブリが現れたり、異物が飛んできたりする場合)、該周期内のビデオをSDカードに書き込み(ビデオで完全たる動作を録画できるように、一般的には、ビデオの録画を5秒間予め開始し、遅延するようにする)、ビデオデータをビデオクラウドサーバ(即ち、EZVIZクラウドであり、他のパブリッククラウドであってもよい)に即時アップロードする。ビデオ監視機器は、中断点再開送信機能を持っており、ネットワーク環境が不安定な場合でも、ビデオを後でビデオクラウドサーバに完全にアップロードすることを保証できる。ビデオクラウドサーバは、ビデオデータを一時的に保存するように構成され、後でピクチャの画像認識分析を行うことにより、確かに虫類やねずみによる被害があると確認した場合に、これを呼び出して再生し、さらに分析することに用いる。
撮像された画面内容に少しでも変化が生じた場合、ビデオ監視機器は、ビデオを保存しアップロードすると同時に、500ミリ秒(ms)毎に1枚のピクチャを保存し、画像認識のために、ピクチャをプライベートクラウドサーバにリアルタイムにアップロードする。
プライベートクラウドサーバがピクチャを受け取った後、ピクチャの画像認識を即時に完成し、人工知能(Artificial Intelligence、単にAIという)技術により、画像に目標有害生物、例えば、ねずみ、ゴキブリ等があるか否か、或いは、ただ異物が飛んできたような非虫害攻撃シーンに過ぎないことを判断する。即ち、データ分析部分に入る。
データ分析部分は、プライベートクラウドにより画像認識を行い、ビデオ監視機器から返した画像に対して画像認識アルゴリズムを適用し、ねずみ、ゴキブリ等の虫類やねずみによる被害を認識する。真であると認識された場合、この時刻でねずみによる被害、虫害を発見したと認められ、ビデオクラウドサーバへ要求を送信し、更なる分析のために該時間帯における虫類やねずみによる被害が出没するビデオデータを呼び出す(サーバが連続するピクチャセットを受信し終わり、かつ虫害が侵入していると判断した場合、全時間帯のビデオをリアルタイムに要求する)。偽であると認識された場合、この時刻の動的認識が虫類やねずみによる被害に関係なしと認められ、更なる処理を行わない。
オプションとして、判別の正確率を高めるために、人工再確認を導入してもよい。これにより、毎回検出されたのは、確かにねずみ、ゴキブリ等が出没するものであることを確認し、虫類やねずみによる被害への判別の正確率を高める。
即時アラート部分は、緊急のねずみ駆除に用いられ、ピクチャセットの認識により、ねずみの出没を検出した時に、クラウドサービス側がユーザ端末へ警報情報を送信し、措置を取るようにレストラン運営者、虫害防除作業者に指示する。また、画像再生を提供し、ねずみ、ゴキブリ等、認識された有害生物をメークすることで、作業者がその現れた位置及び危害を初期判断し、適時な制御措置を取ることが容易となる。
緊急のねずみ駆除シーンは、コンピューター室、病院等、ねずみによる被害が許可されない場所の監視に適し、人がこれを常に監視しなければならない。ねずみを発見した後すぐに措置を取るように関係者に指示し、システムは、ピクチャ及びビデオ再生を、ねずみ駆除や参考のためにタイムリーに提供する役割を担う。
オプションとして、警報情報は、ショートメッセージ、プッシュ情報等の方式で送信されてもよい。
ビデオ再生部分では、ビデオクラウドサーバが、要求されるビデオデータを返し、プライベートクラウドにダウンロードした後、ユーザ端末がビデオ再生データにアクセスすることができる。ビデオのダウンロード速度は、ネットワークがスムーズか否かによって決められ、ピクチャをリアルタイムに見せる場合よりやや遅れるが、一般的には、ねずみが発生した後数分間以内にビデオ再生データを取得することができる。
パス分析部分は、ビデオデータをさらに分析することで、ねずみ、ゴキブリ等の有害生物の移動パスを抽出し、ねずみ出没時の侵入箇所、隠れ箇所、進行経路、動き時間長、皮膚の色等の情報をマークすることで、ねずみ駆除、虫類駆除のための更なるソリューションを作成し、ユーザ端末に表示させる。
ねずみパスの表示は、句読点で表されることができ、一連の数字を小さい順に線分に表すことで、ねずみ又はゴキブリの進行方向を表す。
APP表示部分は、ねずみ駆除、虫類駆除助言を表示することができ、通常の虫類やねずみによる被害防除に用いられ、各接触箇所で収集された虫類やねずみによる被害情報をまとめ、虫類やねずみによる被害が出没する履歴パスによって、所在場所におけるねずみ捕り粘着シート、ゴキブリ捕獲器等の器具の配置に適する位置を結合して、配置位置の助言を提供する。
APPによってレストラン運営者及び虫害防除作業者に見せ、日ごとに自動的にレポートし、ウィーチャットの公式アカウント、ショートメッセージ等の選択可能な方式によって、レストラン運営者又は関係者にプッシュする。
見せるためのデータの次元は、前日/夕方の虫類やねずみによる被害が活発になる時間長、虫害種類、捕獲数等をさらに含んでもよい。
本願実施例は、記憶媒体をさらに提供し、該記憶媒体には、上記いずれかの方法実施例におけるステップを実行するように構成されるコンピュータプログラムが記憶されている。
オプションとして、本実施例において、上記記憶媒体は、以下のステップを実行するためのコンピュータプログラムを記憶するように構成されてもよい。
S1:第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、画像は、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得した画像である。
S2:第1のサーバは、画像に基づいて、対象物が目標対象物であるか否かを判定する。
オプションとして、本実施例において、上記記憶媒体は、USBフラッシュディスク、リードオンリーメモリ(Read-Only Memory、単にROMという)、ランダムアクセスメモリ(Random Access Memory、単にRAMという)、ポータブルハードディスク、磁気ディスク又は光ディスク等、コンピュータプログラムを記憶可能な様々な媒体をを含んでもよいが、これに限られない。
本願実施例は、電子装置をさらに提供し、メモリとプロセッサとを備え、該メモリにはコンピュータプログラムが記憶され、該プロセッサは、コンピュータプログラムを実行して上記いずれかの方法実施例におけるステップを実行するように構成される。
オプションとして、上記電子装置は、上記プロセッサに接続される伝送装置と、上記プロセッサに接続される入出力装置と、をさらに備えてもよい。
オプションとして、本実施例において、上記プロセッサは、コンピュータプログラムによって以下のステップを実行するように構成されてもよい。
S1:第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、画像は、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得した画像である。
S2:第1のサーバは、画像に基づいて、対象物が目標対象物であるか否かを判定する。
オプションとして、本実施例における具体例は、上記実施例及び代替な実施形態に説明された例を参照してもよいが、本実施例では、その詳細な説明を省略する。
当業者にとって、上述した本願の各モジュール又は各ステップは汎用の計算装置によって実現することができ、単独の計算装置に集成させることができれば、複数の計算装置から構成されるネットワークに分布させることもできる。オプションとして、計算装置で実行可能なプログラムのコードによって実現されてもよい。このため、それらを記憶装置に格納して計算装置によって実行することができ、そして場合によって、示した又は説明したステップを上述と異なる手順で実行することができ、それぞれ集積回路モジュールに製作したり、それらのうち複数のモジュール又はステップを単独の集積回路モジュールに製作したりして実現することができることは、明らかなことである。このように、本願は、如何なる特定のハードウェアとソフトウェアの結合に限定されない。
以上は、本願の好適な実施例に過ぎず、本願を限定することは意図していない。当業者であれば、本願に様々な変更や変形が可能である。本願の原則内の如何なる修正、均等の置き換え、改良なども、本願の保護範囲内に含まれるべきである。
以上の説明から分かるように、本願では、第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、画像は、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得した画像であり、第1のサーバは、画像に基づいて、対象物が目標対象物であるか否かを判定する方式により、第1のサーバは、ビデオ監視機器から取得した画像に基づいて、目標領域に現れた対象物が目標対象物であるか否かを判定し、該画像は、移動する対象物が目標領域に現れるとビデオ監視機器によって検出された場合に、ビデオ監視機器で目標領域を撮像したビデオのうち対象物が現れた目標ビデオから取得したものであり、これにより、ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、対象物が存在する可能性のある画像を第1のサーバへ送信すれば、第1のサーバは、受信した画像に基づいて、目標領域に現れた対象物が目標対象物であるか否かを判定することができ、このように、ビデオによる目標対象物の監視方式に比べると、伝送データのデータ量を大幅に低減することができ、そのうえ、伝送速度を高め、伝送時間を短縮し、監視効率を向上させる。それゆえ、関連技術における、目標対象物を監視する効率が低いという問題を解決することができ、目標対象物を監視する効率を向上させる効果を達成する。

Claims (34)

  1. 第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、前記画像は、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから取得した画像であることと、
    前記第1のサーバが、前記画像に基づいて前記対象物が目標対象物であるか否かを判定することと、
    を含む目標対象物の監視方法。
  2. 前記第1のサーバが、前記画像に基づいて前記対象物が目標対象物であるか否かを判定した後、
    前記対象物が前記目標対象物であると判定された場合に、前記第1のサーバが、前記目標ビデオを取得すること、をさらに含む、請求項1に記載の方法。
  3. 前記第1のサーバが、前記目標ビデオを取得することは、
    前記第1のサーバが、前記ビデオ監視機器から前記目標ビデオを取得すること、或いは、
    前記第1のサーバが、第2のサーバから前記目標ビデオを取得すること、を含み、
    前記目標ビデオは、移動する対象物が目標領域に現れると検出された場合に前記ビデオ監視機器によって前記第2のサーバに送信されたものである、請求項2に記載の方法。
  4. 前記第1のサーバが、前記画像に基づいて前記対象物が目標対象物であるか否かを判定した後、
    前記対象物が前記目標対象物ではないと判定された場合に、前記第1のサーバが、前記目標ビデオを削除するように前記第2のサーバに指示するための指示情報を前記第2のサーバへ送信すること、をさらに含む、請求項3に記載の方法。
  5. 前記第1のサーバが、前記目標ビデオを取得した後、
    前記第1のサーバが、前記目標ビデオにおいて、前記目標領域における前記目標対象物の移動軌跡を特定すること、をさらに含む、請求項2に記載の方法。
  6. 前記第1のサーバが、前記目標ビデオにおいて、前記目標領域における前記目標対象物の移動軌跡を特定した後、
    前記第1のサーバが、前記移動軌跡に基づいて、前記目標対象物を排除する方式を提示するための提示情報を生成すること、をさらに含む、請求項5に記載の方法。
  7. 前記第1のサーバが、前記移動軌跡に基づいて、提示情報を生成した後、
    前記第1のサーバが、前記目標対象物に対応する、前記目標領域に前記目標対象物が現れたことを示すためのアラート情報を生成し、前記アラート情報には、前記目標ビデオ、前記移動軌跡、前記提示情報の少なくとも一方が含まれていることと、
    前記第1のサーバが、前記アラート情報をクライアントに送信することと、をさらに含む、請求項6に記載の方法。
  8. 第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信する前に、
    前記ビデオ監視機器が、移動する対象物が目標領域に現れると検出された場合に、前記目標領域に前記対象物が現れてから所定時間毎に、前記ビデオ監視機器で目標領域を撮像したビデオから前記画像に含まれるビデオ画像を、前記対象物が前記目標領域に現れなくなるまで、キャプチャすることと、
    前記ビデオ監視機器が、キャプチャした前記ビデオ画像を前記第1のサーバにリアルタイムに送信すること、或いは、前記ビデオ監視機器が、キャプチャした全てのビデオ画像を含む画像セットを取得し、前記画像セットを前記第1のサーバに送信することと、をさらに含む、請求項1に記載の方法。
  9. 前記第1のサーバが、前記画像に基づいて前記対象物が目標対象物であるか否かを判定することは、
    前記第1のサーバが、受信した各前記ビデオ画像における前記対象物が前記目標対象物であるか否かを認識し、各前記ビデオ画像に対応する認識結果を得ることと、
    前記第1のサーバが、受信した全ての前記ビデオ画像に対応する認識結果を目標結果となるように統合することと、
    前記第1のサーバが、前記目標結果に基づいて、前記対象物が目標対象物であるか否かを判定することと、を含む、請求項8に記載の方法。
  10. 前記第1のサーバが、受信した各前記ビデオ画像における前記対象物が前記目標対象物であるか否かを認識することは、
    前記第1のサーバが、受信した各前記ビデオ画像に前記対象物が現れたか否かを判定することと、
    前記第1のサーバが、前記対象物が現れた前記ビデオ画像における前記対象物が前記目標対象物であるか否かを認識することと、を含む、請求項9に記載の方法。
  11. 前記第1のサーバが、前記画像に基づいて前記対象物が目標対象物であるか否かを判定することは、
    前記第1のサーバが、各目標ビデオフレーム画像ごとに目標対象物の検出を行い、各前記目標ビデオフレーム画像の画像特徴を得て、前記画像は、前記目標ビデオから取得した複数の目標ビデオフレーム画像を含み、各前記目標ビデオフレーム画像は、前記目標領域における前記対象物を示すために用いられ、前記画像特徴は、前記対象物のうち、前記目標対象物との類似度が第1の閾値を超えた対象物がある目標画像領域を表すために用いられることと、
    前記第1のサーバが、各前記目標ビデオフレーム画像の画像特徴に基づいて、前記複数の目標ビデオフレーム画像における前記対象物の動き速度及び動き方向を表すための動き特徴を特定することと、
    前記第1のサーバが、前記動き特徴及び各前記目標ビデオフレーム画像の画像特徴に基づいて、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを判定することと、を含む、請求項1に記載の方法。
  12. 前記第1のサーバが、各前記目標ビデオフレーム画像の画像特徴に基づいて、動き特徴を特定することは、
    各前記目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する目標ベクトルを取得し、それぞれ、対応する1つの前記目標ビデオフレーム画像における前記対象物が前記目標画像領域を通る時の動き速度及び動き方向を表すための複数の目標ベクトルを得て、前記複数の目標ベクトルを、前記ビデオファイルにおける各前記目標ビデオフレーム画像の時間順に従って前記動き特徴に含まれる第1の目標ベクトルとして構成すること、或いは、
    各前記目標ビデオフレーム画像の画像特徴で表される目標画像領域に対応する2次元オプティカルフロー図を取得し、それぞれ、対応する1つの前記目標ビデオフレーム画像における前記対象物が前記目標画像領域を通る時の動き速度及び動き方向を含む複数の2次元オプティカルフロー図を得て、前記複数の2次元オプティカルフロー図を、前記ビデオファイルにおける各前記目標ビデオフレーム画像の時間順に従って前記動き特徴に含まれる3次元の第2の目標ベクトルとして構成すること、を含む、請求項11に記載の方法。
  13. 前記第1のサーバが、前記動き特徴及び各前記目標ビデオフレーム画像の画像特徴に基づいて、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを判定することは、
    前記動き特徴及び各前記目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを表すための対象物認識結果を得ること、を含む、請求項11に記載の方法。
  14. 前記動き特徴及び各前記目標ビデオフレーム画像の画像特徴を、予めトレーニングしておいたニューラルネットワークモデルに入力し、対象物認識結果を得ることは、
    各前記画像特徴に畳み込み層、正規化層及び活性化関数層を含むニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、前記複数の第1の特徴ベクトルと前記動き特徴を統合し、第2の特徴ベクトルを得て、前記第2の特徴ベクトルを全結合層に入力し分類し、第1の分類結果を得て、前記ニューラルネットワークモデルは、前記ニューラルネットワーク層構造及び前記全結合層を含み、前記対象物認識結果は、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを表すための前記第1の分類結果を含むこと、或いは、
    各前記画像特徴に畳み込み層、正規化層及び活性化関数層を含む第1のニューラルネットワーク層構造を通らせ、複数の第1の特徴ベクトルを得て、前記動き特徴に畳み込み層、正規化層、活性化関数層を含む第2のニューラルネットワーク層構造を通らせ、第2の特徴ベクトルを得て、前記複数の第1の特徴ベクトルと前記第2の特徴ベクトルを統合し、第3の特徴ベクトルを得て、前記第3の特徴ベクトルを全結合層に入力し分類し、第2の分類結果を得て、前記ニューラルネットワークモデルは、前記第1のニューラルネットワーク層構造、前記第2のニューラルネットワーク層構造及び前記全結合層を含み、前記対象物認識結果は、前記複数の目標ビデオフレーム画像に前記目標対象物が現れたか否かを表すための前記第2の分類結果を含むこと、を含む、請求項13に記載の方法。
  15. 前記第1のサーバが、移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信することは、
    前記第1のサーバが、ビデオ監視機器から送信された、前記ビデオ監視機器によって、前記目標ビデオのフレーム抽出・サンプリングを行い、1グループのビデオフレーム画像を得て、前記1グループのビデオフレーム画像における画素点の画素値に基づいて、前記1グループのビデオフレーム画像において特定した前記複数の目標ビデオフレーム画像を受信すること、或いは、
    前記第1のサーバが、ビデオ監視機器から送信された、前記ビデオ監視機器によって、前記目標ビデオのフレーム抽出・サンプリングを行なって得られた1グループのビデオフレーム画像を受信し、前記1グループのビデオフレーム画像における画素点の画素値に基づいて、前記1グループのビデオフレーム画像において前記複数の目標ビデオフレーム画像を特定すること、を含む、請求項11に記載の方法。
  16. 前記第1のサーバは、第1のクラウドサーバを含む、請求項1乃至15のうちいずれか一項に記載の方法。
  17. 前記第2のサーバは、第2のクラウドサーバを含む、請求項3に記載の方法。
  18. ビデオ監視機器が、移動する対象物が目標領域に現れると検出された場合に、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから画像を取得することと、
    前記ビデオ監視機器が、前記画像に基づいて前記対象物が目標対象物であるか否かを判定するように第1のサーバに指示するための前記画像を前記第1のサーバに送信することと、
    を含む目標対象物の監視方法。
  19. 移動する対象物が目標領域に現れると検出された場合に、
    前記ビデオ監視機器が、前記目標ビデオを、前記第1のサーバから送信された第1の要求を受信した場合に、前記第1の要求に応えて前記目標ビデオを前記第1のサーバに送信するための第2のサーバに送信すること、をさらに含む、請求項18に記載の方法。
  20. 前記ビデオ監視機器が、前記画像を第1のサーバに送信した後、
    前記ビデオ監視機器が、前記第1のサーバから送信された第2の要求を受信することと、
    前記ビデオ監視機器が、前記第2の要求に応えて前記目標ビデオを前記第1のサーバに送信することと、をさらに含む、請求項18に記載の方法。
  21. 前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから画像を取得することは、前記ビデオ監視機器が、移動する対象物が目標領域に現れると検出された場合に、前記目標領域に前記対象物が現れてから所定時間毎に、前記ビデオ監視機器で目標領域を撮像したビデオから前記画像に含まれるビデオ画像を、前記対象物が前記目標領域に現れなくなるまで、キャプチャすること、を含み、
    前記ビデオ監視機器が、前記画像を第1のサーバに送信することは、前記ビデオ監視機器が、キャプチャした前記ビデオ画像を前記第1のサーバにリアルタイムに送信すること、或いは、前記ビデオ監視機器が、キャプチャした全てのビデオ画像を含む画像セットを取得し、前記画像セットを前記第1のサーバに送信すること、を含む、請求項18に記載の方法。
  22. 移動する対象物が目標領域に現れると検出された場合に、
    前記ビデオ監視機器が、前記目標領域を撮像したビデオから、前記目標領域に前記対象物が現れてから前記目標領域に前記対象物が現れなくなるまでの第1のビデオを取得することと、
    前記ビデオ監視機器が、前記目標領域に前記対象物が現れる前の第1の目標時間帯の第2のビデオ、及び、前記目標領域に前記対象物が現れなくなった後の第2の目標時間帯の第3のビデオを取得することと、
    前記ビデオ監視機器が、前記第2のビデオ、前記第1のビデオ及び前記第3のビデオを前記目標ビデオとして特定することと、をさらに含む、請求項18に記載の方法。
  23. ビデオ監視機器と第1のサーバとを備える目標対象物の監視システムであって、
    前記ビデオ監視機器が前記第1のサーバに接続され、
    前記ビデオ監視機器は、移動する対象物が目標領域に現れると検出された場合に、目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから画像を取得し、前記画像を前記第1のサーバに送信するように構成され、
    前記第1のサーバは、前記画像に基づいて前記対象物が目標対象物であるか否かを判定するように構成される目標対象物の監視システム。
  24. 前記ビデオ監視機器は、
    移動する対象物が目標領域に現れると検出された場合に、前記目標領域に前記対象物が現れてから所定時間毎に、前記ビデオ監視機器で目標領域を撮像したビデオから前記画像に含まれるビデオ画像を、前記対象物が前記目標領域に現れなくなるまで、キャプチャし、
    キャプチャした前記ビデオ画像を前記第1のサーバにリアルタイムに送信するか、或いは、キャプチャした全てのビデオ画像を含む画像セットを取得し、前記画像セットを前記第1のサーバに送信するように構成される、請求項23に記載のシステム。
  25. 前記第1のサーバは、
    受信した各前記ビデオ画像における前記対象物が前記目標対象物であるか否かを認識し、各前記ビデオ画像に対応する認識結果を得て、
    受信した全ての前記ビデオ画像に対応する認識結果を目標結果となるように統合し、
    前記目標結果に基づいて、前記対象物が目標対象物であるか否かを判定するように構成される、請求項24に記載のシステム。
  26. 前記第1のサーバは、さらに、
    前記対象物が前記目標対象物であると判定された場合に、前記目標ビデオを取得し、
    前記目標ビデオにおいて、前記目標領域における前記目標対象物の移動軌跡を特定し、
    前記移動軌跡に基づいて、前記目標対象物を排除する方式を提示するための提示情報を生成し、
    前記目標対象物に対応する、前記目標領域に前記目標対象物が現れたことを示すためのアラート情報を生成し、前記アラート情報には、前記目標ビデオ、前記移動軌跡、前記提示情報の少なくとも一方が含まれているように構成される、請求項23に記載のシステム。
  27. クライアントをさらに備え、
    前記第1のサーバが前記クライアントに接続され、
    前記第1のサーバは、前記アラート情報を前記クライアントに送信するように構成され、
    前記クライアントは、表示インターフェースに前記アラート情報を表示するように構成される、請求項26に記載のシステム。
  28. 第2のサーバをさらに備え、
    前記第2のサーバが前記ビデオ監視機器及び前記第1のサーバに接続され、
    前記ビデオ監視機器は、さらに、前記ビデオを前記第2のサーバに送信するように構成され、
    前記第2のサーバは、前記目標ビデオを記憶するように構成され、
    前記第1のサーバは、前記第2のサーバから前記目標ビデオを取得するように構成される、請求項26に記載のシステム。
  29. 前記第1のサーバは、さらに、前記対象物が前記目標対象物ではないと判定された場合に、前記第2のサーバへ指示情報を送信するように構成され、
    前記第2のサーバは、前記指示情報に応えて前記目標ビデオを削除するように構成される、請求項28に記載のシステム。
  30. 前記ビデオ監視機器は、さらに、
    前記目標領域を撮像したビデオから、前記目標領域に前記対象物が現れてから前記目標領域に前記対象物が現れなくなるまでの第1のビデオを取得し、
    前記目標領域に前記対象物が現れる前の第1の目標時間帯の第2のビデオ、及び、前記目標領域に前記対象物が現れなくなった後の第2の目標時間帯の第3のビデオを取得し、
    前記第2のビデオ、前記第1のビデオ及び前記第3のビデオを前記目標ビデオとして特定するように構成される、請求項26に記載のシステム。
  31. 第1のサーバに適用される目標対象物の監視装置であって、
    移動する対象物が目標領域に現れると検出された場合にビデオ監視機器によって送信された画像を受信し、前記画像は、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから取得した画像であるように構成される受信モジュールと、
    前記画像に基づいて前記対象物が目標対象物であるか否かを判定するように構成される判定モジュールと、を備える目標対象物の監視装置。
  32. ビデオ監視機器に適用される目標対象物の監視装置であって、
    移動する対象物が目標領域に現れると検出された場合に、前記ビデオ監視機器で目標領域を撮像したビデオのうち前記対象物が現れた目標ビデオから画像を取得するように構成される取得モジュールと、
    前記画像に基づいて前記対象物が目標対象物であるか否かを判定するように第1のサーバに指示するための前記画像を前記第1のサーバに送信するように構成される送信モジュールと、を備える目標対象物の監視装置。
  33. 実行されると、請求項1乃至22のうちいずれか一項に記載の方法を実行するように構成されるコンピュータプログラムが記憶されている記憶媒体。
  34. メモリとプロセッサとを備え、前記メモリには、コンピュータプログラムが記憶され、前記プロセッサは、前記コンピュータプログラムを実行して請求項1乃至22のうちいずれか一項に記載の方法を実行するように構成される電子装置。
JP2019570566A 2019-01-24 2019-04-01 目標対象物の監視方法、装置及びシステム Active JP7018462B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910068774.0A CN109919009A (zh) 2019-01-24 2019-01-24 目标对象的监控方法、装置及系统
CN201910068774.0 2019-01-24
PCT/CN2019/080747 WO2020151084A1 (zh) 2019-01-24 2019-04-01 目标对象的监控方法、装置及系统

Publications (2)

Publication Number Publication Date
JP2021514548A true JP2021514548A (ja) 2021-06-10
JP7018462B2 JP7018462B2 (ja) 2022-02-10

Family

ID=66960691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019570566A Active JP7018462B2 (ja) 2019-01-24 2019-04-01 目標対象物の監視方法、装置及びシステム

Country Status (3)

Country Link
JP (1) JP7018462B2 (ja)
CN (1) CN109919009A (ja)
WO (1) WO2020151084A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472492A (zh) * 2019-07-05 2019-11-19 平安国际智慧城市科技股份有限公司 目标生物检测方法、装置、计算机设备和存储介质
CN110516535A (zh) * 2019-07-12 2019-11-29 杭州电子科技大学 一种基于深度学习的老鼠活跃度检测方法和系统、及卫生评估方法
CN111753609B (zh) * 2019-08-02 2023-12-26 杭州海康威视数字技术股份有限公司 一种目标识别的方法、装置及摄像机
CN110674793A (zh) * 2019-10-22 2020-01-10 上海秒针网络科技有限公司 调味品容器加盖监测方法及系统
CN111126317B (zh) * 2019-12-26 2023-06-23 腾讯科技(深圳)有限公司 一种图像处理方法、装置、服务器及存储介质
CN111553238A (zh) * 2020-04-23 2020-08-18 北京大学深圳研究生院 一种用于动作的时间轴定位的回归分类模块和方法
CN111611938B (zh) * 2020-05-22 2023-08-29 浙江大华技术股份有限公司 一种逆行方向确定方法及装置
EP3929801A1 (en) * 2020-06-25 2021-12-29 Axis AB Training of an object recognition neural network
CN112001457A (zh) * 2020-07-14 2020-11-27 浙江大华技术股份有限公司 图像预处理方法、装置、系统和计算机可读存储介质
CN112101344B (zh) * 2020-08-25 2022-09-06 腾讯科技(深圳)有限公司 一种视频文本跟踪方法及装置
CN112199993B (zh) * 2020-09-01 2022-08-09 广西大学 基于人工智能识别任意方向变电站绝缘子红外图像检测模型的方法
CN112311966A (zh) * 2020-11-13 2021-02-02 深圳市前海手绘科技文化有限公司 一种短视频中动态镜头制作的方法和装置
CN112437274B (zh) * 2020-11-17 2022-08-30 浙江大华技术股份有限公司 一种抓拍图片的传输方法及抓拍机
CN112565863A (zh) * 2020-11-26 2021-03-26 深圳Tcl新技术有限公司 视频播放方法、装置、终端设备及计算机可读存储介质
CN112633131B (zh) * 2020-12-18 2022-09-13 宁波长壁流体动力科技有限公司 一种基于深度学习视频识别的井下自动跟机方法
CN112784738B (zh) * 2021-01-21 2023-09-19 上海云从汇临人工智能科技有限公司 运动目标检测告警方法、装置以及计算机可读存储介质
CN112836089B (zh) * 2021-01-28 2023-08-22 浙江大华技术股份有限公司 运动轨迹的确认方法及装置、存储介质、电子装置
CN113055654A (zh) * 2021-03-26 2021-06-29 太原师范学院 边缘设备中的视频流有损压缩方法
CN112861826B (zh) * 2021-04-08 2021-12-14 重庆工程职业技术学院 基于视频图像的煤矿监管方法、系统、设备及存储介质
CN113221800A (zh) * 2021-05-24 2021-08-06 珠海大横琴科技发展有限公司 一种待检测目标的监控判断方法及系统
CN113435368B (zh) * 2021-06-30 2024-03-22 青岛海尔科技有限公司 监控数据的识别方法和装置、存储介质及电子装置
CN113487821A (zh) * 2021-07-30 2021-10-08 重庆予胜远升网络科技有限公司 基于机器视觉的电力设备异物入侵识别系统及方法
CN113609317B (zh) * 2021-09-16 2024-04-02 杭州海康威视数字技术股份有限公司 一种图像库构建方法、装置及电子设备
CN114051124B (zh) * 2022-01-17 2022-05-20 深圳市华付信息技术有限公司 支持多区域监控的视频监控方法、装置、设备及存储介质
CN114403047B (zh) * 2022-02-09 2023-01-06 上海依蕴宠物用品有限公司 一种基于图像分析技术的老龄动物健康干预方法及系统
CN115091472B (zh) * 2022-08-26 2022-11-22 珠海市南特金属科技股份有限公司 基于人工智能的目标定位方法及装夹机械手控制系统
CN115150371B (zh) * 2022-08-31 2022-12-20 深圳市万佳安物联科技股份有限公司 基于云平台的业务处理方法、系统及储存介质
CN115187916B (zh) * 2022-09-13 2023-02-17 太极计算机股份有限公司 基于时空关联的建筑内疫情防控方法、装置、设备和介质
CN115457447B (zh) * 2022-11-07 2023-03-28 浙江莲荷科技有限公司 运动物体识别的方法、装置、系统及电子设备、存储介质
TWI826129B (zh) * 2022-11-18 2023-12-11 英業達股份有限公司 週期時間偵測及修正系統與方法
CN116684626B (zh) * 2023-08-04 2023-11-24 广东星云开物科技股份有限公司 视频压缩方法和共享售卖柜
CN116890668B (zh) * 2023-09-07 2023-11-28 国网浙江省电力有限公司杭州供电公司 信息同步互联的安全充电方法及充电装置
CN117392596B (zh) * 2023-09-07 2024-04-30 中关村科学城城市大脑股份有限公司 数据处理方法、电子设备和计算机可读介质
CN117221391B (zh) * 2023-11-09 2024-02-23 天津华来科技股份有限公司 基于视觉语义大模型的智能摄像机推送方法、装置及设备
CN117671597A (zh) * 2023-12-25 2024-03-08 北京大学长沙计算与数字经济研究院 一种老鼠检测模型的构建方法和老鼠检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266735A (ja) * 2003-03-04 2004-09-24 Ecore Kk ねずみの監視システム
JP2011197365A (ja) * 2010-03-19 2011-10-06 Panasonic Corp 映像表示装置および映像表示方法
WO2017208356A1 (ja) * 2016-05-31 2017-12-07 株式会社オプティム IoT制御システム、IoT制御方法及びプログラム
JP6388093B1 (ja) * 2017-08-31 2018-09-12 三菱電機株式会社 データ伝送装置、データ処理システムおよびデータ伝送方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7746378B2 (en) * 2004-10-12 2010-06-29 International Business Machines Corporation Video analysis, archiving and alerting methods and apparatus for a distributed, modular and extensible video surveillance system
CN101854516B (zh) * 2009-04-02 2014-03-05 北京中星微电子有限公司 视频监控系统、视频监控服务器及视频监控方法
US9554063B2 (en) * 2015-06-12 2017-01-24 Google Inc. Using infrared images of a monitored scene to identify windows
CN106559645B (zh) * 2015-09-25 2020-01-17 杭州海康威视数字技术股份有限公司 基于摄像机的监控方法、系统和装置
CN106878666B (zh) * 2015-12-10 2020-04-28 杭州海康威视数字技术股份有限公司 基于监控摄像机来查找目标对象的方法、装置和系统
CN107358160A (zh) * 2017-06-08 2017-11-17 小草数语(北京)科技有限公司 终端监控视频处理方法、监控终端以及服务器
CN108259830B (zh) * 2018-01-25 2019-08-23 深圳冠思大数据服务有限公司 基于云服务器的鼠患智能监控系统和方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266735A (ja) * 2003-03-04 2004-09-24 Ecore Kk ねずみの監視システム
JP2011197365A (ja) * 2010-03-19 2011-10-06 Panasonic Corp 映像表示装置および映像表示方法
WO2017208356A1 (ja) * 2016-05-31 2017-12-07 株式会社オプティム IoT制御システム、IoT制御方法及びプログラム
JP6388093B1 (ja) * 2017-08-31 2018-09-12 三菱電機株式会社 データ伝送装置、データ処理システムおよびデータ伝送方法

Also Published As

Publication number Publication date
JP7018462B2 (ja) 2022-02-10
CN109919009A (zh) 2019-06-21
WO2020151084A1 (zh) 2020-07-30

Similar Documents

Publication Publication Date Title
JP7018462B2 (ja) 目標対象物の監視方法、装置及びシステム
CN109922310B (zh) 目标对象的监控方法、装置及系统
CN109886130B (zh) 目标对象的确定方法、装置、存储介质和处理器
JP7026062B2 (ja) 機械学習によってオブジェクト分類器を訓練するためのシステム及び方法
JP2021515919A (ja) 領域特定方法、装置、記憶媒体及びプロセッサ
US11023707B2 (en) System and method for selecting a part of a video image for a face detection operation
US7868772B2 (en) Flame detecting method and device
US20130128050A1 (en) Geographic map based control
KR20180072561A (ko) 비디오 감시 시스템에서 경보들을 발생시키는 방법
CN109886129B (zh) 提示信息生成方法和装置,存储介质及电子装置
JP2015508591A (ja) クラウドベースの映像監視管理システム
KR20080054368A (ko) 화염 검출 방법 및 장치
CN110728810B (zh) 一种分布式目标监测系统和方法
CN112733690A (zh) 一种高空抛物检测方法、装置及电子设备
EP2000998B1 (en) Flame detecting method and device
CN109831634A (zh) 目标对象的密度信息确定方法及装置
CN106529500A (zh) 一种信息处理方法和系统
KR101944374B1 (ko) 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치
CN111860187A (zh) 一种高精度的佩戴口罩识别方法及系统
CN116416281A (zh) 一种粮库ai视频监管分析方法及系统
CN108881846B (zh) 信息融合方法、装置及计算机可读存储介质
KR20200009530A (ko) 이상 개체 검출 시스템 및 방법
KR102424098B1 (ko) 딥러닝을 이용한 드론 검출 장치 및 방법
CN109934099A (zh) 放置位置的提示方法及装置、存储介质、电子装置
CN114782883A (zh) 基于群体智能的异常行为检测方法、装置和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7018462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150