JP6425856B1 - ビデオ録画方法、サーバー、システム及び記憶媒体 - Google Patents

ビデオ録画方法、サーバー、システム及び記憶媒体 Download PDF

Info

Publication number
JP6425856B1
JP6425856B1 JP2018524835A JP2018524835A JP6425856B1 JP 6425856 B1 JP6425856 B1 JP 6425856B1 JP 2018524835 A JP2018524835 A JP 2018524835A JP 2018524835 A JP2018524835 A JP 2018524835A JP 6425856 B1 JP6425856 B1 JP 6425856B1
Authority
JP
Japan
Prior art keywords
region
sub
image
area
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018524835A
Other languages
English (en)
Other versions
JP2018535496A (ja
Inventor
健宗 王
健宗 王
磊豪 夏
磊豪 夏
進 馬
進 馬
銘 劉
銘 劉
京 肖
京 肖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Application granted granted Critical
Publication of JP6425856B1 publication Critical patent/JP6425856B1/ja
Publication of JP2018535496A publication Critical patent/JP2018535496A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Abstract

本発明は、ビデオ録画方法を提供する。ビデオ録画方法は、所定期間毎に、監視カメラによって撮影された第一画像を抽出するステップと、第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出するステップと、前記関心領域に対して行動領域を選択し、目標領域を選出するステップと、目標領域を分割し、各目標領域を複数のサブ領域に分割するステップと、所定期間毎に、前記監視カメラによって撮影された第二画像を抽出するステップと、前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定するステップと、あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始めるステップを含む。本発明は上記方法に用いるサーバー、システム及び記憶媒体を更に提供する。

Description

本出願は、2016年4月14日に出願され、「ビデオ録画方法及びサーバー」と題された中国特許出願第201610234956.7号の優先権を主張し、その全体の内容が参照により本明細書に組み込まれている。
本発明は、ビデオ処理分野に関するものであり、ビデオ録画方法、サーバー、システム及び記憶媒体に関するものである。
自動車を修理工場で修理する過程で、監視システムによって映像は一日中間断なく録画され、つまり自動車を修理しない場合、ずっと映像を録画しているので、大量の静態ビデオフレームを生成する。このような大量の静態ビデオフレームを保存するというのは、記憶装置及びネットワーク帯域を浪費する。そして、映像における重要な情報を検索する時、長時間に渡る静態ビデオフレームから重要な情報を探し出すのに手間がかかる問題があり、キーフレームを見逃す可能性がある。
現在、既存のビデオ録画方法はパノラマを監視し、動作が発生した際に録画動作がトリガされ、このような機能は、ある程度上述した問題を解決することができるが、新しい問題は、無関係の動作による録画動作がトリガされ、例えば、修理工場の5メートル以外で歩行者が歩く場合、自動車修理と関係がなくても、動作が発生するとビデオ録画を行い、情報を冗長にする。
本発明は、上記したような従来の技術において、前記問題点を解決するためになされたものであり、必要がないビデオフレームの録画を減少することができるビデオ録画方法、サーバー、システム及び記憶媒体を提供することにその目的がある。
本願が提供するビデオ録画方法は、
第一所定期間毎に、監視カメラによって撮影された第一画像を抽出するステップと、
予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出するステップと、
解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出するステップと、
分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割されるステップと、
第二所定期間毎に、前記監視カメラによって撮影された第二画像を抽出するステップと、
前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定するステップと、
あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始めるステップと、
を備える。
本発明に係るサーバーは記憶装置及び処理器を備え、
前記記憶装置には、ビデオ録画システムが格納され、
前記処理器は、前記ビデオ録画システムを実行することに用いられ以下のステップを実行する。すなわち、
第一所定期間毎に、監視カメラによって撮影された第一画像を抽出し、
予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出し、
解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出し、
分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割され、
第二所定期間毎に、前記監視カメラによって撮影された第二画像を抽出し、
前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定し、
あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始める。
本発明に係るビデオ録画システムは、
第一所定期間毎に、監視カメラによって撮影された第一画像を抽出する第一画像取得モジュールと、
予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出する構築モジュールと、
解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出する選択モジュールと、
分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割される分割モジュールと、
第二所定期間毎に、前記監視カメラによって撮影された第二画像を抽出する第二画像取得モジュールと、
前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定する動作検出モジュールと、
あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始めるビデオ録画モジュールと、
を備える。
本発明に係るコンピュータ読み取り可能な命令の不揮発性記憶媒体は、コンピュータ読み取り可能な命令が一つ又は複数の処理器によって以下のステップを実行可能である。すなわち、
第一所定期間毎に、監視カメラによって撮影された第一画像を抽出し、
予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出し、
解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出し、
分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割され、
第二所定期間毎に、前記監視カメラによって撮影された第二画像を抽出し、
前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定し、
あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始める。
本発明のビデオ録画方法、該方法に用いられるサーバー、システム及び記憶媒体は、必要がないビデオフレームの録画を減少することができ、記憶装置及びネットワーク帯域の浪費を防ぐという効果を奏することができる。
本発明に係るビデオ録画システムの第一の好ましい実施形態のサーバーの応用環境図である。 本発明に係るビデオ録画システムの第二の好ましい実施形態のサーバーの応用環境図である。 本発明に係るビデオ録画システムの好ましい実施形態のブロック図である。 本発明に係るビデオ録画方法の好ましい実施形態のフローチャートである。 図4に係るビデオ録画方法の好ましい実施形態の各サブ領域で動作事件が発生したかどうかを判定する詳しい実施フローチャートである。
図1は、本発明に係るビデオ録画システムの第一の好ましい実施形態のサーバーの応用環境図である。
本実施形態において、ビデオ録画システム10は、サーバーに搭載して実行されている。図1に示すように、前記サーバーは、監視サーバー1であっても良い。前記監視サーバー1は、通信モジュール(図示せず)を介して監視場所2に搭載された1つ又は複数の監視カメラ3に通信可能に接続されることができる。
前記監視場所2は、学校、幼稚園、デパート、病院、公園、町広場、地下歩行空間などのような人が多い場所であり、家庭、スーパーマーケット、現金自動預け払い機(Automatic Teller Machine、ATM)などのような監視装置を搭載しようとする特別な場所であっても良い。本実施形態において、前記監視場所2は、4S店などのような自動車修理工場である。
前記監視場所2には、1つ又は複数の監視カメラ3が搭載されている。前記監視カメラ3は、アナログカメラであっても良い。前記アナログカメラは、ビデオ採集装置によって生成されたアナログビデオ信号を特定のビデオキャプチャカードを介してデジタル信号に変換し、且つそれを伝送して監視サーバー1に記憶する。本実施形態において、前記監視カメラ3は、ネットワークカメラである。前記ネットワークカメラは、固定された後、ケーブル及びルータによって接続され、ルータを介して監視サーバー1に通信可能に接続されており、監視サーバー1によってビデオを出力する。
前記監視サーバー1は、処理器及び記憶装置(図示せず)を備える。前記処理器は、コアユニット(Core Unit)及びコントロールユニット(Control Unit)であり、コンピュータの命令を読み取り、コンピュータソフトウェアのデータを処理することに用いられる。前記記憶装置には、データベース、オペレーティングシステム、前記ビデオ録画システム10が格納されている。いくつかの実施形態において、記憶装置は、内蔵メモリと不揮発性記憶媒体を備える。前記ビデオ録画システム10、オペレーティングシステム及びデータベースは、不揮発性記憶媒体に格納される。内蔵メモリは、オペレーティングシステム、データベース及び前記ビデオ録画システム10に高速なキャッシュの実行環境を提供する。
本実施形態において、前記ビデオ録画システム10は、少なくとも1つのコンピュータ実行可能プログラム命令コードを含む。コンピュータ実行可能プログラム命令コードは、処理器によって実行され、下記の操作を実現する。
第一所定期間毎に、例えば、5分毎に、監視カメラ3によって撮影された第一画像を抽出し、予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象が含まれる関心領域、例えば、車両の部分領域又は全部領域を抽出する。解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出する。分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割される。第二所定期間毎に、例えば、0.5秒毎に、前記監視カメラ3によって撮影された第二画像を抽出し、前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定する。あるサブ領域で行動事件が発生した場合、前記監視カメラ3を制御して現在の抽出された第二画像からビデオを録画し始める。
ここで、前記予め構築されたモデルは、畳み込みニューラルネットワーク(ConvolutionNeuralNetwork、CNN)モデルである。
前記モデル生成は、以下のステップを備える。
各車両修理工場のデータベースから各車両修理位置の監視装置によって採集された予め設定された数量(例えば、10万枚)の修理位置画像を獲得する。現在の修理工場の監視ビデオが多くあるため、本実施形態において、その中から動画を選択し、且つキーフレームを抽出し、大量の画像を獲得する。採集された各写真の中の車両のある領域に対してレーベリングをする。なお、レーベリングをする過程において、矩形フレームで車両の位置をレーベリングし、且つラベルを表記してよい。この過程は、外部委託又は会社内部の手動でのレーベリングによって行い、レーベリングをされた車両のある領域は、関心領域である。レーベリングをされた車両のある領域の予め設定された数量の画像を用いて予め設定されたモデル構造のCNNモデルを訓練し、識別された画像の中の前記関心領域のCNNモデルを生成する。訓練の目的は、CNNネットワーク内の各重みの値を最適化し、ネットワークモデルを全体として前記関心領域の識別に実際に適用できるようにすることである。ネットワークモデルは、合計で七層を含み、それぞれ、五つの畳み込み層と、1つのプーリング層と1つの全結合層である。なお、畳み込み層は、複数の特徴量からなる特徴図によって生成され、特徴図の役割は、畳み込みフィルタを介して重要な特徴を抽出する。プーリング層の役割は、サンプリング方法に従って重複の特徴点を除き、特徴抽出の回数を減らし、ネットワーク層の間のデータ通信の効率を向上させることであり、使用できるサンプリング方法は、最大サンプリング法、平均サンプリング法、ランダムサンプリング法を含む。全結合層の役割は、前記畳み込み層とプーリング層を接続し、且つ重み行列を計算し、その後の実際の分類に用いられる。画像がモデルに入ると、各層は、順方向代入と逆方向代入の2つのプロセスを実行し、毎回の代入によって1つの確率分布を生成し、複数回代入された確率分布を重ね合わせ、システムは、確率分布における最大値である分類を最終的な分類結果とする。
なお、前記解析ルールは、抽出された関心領域が予め設定された画素領域範囲に位置することがあるかどうかを解析し、例えば、予め設定された画素領域は、横座標領域範囲と縦座標領域範囲を含み、ここで、前記横座標領域範囲は(X1、X2)であり、前記縦座標領域範囲は、(Y1、Y2)であり、前記X1は、X1列目の画素点を表し、前記X2は、X2列目の画素点を表し、X1は、X2より小さく、前記Y1は、Y1行目の画素点を表し、Y2は、Y2行目の画素点を表し、且つY1は、Y2より小さく、抽出された関心領域が予め設定された画素領域範囲に位置することがある場合、前記関心領域が前記目標領域であることを確認することである。前記解析ルールの原理は、修理工場の監視装置が、1つの修理位置に対応し、車両をレンズの主要領域(即ち、中央領域)に位置させ、従って、前記予め設定された画素領域範囲は、できるだけレンズの主要領域を含む。画素領域範囲は、大き過ぎることができず、複数の関心領域がその中に位置することを防止する。画素領域範囲はまた、小さ過ぎることができなく、関心領域がその中に入りづらくなることを防止する。手動によって前記横座標領域範囲と縦座標領域範囲を確認することができ、大き過ぎると、それを小さくし、小さ過ぎると、それを大きくする。
なお、前記分割ルールは、均一分割方式を採用し、即ち分割されたサブ領域の面積のサイズと形状を一致させ、前記目標領域に対してサブ領域の分割を行い、前記目標領域は、N*N個のサブ領域に分割され、ここで、Nは、1より大きい正の整数であり、例えば、8*8である。N*N個のサブ領域を選択するが、目標領域全体ではなく、動作検出を行うのには、主に2つの考慮事項があり、第一に、精度であり、目標領域全体に対して画素値を比較する場合、微細動作が他の静態の領域によって平均化で失われかねず、このような微細動作を検出することができなくなってしまう。第二に、効率であり、動作が、ある領域だけで発生する場合、このサブ領域で動作が発生したことを検出すると、それに対応するフレームを保存することができ、他の領域を検出し続ける必要がない。例えば、1つの例において、8*8のサブ領域を例として、1番目のサブ領域で動作を検出すると、残りの63個のサブ領域を検出する必要がないため、効率を64倍に向上させることができる。
なお、各サブ領域で動作事件が発生したかどうかを判定するステップは、現在の抽出された第二画像のその中の1つのサブ領域に位置する画像ブロックの各画素点の画素値と前回の抽出された第二画像の同じサブ領域に位置する画像ブロックに対応する画素点の画素値との差値を算出し、各サブ領域の画像ブロックに対応する全ての差値の合計を求め、算出した合計が前記画像ブロックの画素点の数量で除算され、各サブ領域の中の画像ブロックに対応する差値平均値を得る。サブ領域の中の画像ブロックに対応する差値平均値が予め設定された閾値より大きい場合、前記サブ領域で動作事件が発生したことを確認することを備える。
本発明の好ましい実施形態において、前記ビデオ録画システム10は、任意の1つの端末装置に搭載して実行され、図2に示すような携帯端末4である。前記携帯端末4は、データ処理機能を有する任意の電子装置であり、例えば、スマートフォン、タブレットパソコン、ノートパソコン、着脱可能な時計、着脱可能な眼鏡等々である。同様に、端末装置2は、処理器及び記憶装置(図示せず)を備え、前記ビデオ録画システム10は、端末装置2の記憶装置に格納される少なくとも1つのコンピュータ実行可能プログラム命令コードを含む。コンピュータ実行可能プログラム命令コードは、前記端末装置2の処理器によって実行され、下記の操作を実現する。
この技術分野の技術者が理解できることは、図1及び図2に示すような構造は、単に本発明に関連する一部分の構造のブロック図にすぎず、本願技術方案のサーバー又は端末装置の限定を構成するものではない。具体的には、電子装置は、図の中の部品より多くの又は少ない部品を含み、又はある部品を組み合わせ、又は異なる部品配列を有することができる。
理解できることは、上述した実施形態の不揮発性記憶媒体は、磁気ディスク、光ディスク、読み出し専用メモリ(Read Only Memory、ROM)などのような不揮発性記憶媒体であり、又はランダムアクセスメモリ(Random Access Memory、RAM)等々であることができる。
理解できることは、前記記憶装置は、監視サーバー1又は端末装置2に内蔵するか又は接続することができる。
図3に示すように、本発明に係るビデオ録画システムの好ましい実施形態のブロック図である。
前記ビデオ録画システム10のプログラムコードは、異なる機能に基づいて複数の機能モジュールに分割される。本発明の好ましい実施形態において、前記ビデオ録画システム10は、第一画像取得モジュール100と、構築モジュール101と、選択モジュール102と、分割モジュール103と、第二画像取得モジュール104と、動作検出モジュール105と、ビデオ録画モジュール106と、を備える。
前記第一画像取得モジュール100は、第一所定期間毎に、例えば、5分毎に、監視カメラ3によって撮影された第一画像を抽出することに用いられる。
前記構築モジュール101は、予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象が含まれる関心領域を抽出し、例えば、車両の部分領域又は全部領域であることに用いられる。
ここで、前記予め構築されたモデルは、畳み込みニューラルネットワーク(ConvolutionNeuralNetwork、CNN)モデルである。
前記予め構築されたモデル生成は、以下のステップを備える。
各車両修理工場のデータベースから各車両修理位置の監視装置によって採集された予め設定された数量(例えば、10万枚)の修理位置画像を獲得する。現在の修理工場の監視ビデオが多くあるため、本実施形態において、その中から動画を選択し、且つキーフレームを抽出し、大量の画像を獲得する。採集された各写真の中の車両のある領域に対してレーベリングを行う。なお、レーベリングの過程において、矩形フレームで車両の位置をレーベリングし、且つラベルを表記してよい。この過程は、外部委託又は会社内部の手動でのレーベリングによって行い、レーベリングをされた車両のある領域がすなわち関心領域である。レーベリングをされた車両のある領域の予め設定された数量の画像を用いて予め設定されたモデル構造のCNNモデルを訓練し、識別された画像の中の前記関心領域のCNNモデルを生成する。訓練の目的は、CNNネットワーク内の各重みの値を最適化し、ネットワークモデルを全体として前記関心領域の識別に実際に適用できるようにすることである。ネットワークモデルの合計は、七層を含み、それぞれは、五つの畳み込み層と、1つのプーリング層と1つの全結合層を含む。なお、畳み込み層は、複数の特徴量からなる特徴図によって生成され、特徴図の役割は、畳み込みフィルタを介して重要な特徴を抽出する。プーリング層の役割は、サンプリング方法に従って重複の特徴点を除き、特徴抽出の回数を減らし、ネットワーク層の間のデータ通信の効率を向上させることであり、使用できるサンプリング方法は、最大サンプリング法、平均サンプリング法、ランダムサンプリング法を含む。全結合層の役割は、前記畳み込み層とプーリング層を接続し、且つ重み行列を計算し、その後の実際な分類に用いられる。画像がモデルに入ると、各層は、順方向代入と逆方向代入の2つのプロセスを実行し、毎回の代入によって1つの確率分布を生成し、複数回代入された確率分布を重ね合わせ、システムは、確率分布における最大値である分類を最終的な分類結果とする。
前記選択モジュール102は、解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出することに用いられる。
なお、前記解析ルールは、抽出された関心領域が予め設定された画素領域範囲に位置することがあるかどうかを解析し、例えば、予め設定された画素領域は、横座標領域範囲と縦座標領域範囲を含み、ここで、前記横座標領域範囲は(X1、X2)であり、前記縦座標領域範囲は、(Y1、Y2)であり、抽出された関心領域が予め設定された画素領域範囲に位置することがある場合、前記関心領域が前記目標領域であることを確認することである。前記解析ルールの原理は、修理工場の監視装置が、1つの修理位置に対応し、車両をレンズの主要領域(即ち、中央領域)に位置させ、従って、前記予め設定された画素領域範囲は、できるだけレンズの主要領域を含む。画素領域範囲は、大き過ぎることができず、複数の関心領域がその中に位置することを防止する。画素領域範囲はまた、小さ過ぎることができなく、関心領域がその中に入りづらくなることを防止する。手動によって前記横座標領域範囲と縦座標領域範囲を確認することができ、大き過ぎると、それを小さくし、小さ過ぎると、それを大きくする。
前記分割モジュール103は、分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割されることに用いられる。
なお、前記分割ルールは、均一分割方式を採用し、即ち分割されたサブ領域の面積のサイズと形状を一致させ、前記目標領域に対してサブ領域の分割を行い、前記目標領域は、N*N個のサブ領域に分割され、ここで、Nは、1より大きい正の整数であり、例えば、8*8である。N*N個のサブ領域を選択するが、目標領域全体ではなく、動作検出を行うのには、主に2つの考慮事項があり、第一に、精度であり、目標領域全体に対して画素値を比較する場合、微細動作が他の静態の領域によって平均化で失われかねず、このような微細動作を検出することができなくなってしまう。第二に、効率であり、動作が、ある領域だけで発生する場合、このサブ領域で動作が発生したことを検出すると、それに対応するフレームを保存することができ、他の領域を検出し続ける必要がない。例えば、1つの例において、8*8のサブ領域を例として、1番目のサブ領域で動作を検出すると、残りの63個のサブ領域を検出する必要がないため、効率を64倍に向上させることができる。
前記第二画像取得モジュール104は、第二所定期間毎に、例えば、0.5秒毎に、前記監視カメラ3によって撮影された第二画像を抽出することに用いられる。
前記動作検出モジュール105は、前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定することに用いられる。
なお、各サブ領域で動作事件が発生したかどうかを判定するステップは、現在の抽出された第二画像のその中の1つのサブ領域に位置する画像ブロックの各画素点の画素値と前回の抽出された第二画像の同じサブ領域に位置する画像ブロックに対応する画素点の画素値との差値を算出し、各サブ領域の画像ブロックに対応する全ての差値の合計を求め、算出した合計が前記画像ブロックの画素点の数量で除算され、各サブ領域の中の画像ブロックに対応する差値平均値を得る。サブ領域の中の画像ブロックに対応する差値平均値が予め設定された閾値より大きい場合、前記サブ領域で動作事件が発生したことを確認することを備える。
前記ビデオ録画モジュール106は、あるサブ領域で行動事件が発生した場合、前記監視カメラ3を制御して現在の抽出された第二画像からビデオを録画し始めることに用いられる。
図4に示すように、本発明に係るビデオ録画方法の好ましい実施形態のフローチャートである。本実施形態の前記ビデオ録画方法は、フローチャートに示すようなステップに限定されるものではないことを理解できる。また、フローチャートに示すステップのうち、いくつかのステップは省略でき、ステップの間の順序も変更することができる。
ステップS10:第一画像取得モジュール100は、第一所定期間毎に、例えば、5分毎に、監視カメラ3によって撮影された第一画像を抽出する。
ステップS11:構築モジュール101は、予め構築されたモデルを介して、抽出した第一画像に対して領域検出を行い、目的対象が含まれる関心領域を抽出し、例えば、車両の部分領域又は全部領域である。
ここで、前記予め構築されたモデルは、畳み込みニューラルネットワーク(ConvolutionNeuralNetwork、CNN)モデルである。
前記予め構築されたモデルの生成は、以下のステップを備える。
各車両修理工場のデータベースから各車両修理位置の監視装置によって採集された予め設定された数量(例えば、10万枚)の修理位置画像を獲得する。現在の修理工場の監視ビデオが多くあるため、本実施形態において、その中から動画を選択し、且つキーフレームを抽出し、大量の画像を獲得する。採集された各写真の中の車両のある領域に対してレーベリングを行う。なお、レーベリングの過程において、矩形フレームで車両の位置をレーベリングし、且つラベルを表記してよい。この過程は、外部委託又は会社内部の手動でのレーベリングによって行い、レーベリングをされた車両のある領域は、関心領域である。レーベリングをされた車両のある領域の予め設定された数量の画像を用いて予め設定されたモデル構造のCNNモデルを訓練し、識別された画像の中の前記関心領域のCNNモデルを生成する。訓練の目的は、CNNネットワーク内の各重みの値を最適化し、ネットワークモデルを全体として前記関心領域の識別に実際に適用できるようにすることである。ネットワークモデルの合計は、七層を含み、それぞれは、五つの畳み込み層(Convolution)と、1つのプーリング層(Pooling)と1つの全結合層(Fully Connected)を含む。なお、畳み込み層は、複数の特徴量からなる特徴図によって生成され、特徴図の役割は、畳み込みフィルタを介して重要な特徴を抽出する。プーリング層の役割は、サンプリング方法に従って重複の特徴点を除き、特徴抽出の回数を減らし、ネットワーク層の間のデータ通信の効率を向上させることであり、使用できるサンプリング方法は、最大サンプリング法、平均サンプリング法、ランダムサンプリング法を含む。全結合層の役割は、前記畳み込み層とプーリング層を接続し、且つ重み行列を計算し、その後の実際な分類に用いられる。画像がモデルに入ると、各層は、順方向代入と逆方向代入の2つのプロセスを実行し、毎回の代入によって1つの確率分布を生成し、複数回代入された確率分布を重ね合わせ、システムは、確率分布における最大値である分類を最終的な分類結果とする。
ステップS12:選択モジュール102は、解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出する。
なお、前記解析ルールは、抽出された関心領域が予め設定された画素領域範囲に位置することがあるかどうかを解析し、例えば、予め設定された画素領域は、横座標領域範囲と縦座標領域範囲を含み、ここで、前記横座標領域範囲は(X1、X2)であり、前記縦座標領域範囲は、(Y1、Y2)であり、抽出された関心領域が予め設定された画素領域範囲に位置することがある場合、前記関心領域が前記目標領域であることを確認することである。前記解析ルールの原理は、修理工場の監視装置が、1つの修理位置に対応し、車両をレンズの主要領域(即ち、中央領域)に位置させ、従って、前記予め設定された画素領域範囲は、できるだけレンズの主要領域を含む。画素領域範囲は、大き過ぎることができず、複数の関心領域がその中に位置することを防止する。画素領域範囲はまた、小さ過ぎることができなく、関心領域がその中に入りづらくなることを防止する。手動によって前記横座標領域範囲と縦座標領域範囲を確認することができ、大き過ぎると、それを小さくし、小さ過ぎると、それを大きくする。
ステップS13:選択モジュール102は、少なくとも1つの目標領域を選出したかどうかを判定する。いずれの目標領域も選択されなかった場合、上述したステップS10に戻り、第一画像の抽出を再び行う。目標領域が選出された場合、下記のステップS14を実行する。
ステップS14:分割モジュール103は、分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割される。
なお、前記分割ルールは、均一分割方式を採用し、即ち分割されたサブ領域の面積のサイズと形状を一致させ、前記目標領域に対してサブ領域の分割を行い、前記目標領域は、N*N個のサブ領域に分割され、ここで、Nは、1より大きい正の整数であり、例えば、8*8である。N*N個のサブ領域を選択するが、目標領域全体ではなく、動作検出を行うのには、主に2つの考慮事項があり、第一に、精度であり、目標領域全体に対して画素値を比較する場合、微細動作が他の静態の領域によって平均化で失われかねず、このような微細動作を検出することができなくなってしまう。第二に、効率であり、動作が、ある領域だけで発生する場合、このサブ領域で動作が発生したことを検出すると、それに対応するフレームを保存することができ、他の領域を検出し続ける必要がない。例えば、1つの例において、8*8のサブ領域を例として、1番目のサブ領域で動作を検出すると、残りの63個のサブ領域を検出する必要がないため、効率を64倍に向上させることができる。
ステップS15:第二画像取得モジュール104は、第二所定期間毎に、例えば、0.5秒毎に、前記監視カメラ3によって撮影された第二画像を抽出する。
ステップS16:動作検出モジュール105は、前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定する。ステップS16の詳しい実施フローチャートは、下記の図5の説明を参照する。
ステップS17:動作検出モジュール105は、各サブ領域で行動事件が発生したかどうかを判定する。いずれかの1つのサブ領域で行動事件が発生した場合、下記のステップS18を実行する。
ステップS18:ビデオ録画モジュール106は、あるサブ領域で行動事件が発生した場合、前記監視カメラ3を制御して現在の抽出された第二画像からビデオを録画し始める。
図5に示すように、図4に係るステップS16、即ちビデオ録画方法の好ましい実施形態の各サブ領域で動作事件が発生したかどうかを判定する詳しい実施フローチャートである。本実施形態の前記ビデオ録画方法は、フローチャートに示すようなステップに限定されるものではないことを理解できる。また、フローチャートに示すステップのうち、いくつかのステップは省略でき、ステップの間の順序も変更することができる。
ステップS160:動作検出モジュール105は、現在の抽出された第二画像のその中の1つのサブ領域に位置する画像ブロックの各画素点の画素値を獲得する。
ステップS161:動作検出モジュール105は、現在の抽出された第二画像のその中の1つのサブ領域に位置する画像ブロックの各画素点の画素値と前回の抽出された第二画像の同じサブ領域に位置する画像ブロックに対応する画素点の画素値との差値を算出する。
ステップS162:動作検出モジュール105は、各サブ領域の画像ブロックに対応する全ての差値の合計を求め、算出した合計が前記画像ブロックの画素点の数量で除算され、各サブ領域の中の画像ブロックに対応する差値平均値を得る。
ステップS163:動作検出モジュール105は、サブ領域の中の画像ブロックに対応する差値平均値が予め設定された閾値より大きいかどうかを判定する。サブ領域の中の画像ブロックに対応する差値平均値が予め設定された閾値より大きい場合、ステップS164を実行する。さもなければ、サブ領域の中の画像ブロックに対応する差値平均値が予め設定された閾値より小さい場合、ステップS165を実行する。
ステップS164:動作検出モジュール105は、前記サブ領域で動作事件が発生したことを確認する。
ステップS165:動作検出モジュール105は、前記サブ領域で動作事件が発生していないことを確認し、且つ上述したステップS160に戻り、即ち動作検出モジュール105は、現在の抽出された第二画像の次のサブ領域に位置する画像ブロックの各画素点の画素値を獲得する。
この技術分野の技術者は理解できることは、上述した実施形態の方法の中の全体又は一部分のステップを実行することは、コンピュータプログラムによってハードウェアを命令して完成することもできる。前記プログラムは、コンピュータ読み取り可能な記憶媒体に格納され、前記プログラムが実行された時、上述したステップの実施形態のプロセスを含むことができる。前記コンピュータ読み取り可能な記憶媒体は、磁気ディスク、光ディスク、読み出し専用メモリ(Read Only Memory、ROM)などのような不揮発性記憶媒体であり、又はランダムアクセスメモリ(Random Access Memory、RAM)等々であることができる。
上述した各実施形態の技術特徴は任意に組み合わせることが可能であり、説明を簡潔にするために、各実施形態における各技術特徴の組み合わせは全て記載していないが、これらの技術特徴の組み合わせに矛盾がない限り、本明細書の範囲に属するべきである。
最後に説明すべきことは、以上の実施形態は、本発明の技術方案を説明するためだけで、限定を構成するものではないということである。好ましい実施形態を参照して詳細に説明したが、この技術分野の技術者は、本発明の技術方案に対して様々な変更と同等の代替を行うことができるが、本発明の精神と範囲を逸脱するものではないことを理解できる。

Claims (14)

  1. ビデオ録画方法であって、
    第一所定期間毎に、監視カメラによって撮影された第一画像を抽出するステップと、
    予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出するステップと、
    解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出するステップと、
    分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割されるステップと、
    第二所定期間毎に、前記監視カメラによって撮影された第二画像を抽出するステップと、
    前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定するステップと、
    あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始めるステップと、
    を備えることを特徴とするビデオ録画方法。
  2. 前記予め構築されたモデルは、畳み込みニューラルネットワークモデルであることを特徴とする請求項1に記載のビデオ録画方法。
  3. 前記解析ルールは、
    抽出された関心領域が予め設定された画素領域範囲に位置することがあるかどうかを解析し、予め設定された画素領域は、横座標領域範囲と縦座標領域範囲を含み、ここで、前記横座標領域範囲は(X1、X2)であり、前記縦座標領域範囲は、(Y1、Y2)であり、前記X1は、X1列目の画素点を表し、前記X2は、X2列目の画素点を表し、X1は、X2より小さく、前記Y1は、Y1行目の画素点を表し、Y2は、Y2行目の画素点を表し、且つY1は、Y2より小さく、
    抽出された関心領域が予め設定された画素領域範囲に位置することがある場合、前記関心領域が前記目標領域であることを確認することである
    ことを特徴とする請求項1に記載のビデオ録画方法。
  4. 前記分割ルールは、均一分割方式を採用して前記目標領域に対してサブ領域の分割を行い、前記目標領域は、N*N個のサブ領域に分割され、ここで、Nは、1より大きい正の整数であることを特徴とする請求項1に記載のビデオ録画方法。
  5. 各サブ領域で動作事件が発生したかどうかを判定するステップは、
    現在の抽出された第二画像のその中の1つのサブ領域に位置する画像ブロックの各画素点の画素値と前回の抽出された第二画像の同じサブ領域に位置する画像ブロックに対応する画素点の画素値との差値を算出するステップと、
    各サブ領域の画像ブロックに対応する全ての差値の合計を求め、算出した合計が前記画像ブロックの画素点の数量で除算され、各サブ領域の中の画像ブロックに対応する差値平均値を得るステップと、
    サブ領域の中の画像ブロックに対応する差値平均値が予め設定された閾値より大きい場合、前記サブ領域で動作事件が発生したことを確認するステップと、
    を備えることを特徴とする請求項1に記載のビデオ録画方法。
  6. 記憶装置及び処理器を備えるサーバーであって、
    前記記憶装置には、ビデオ録画システムが格納され、
    前記処理器は、前記ビデオ録画システムを実行することに用いられ、
    第一所定期間毎に、監視カメラによって撮影された第一画像を抽出するステップと、
    予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出するステップと、
    解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出するステップと、
    分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割されるステップと、
    第二所定期間毎に、前記監視カメラによって撮影された第二画像を抽出するステップと、
    前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生したかどうかを判定するステップと、
    あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始めるステップと、
    を実行することを特徴とするサーバー。
  7. 前記解析ルールは、抽出された関心領域が予め設定された画素領域範囲に位置することがあるかどうかを解析し、予め設定された画素領域は、横座標領域範囲と縦座標領域範囲を含み、ここで、前記横座標領域範囲は(X1、X2)であり、前記縦座標領域範囲は、(Y1、Y2)であり、抽出された関心領域が予め設定された画素領域範囲に位置することがある場合、前記関心領域が前記目標領域であることを確認することである
    ことを特徴とする請求項6に記載のサーバー。
  8. 前記分割ルールは、均一分割方式を採用して前記目標領域に対してサブ領域の分割を行い、前記目標領域は、N*N個のサブ領域に分割され、ここで、Nは、1より大きい正の整数であることを特徴とする請求項6に記載のサーバー。
  9. 各サブ領域で動作事件が発生したかどうかを判定するステップは、
    現在の抽出された第二画像のその中の1つのサブ領域に位置する画像ブロックの各画素点の画素値と前回の抽出された第二画像の同じサブ領域に位置する画像ブロックに対応する画素点の画素値との差値を算出するステップと、
    各サブ領域の画像ブロックに対応する全ての差値の合計を求め、算出した合計が前記画像ブロックの画素点の数量で除算され、各サブ領域の中の画像ブロックに対応する差値平均値を得るステップと、
    サブ領域の中の画像ブロックに対応する差値平均値が予め設定された閾値より大きい場合、前記サブ領域で動作事件が発生したことを確認するステップと、
    を備えることを特徴とする請求項6に記載のサーバー。
  10. ビデオ録画システムであって、
    第一所定期間毎に、監視カメラによって撮影された第一画像を抽出する第一画像取得モジュールと、
    予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出する構築モジュールと、
    解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出する選択モジュールと、
    分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割される分割モジュールと、
    第二所定期間毎に、前記監視カメラによって撮影された第二画像を抽出する第二画像取得モジュールと、
    前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生するかどうかを判定する動作検出モジュールと、
    あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始めるビデオ録画モジュールと、
    を備えることを特徴とするビデオ録画システム。
  11. 前記解析ルールは、
    抽出された関心領域が予め設定された画素領域範囲に位置することがあるかどうかを解析し、予め設定された画素領域は、横座標領域範囲と縦座標領域範囲を含み、ここで、前記横座標領域範囲は(X1、X2)であり、前記縦座標領域範囲は、(Y1、Y2)であり、前記X1は、X1列目の画素点を表し、前記X2は、X2列目の画素点を表し、X1は、X2より小さく、前記Y1は、Y1行目の画素点を表し、Y2は、Y2行目の画素点を表し、且つY1は、Y2より小さく、
    抽出された関心領域が予め設定された画素領域範囲に位置することがある場合、前記関心領域が前記目標領域であることを確認することである
    ことを特徴とする請求項10に記載のビデオ録画システム。
  12. 前記分割ルールは、均一分割方式を採用して前記目標領域に対してサブ領域の分割を行い、前記目標領域は、N*N個のサブ領域に分割され、ここで、Nは、1より大きい正の整数であることを特徴とする請求項10に記載のビデオ録画システム。
  13. 前記動作検出モジュールは、
    現在の抽出された第二画像のその中の1つのサブ領域に位置する画像ブロックの各画素点の画素値と前回の抽出された第二画像の同じサブ領域に位置する画像ブロックに対応する画素点の画素値との差値を算出し、
    各サブ領域の画像ブロックに対応する全ての差値の合計を求め、算出した合計が前記画像ブロックの画素点の数量で除算され、各サブ領域の中の画像ブロックに対応する差値平均値を得、
    サブ領域の中の画像ブロックに対応する差値平均値が予め設定された閾値より大きい場合、前記サブ領域で動作事件が発生したことを確認する
    ことに用いられることを特徴とする請求項10に記載のビデオ録画システム。
  14. コンピュータ読み取り可能な命令の記憶媒体であって、前記コンピュータ読み取り可能な命令は一つ又は複数の処理器によって、
    第一所定期間毎に、監視カメラによって撮影された第一画像を抽出するステップと、
    予め構築されたモデルを介して抽出した第一画像に対して領域検出を行い、目的対象の部分領域又は全部領域が含まれる関心領域を抽出するステップと、
    解析ルールに従って、前記関心領域で行動領域を選択し、目標領域を選出するステップと、
    分割ルールに従って、選出した目標領域を分割し、各目標領域は複数のサブ領域に分割されるステップと、
    第二所定期間毎に、前記監視カメラによって撮影された第二画像を抽出するステップと、
    前記第二画像で各サブ領域に位置する画像ブロックと前回の抽出された第二画像の同じサブ領域に位置する画像ブロックとを比較し、各サブ領域で行動事件が発生するかどうかを判定するステップと、
    あるサブ領域で行動事件が発生した場合、前記監視カメラを制御して現在の抽出された第二画像からビデオを録画し始めるステップと、
    を実行可能であることを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2018524835A 2016-04-14 2017-04-11 ビデオ録画方法、サーバー、システム及び記憶媒体 Active JP6425856B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610234956.7A CN106027931B (zh) 2016-04-14 2016-04-14 视频录制方法及服务器
CN201610234956.7 2016-04-14
PCT/CN2017/080113 WO2017177902A1 (zh) 2016-04-14 2017-04-11 视频录制方法、服务器、系统及存储介质

Publications (2)

Publication Number Publication Date
JP6425856B1 true JP6425856B1 (ja) 2018-11-21
JP2018535496A JP2018535496A (ja) 2018-11-29

Family

ID=57081964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018524835A Active JP6425856B1 (ja) 2016-04-14 2017-04-11 ビデオ録画方法、サーバー、システム及び記憶媒体

Country Status (8)

Country Link
US (1) US10349003B2 (ja)
EP (1) EP3445044B1 (ja)
JP (1) JP6425856B1 (ja)
KR (1) KR102155182B1 (ja)
CN (1) CN106027931B (ja)
AU (1) AU2017250159B2 (ja)
SG (1) SG11201800364YA (ja)
WO (1) WO2017177902A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106027931B (zh) 2016-04-14 2018-03-16 平安科技(深圳)有限公司 视频录制方法及服务器
CN107766829A (zh) * 2017-10-27 2018-03-06 浙江大华技术股份有限公司 一种物品检测的方法和设备
GB2569556B (en) * 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting motion deviation in a video sequence
GB2569557B (en) 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting motion deviation in a video
GB2569555B (en) * 2017-12-19 2022-01-12 Canon Kk Method and apparatus for detecting deviation from a motion pattern in a video
CN108737750A (zh) * 2018-06-07 2018-11-02 北京旷视科技有限公司 图像处理方法、装置及电子设备
CN109522814B (zh) * 2018-10-25 2020-10-02 清华大学 一种基于视频数据的目标追踪方法及装置
KR102021441B1 (ko) * 2019-05-17 2019-11-04 정태웅 인공지능을 이용한 영상 기반의 실시간 침입 감지 방법 및 감시카메라
CN112019868A (zh) * 2019-05-31 2020-12-01 广州虎牙信息科技有限公司 人像分割方法、装置及电子设备
CN110502986A (zh) * 2019-07-12 2019-11-26 平安科技(深圳)有限公司 识别图像中人物位置方法、装置、计算机设备和存储介质
JP7294927B2 (ja) * 2019-07-23 2023-06-20 ファナック株式会社 相違点抽出装置
KR102090739B1 (ko) * 2019-10-21 2020-03-18 주식회사 휴머놀러지 영상의 유사도 분석을 위해 영상 영역 격자 다분할을 이용하는 지능형 이동 감시 시스템 및 그 감시방법
CN111339879B (zh) * 2020-02-19 2023-06-02 安徽领云物联科技有限公司 一种兵器室单人入室监测方法及装置
CN111507896B (zh) * 2020-04-27 2023-09-05 抖音视界有限公司 图像液化处理方法、装置、设备和存储介质
CN111652128B (zh) * 2020-06-02 2023-09-01 浙江大华技术股份有限公司 一种高空电力作业安全监测方法、系统和存储装置
CN112203054B (zh) * 2020-10-09 2022-10-14 深圳赛安特技术服务有限公司 监控视频点位标注方法、装置、存储介质及电子设备
CN112601049B (zh) * 2020-12-08 2023-07-25 北京精英路通科技有限公司 视频的监控方法、装置、计算机设备及存储介质
CN114295058B (zh) * 2021-11-29 2023-01-17 清华大学 一种建筑结构的整面动位移的测量方法
CN114666497B (zh) * 2022-02-28 2024-03-15 青岛海信移动通信技术有限公司 成像方法、终端设备及存储介质
CN115314717B (zh) * 2022-10-12 2022-12-20 深流微智能科技(深圳)有限公司 视频传输方法、装置、电子设备和计算机可读存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8711217B2 (en) * 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
CN100426837C (zh) * 2005-05-10 2008-10-15 北京中星微电子有限公司 一种监控摄像方法及装置
CN100495438C (zh) * 2007-02-09 2009-06-03 南京大学 一种基于视频监控的运动目标检测与识别方法
JP5134556B2 (ja) * 2009-01-08 2013-01-30 株式会社日立製作所 監視記録装置、監視システムおよび監視記録方法
JP2011035663A (ja) * 2009-07-31 2011-02-17 Panasonic Corp 監視装置および監視方法
JP5358851B2 (ja) * 2009-11-12 2013-12-04 将文 萩原 不審行動検知方法および不審行動検知装置
US8660368B2 (en) * 2011-03-16 2014-02-25 International Business Machines Corporation Anomalous pattern discovery
US11470285B2 (en) * 2012-02-07 2022-10-11 Johnson Controls Tyco IP Holdings LLP Method and system for monitoring portal to detect entry and exit
AU2012227263A1 (en) * 2012-09-21 2014-04-10 Canon Kabushiki Kaisha Differentiating abandoned and removed object using temporal edge information
JP5954106B2 (ja) * 2012-10-22 2016-07-20 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
KR102003671B1 (ko) * 2012-10-29 2019-07-25 삼성전자주식회사 영상 처리 방법 및 장치
US9521377B2 (en) * 2013-10-08 2016-12-13 Sercomm Corporation Motion detection method and device using the same
KR102015954B1 (ko) * 2014-03-21 2019-08-29 한화테크윈 주식회사 영상 처리 시스템 및 영상 처리 방법
KR101681233B1 (ko) * 2014-05-28 2016-12-12 한국과학기술원 저 에너지/해상도 가지는 얼굴 검출 방법 및 장치
US20160042621A1 (en) * 2014-06-13 2016-02-11 William Daylesford Hogg Video Motion Detection Method and Alert Management
CN104270619B (zh) * 2014-10-22 2018-05-18 中国建设银行股份有限公司 一种安全告警方法及装置
CN104601918B (zh) * 2014-12-29 2018-02-06 小米科技有限责任公司 视频录制方法和装置
US10481696B2 (en) * 2015-03-03 2019-11-19 Nvidia Corporation Radar based user interface
US20170076195A1 (en) * 2015-09-10 2017-03-16 Intel Corporation Distributed neural networks for scalable real-time analytics
CN105279898A (zh) * 2015-10-28 2016-01-27 小米科技有限责任公司 报警方法及装置
CN106027931B (zh) 2016-04-14 2018-03-16 平安科技(深圳)有限公司 视频录制方法及服务器
US10437878B2 (en) * 2016-12-28 2019-10-08 Shutterstock, Inc. Identification of a salient portion of an image

Also Published As

Publication number Publication date
CN106027931B (zh) 2018-03-16
EP3445044A4 (en) 2019-09-18
KR102155182B1 (ko) 2020-09-11
AU2017250159A1 (en) 2017-11-23
JP2018535496A (ja) 2018-11-29
SG11201800364YA (en) 2018-02-27
US10349003B2 (en) 2019-07-09
KR20180133379A (ko) 2018-12-14
US20180227538A1 (en) 2018-08-09
EP3445044A1 (en) 2019-02-20
AU2017250159B2 (en) 2018-07-26
EP3445044B1 (en) 2020-07-29
CN106027931A (zh) 2016-10-12
WO2017177902A1 (zh) 2017-10-19

Similar Documents

Publication Publication Date Title
JP6425856B1 (ja) ビデオ録画方法、サーバー、システム及び記憶媒体
CN109886078B (zh) 目标对象的检索定位方法和装置
US20180114071A1 (en) Method for analysing media content
JP2017033554A (ja) ビデオデータ分析方法、装置及び駐車場モニタリングシステム
CN111372037B (zh) 目标抓拍系统和方法
CN101640788B (zh) 一种监控控制方法、装置及监控系统
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
CN106295598A (zh) 一种跨摄像头目标跟踪方法及装置
CN112703533A (zh) 对象跟踪
JP6013923B2 (ja) ビデオエピソードの閲覧及び検索のためのシステム及び方法
JP6551226B2 (ja) 情報処理システム、情報処理方法及びプログラム
Zhang et al. Multi-target tracking of surveillance video with differential YOLO and DeepSort
CN110136091B (zh) 图像处理方法及相关产品
US11657623B2 (en) Traffic information providing method and device, and computer program stored in medium in order to execute method
CN105185121A (zh) 一种虚拟卡口并行识别车牌的方法
CN113496208B (zh) 视频的场景分类方法及装置、存储介质、终端
CN113891072A (zh) 基于亿级像素数据的视频监测与异常分析系统与方法
CN115760912A (zh) 运动目标跟踪方法、装置、设备及计算机可读存储介质
CN113112479A (zh) 基于关键区块提取的渐进式目标检测方法和装置
KR101826669B1 (ko) 동영상 검색 시스템 및 그 방법
CN108334811B (zh) 一种人脸图像处理方法及装置
Seidenari et al. Non-parametric anomaly detection exploiting space-time features
CN111277745B (zh) 目标人员的追踪方法、装置、电子设备及可读存储介质
EP2570962A1 (en) Video analysis
CN111739054A (zh) 目标跟踪标记方法、系统、电子设备及可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180511

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180511

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181023

R150 Certificate of patent or registration of utility model

Ref document number: 6425856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250