JP2021077314A - 特定のシーンの有効分析領域を評価する方法およびシステム - Google Patents

特定のシーンの有効分析領域を評価する方法およびシステム Download PDF

Info

Publication number
JP2021077314A
JP2021077314A JP2020008289A JP2020008289A JP2021077314A JP 2021077314 A JP2021077314 A JP 2021077314A JP 2020008289 A JP2020008289 A JP 2020008289A JP 2020008289 A JP2020008289 A JP 2020008289A JP 2021077314 A JP2021077314 A JP 2021077314A
Authority
JP
Japan
Prior art keywords
analysis
particular scene
effective analysis
different
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020008289A
Other languages
English (en)
Inventor
ゼー−ヤオ・ニ
Sze-Yao Ni
クオ−チェン・ウ
Kuo-Chen Wu
ウェン−ユエ・シュウ
Wen-Yueh Chiu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gorilla Technology Inc
Original Assignee
Gorilla Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gorilla Technology Inc filed Critical Gorilla Technology Inc
Publication of JP2021077314A publication Critical patent/JP2021077314A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】画像解析技術に基づいて、特定のシーンの有効分析領域を評価する新規の方法を提供する。【解決手段】特定のシーンの有効分析領域を評価する方法およびシステムであって、方法およびシステムは、特定のシーンの実際の監視、処理、および分析中の画像分析の全体的なデータ負荷を減らすため、閉じた有効分析領域を生成して、検出可能なオブジェクトまたはイベントの情報を得るため、特定のシーンの連続画像フレームに対して画像分析を行う。【選択図】図4

Description

関連出願の相互参照
本出願は、その開示が参照によってその全体として本明細書に組み込まれる、2019年11月8日に出願された台湾出願第108140699号に基づき優先権を主張する。
本発明は、有効分析領域を評価するための方法に関し、より詳細には、特定のシーンの有効分析領域を評価するための方法に関する。
近年、監視カメラの数が増加するとともに、人の形の検出、車両検出、背景検出、および異常な挙動の分析などといった、画像解析のための用途も急速に増加している。しかし、現場の人員は、画像解析技術に基づいて特定のシーンの有効分析領域を画成するための、十分なツール、経験、または専門知識を持たないことが多く、結果として、特定のシーンの画像が分析要件を満たすかを検証するのは、困難である。従来、有効分析領域の設定は、試行錯誤の繰り返しを伴う現場の人員の経験に頼っており、このことは、多くの人的資源を必要とするだけでなく、正しい有効分析領域を得ることができると保証することもできない。
したがって、産業は、画像解析技術に基づいて特定のシーンの有効分析領域を評価する新たな方法を必要としている。
本発明の一つの目的は、特定のシーンの実際の監視、処理、および分析中の、画像分析の負荷を減らすために、特定のシーンの有効分析領域を評価する方法を提供することである。
本発明の他の目的は、現場の人員が特定のシーンを監視するための検出条件を設定するのを支援するために、特定のシーンの有効分析領域を評価する方法を提供することである。
本発明の一実施形態では、特定のシーンの有効分析領域を評価するための方法が開示され、方法は、指定される時間間隔内の特定のシーンの、複数の連続画像フレームを抽出するステップと、複数の連続画像フレームに対し、その中の検出可能なオブジェクトまたはイベントの情報を得るため、画像分析を行うステップと、特定のシーンの実際の監視、処理、および分析中の画像分析の全体的なデータ負荷を減らすため、検出可能なオブジェクトまたはイベントの情報に基づき、閉じた有効分析領域を生成するステップとを含む。
一実施形態では、方法は、ユーザが特定のシーンを監視するための検出条件を設定することを支援するため、モニタ上に、閉じた有効分析領域を表示するステップをさらに含む。
一実施形態では、方法は、特定のシーンを監視するための検出条件を自動的に設定するステップをさらに含む。
一実施形態では、検出条件は、閉じた有効分析領域における線分である。
一実施形態では、検出条件は、閉じた有効分析領域のサブ領域である。
一実施形態では、オブジェクトは人を含む。
一実施形態では、オブジェクトまたはイベントの情報は、人の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む。
一実施形態では、オブジェクトは車両を含む。
一実施形態では、オブジェクトまたはイベントの情報は、車両の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む。
一実施形態では、方法は、異なる時間間隔において、特定のシーンの異なる有効分析領域をそれぞれ得るために、前記異なる時間間隔における特定のシーンの画像を分析するステップから得られるオブジェクトまたはイベントの情報を区別するステップをさらに含む。
一実施形態では、方法は、異なる輝度のレベルにおける特定のシーンの異なる有効分析領域をそれぞれ得るために、前記異なる輝度のレベルにおける特定のシーンの画像を分析するステップから得られるオブジェクトまたはイベントの情報を区別し、それぞれつなげるステップをさらに含む。
一実施形態では、方法は、ユーザが異なる検出技術を選択するのを支援するステップをさらに含む。
本発明の一実施形態では、特定のシーンの有効分析領域を評価するためのシステムが開示され、システムは、時間間隔内の特定のシーンの、複数の連続画像フレームを抽出するための抽出モジュールと、複数の連続画像フレームに対し、その中の検出可能なオブジェクトまたはイベントの情報を得るため、画像分析を行う分析モジュールと、特定のシーンの実際の監視、処理、および分析中画像分析の全体的なデータ負荷を減らすため、検出可能なオブジェクトまたはイベントの情報にしたがって閉じた有効分析領域を生成するための学習モジュールとを備える。
一実施形態では、システムは、ユーザが特定のシーンを監視するための検出条件を設定することを支援するため、モニタ上に、閉じた有効分析領域を表示するための設定モジュールをさらに備える。
一実施形態では、システムは、特定のシーンを監視するための検出条件を自動的に設定する。
一実施形態では、検出条件は、閉じた有効分析領域における線分である。
一実施形態では、検出条件は、閉じた有効分析領域のサブ領域である。
一実施形態では、オブジェクトは人を含む。
一実施形態では、オブジェクトまたはイベントの情報は、人の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む。
一実施形態では、オブジェクトは車両を含む。
一実施形態では、オブジェクトまたはイベントの情報は、車両の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む。
一実施形態では、学習モジュールは、異なる時間間隔において、特定のシーンの異なる有効分析領域をそれぞれ得るように、異なる時間間隔における特定のシーンを分析することから得られるオブジェクトまたはイベントの情報を区別することをさらに含む。
一実施形態では、システムは、ユーザが異なる検出技術を選択するのを支援することをさらに含む。
添付図面は、本発明のさらなる理解をもたらすために含まれており、本明細書に組み込まれて、本明細書の一部を構成する。図面は、本発明の実施形態を図示し、明細書の記載とともに、本発明の原理を説明するのに役立つ。
本発明の一実施形態による特定のシーンの有効分析領域を評価するための方法を示すフローチャートである。 本発明の一実施形態による特定のシーンの有効分析領域を評価するための方法のグラフィックな例を示す図である。 本発明の他の実施形態による特定のシーンの有効分析領域を評価するための方法のグラフィックな例を示す図である。 本発明の一実施形態による特定のシーンの有効分析領域を評価するためのシステムを図示する概略図である。 本発明の他の実施形態による特定のシーンの有効分析領域を評価するためのシステムを図示する概略図である。 本発明の他の実施形態による特定のシーンの有効分析領域を評価するためのシステムを図示する概略図である。 本発明の他の実施形態による特定のシーンの有効分析領域を評価するためのシステムを図示する概略図である。 本発明の他の実施形態による特定のシーンの有効分析領域を評価するためのシステムを図示する概略図である。
本発明の、上記ならびに他の技術的内容、特徴、および効果は、図面の好ましい実施形態を参照して、以下の詳細な記載からはっきり明らかとなろう。しかし、以下の実施形態は、本発明を限定する意図はないことに留意されたい。
特定のシーンの視野角、画像品質、視野の深度、およびスクリーンの歪に依存して、同じ画像解析技術に基づく、異なるシーンの有効分析領域は、異なる場合がある。以下の利点を得ることができるために、正しい有効分析領域を構成することが非常に重要である。利点とは、すなわち、(1)画像分析が必要でない領域を除外することによって、画像分析の正確さを著しく改善することができること、(2)画像分析が必要でない領域を除外することによって、画像分析の速度もまた著しく改善することができることである。
図1は、本発明の一実施形態による、特定のシーンの有効分析領域を評価するための方法のフローチャートを示し、特定のシーンを実際に監視し、処理し、分析する期間中の画像分析の全体的なデータ負荷を減らすために、方法は、時間間隔中の特定のシーンの複数の連続画像フレームを抽出するステップS101と、その中の検出可能なオブジェクトまたはイベントの情報を得るため、複数の連続画像フレームに対して画像分析を行うステップS102と、検出可能なオブジェクトまたはイベントの情報に基づき、閉じた有効分析領域を生成するステップS103とを含む。
一実施形態では、オブジェクトは人を含む。
一実施形態では、オブジェクトまたはイベントの情報は、人の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む。
一実施形態では、オブジェクトは車両を含む。
一実施形態では、オブジェクトまたはイベントの情報は、車両の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む。
一実施形態では、オブジェクトのうちの1つは、特定のタイプの人である。
一実施形態では、オブジェクトのうちの1つは、特定のタイプの車両である。
一実施形態では、オブジェクトのうちの1つは、船、航空機、機械などである。
一実施形態では、オブジェクトのうちの1つは、動物(家畜、ペット、昆虫など)である。
一実施形態では、オブジェクトのうちの1つは、自然現象または病理学的現象などである。
一実施形態では、方法は、ユーザが特定のシーンを監視するための検出条件を設定するのを支援するため、モニタ上に、閉じた有効分析領域を表示するステップをさらに含む。
一実施形態では、方法は、特定のシーンを監視するための検出条件を自動的に設定するステップをさらに含む。
一実施形態では、検出条件は、閉じた有効分析領域における線分である。
一実施形態では、検出条件は、閉じた有効分析領域のサブ領域である。
一実施形態では、方法は、ユーザが異なる検出技術を選択するのを支援するステップをさらに含み、たとえば、検出技術Aは、オートバイについてはより大きい有効分析領域を有するが、車についてはより小さい有効分析領域を有し、検出技術Bは、逆であり、ユーザは、オートバイまたは車を検出するために対応する検出技術AまたはBを選択することができる(台湾では、オートバイのための特別な交通規則がある)。
一実施形態では、方法は、異なる時間間隔における特定のシーンの異なる有効分析領域をそれぞれ得るために、異なる時間間隔における特定のシーンを分析するステップから得られるオブジェクトまたはイベントの情報を区別することをさらに含む。
一実施形態では、方法は、異なる輝度のレベルにそれぞれ対応する特定のシーンの異なる有効分析領域を得るために、異なる輝度のレベルにおける特定のシーンを分析するステップから得られるオブジェクトまたはイベントの情報を区別し、それぞれつなげるステップをさらに含む。
図2は、本発明の一実施形態による特定のシーンの有効分析領域を評価するための方法を示す。図2および図4を参照のこと。この実施形態では、人の検出は、特定のシーンを監視するための魚眼レンズを有するカメラによって捕捉された複数の連続画像フレームに上で行われ、検出結果は、以下の分析結果を得るために学習モジュールに送信される。
特定のシーンの連続画像フレーム100:店舗またはスーパーマーケット200Aなどの特定のシーンを監視するカメラから得られる。
抽出モジュール101:時間間隔中に、複数の連続画像フレームを抽出する。
分析モジュール102:店舗またはスーパーマーケット200Aの複数の連続画像フレームに対し、その中の検出可能なオブジェクトまたはイベントの情報を得るため、画像分析を行う。一実施形態では、分析モジュール102は、人の検出のため、ディープラーニングネットワークのSSD(Single Shot MultiBox Detector:シングルショットマルチボックス検出器)に基づくオブジェクト検出器を使用することができる。
学習モジュール103:図2のフレーム200Bは、分析情報が抽出される領域を表し、図2の領域200Cは、分析情報によって生成される有効分析領域を表し、図2のフレーム200Dは、有効分析領域の境界フレームを表す。
分析モジュール102および学習モジュール103は、同じデバイスの中、または異なるデバイスの中に配置されうる。一実施形態では、異なる検出技術または異なるディープラーニングネットワークモデルを有する複数の分析モジュールは、オブジェクトを検出するため、および、学習モジュールに検出結果を提供するために使用されうる。学習モジュールは、分析結果を比較して、有効分析領域およびその境界フレームを生成することができ、最良の検出速度または最良の検出範囲を有する検出技術またはディープラーニングネットワークモデルが自動的に選択されうる。特定のタイプもしくはサイズのオブジェクト、またはイベントの情報を検出するため、学習モジュールは、特定のタイプもしくはサイズのオブジェクト、またはイベントの情報を、その有効分析領域および境界フレームを生成するために、処理することだけができる。
図3は、本発明の一実施形態による特定のシーンの有効分析領域を評価するための方法を図示する。異なる時間間隔および異なる天気および他の要因によって、光と影、ならびに環境の輝度のレベルに何らかの違いが生じることになり、結果として、検出速度が影響を受ける場合があり、たとえば、暗い領域のオブジェクトが効果的に検出されない場合がある。学習モジュールは、異なる輝度のレベルおよび異なる時間間隔にそれぞれ対応する特定のシーンの異なる有効分析領域を得るために、異なる輝度のレベルまたは異なる時間間隔における特定のシーンを分析することから得られるオブジェクトまたはイベントの情報をさらに区別し、それぞれつなげることができる。得られる有効分析領域は、異なる輝度のレベルおよび時間間隔における特定のシーンを監視するための、監視デバイスのデフォルトROI(region of interest、対象領域、画像分析が実際に実施される)として使用されえ、または異なる輝度のレベルもしくは時間間隔における特定のシーンを監視するため、異なるROIまたは線分もまた、ユーザによって構成されうる。
図3中の300Aは特定のシーンを表し、図3中のフレーム300Bは、分析情報が抽出される領域を表し、図3の線分300Cは、この輝度のレベルまたは時間間隔における有効検出線分を表し、図3の線分300Dは、この輝度のレベルまたは時間間隔における無効検出線分を表す。
ある特定の領域には、人のようなオブジェクトとして容易に検出される可能性がある人間の形をした見本または立った姿勢の人形など、何らかの予期されないオブジェクトまたはイベントが存在する可能性があり、加えて、ある特定のオブジェクトの形状もまた誤った検出を引き起こす可能性があるので、学習モジュールは、有効分析領域からそれらを除外するように、オブジェクトの発生の時間、追跡した動きの経路、およびサイズによって、予期されないオブジェクトまたはイベントを区別することができる。
図4は、本発明の一実施形態による特定のシーンの有効分析領域を評価するためのシステムの概略図を示す。システムは、特定のシーンにおける時間間隔内の複数の連続画像100を抽出するための抽出モジュール101と、複数の連続画像に対し、その中の検出可能なオブジェクトまたはイベントの情報を得るため、画像分析を行うための分析モジュール102と、特定のシーンの実際の監視、処理、および分析中の画像分析の全体的なデータを減らすため、検出可能なオブジェクトまたはイベントの情報にしたがって、閉じた有効分析領域121を生成するための学習モジュール103とを備える。
一実施形態では、分析モジュールと学習モジュールは、同じデバイスの中に配置される。
一実施形態では、分析モジュールと学習モジュールは、異なるデバイスの中に配置される。
一実施形態では、システムは、ユーザが特定のシーンを監視するための検出条件を設定するのを支援するため、モニタ上に、閉じた有効分析領域を表示することをさらに含む。
一実施形態では、システムは、特定のシーンを監視するための検出条件を自動的に設定することをさらに含む。
一実施形態では、検出条件は、閉じた有効分析領域における線分である。
一実施形態では、検出条件は、閉じた有効分析領域のサブ領域である。
一実施形態では、システムは、ユーザが異なる検出技術を選択するのを支援することをさらに含む。たとえば、検出技術Aは、オートバイについてはより大きい有効分析領域を有するが、車についてはより小さい有効分析領域を有し、検出技術Bでは逆であって、ユーザが、オートバイまたは車を検出するために対応する検出技術AまたはBを選択することができる。
一実施形態では、オブジェクトは人を含む。
一実施形態では、オブジェクトまたはイベントの情報は、人の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む。
一実施形態では、オブジェクトは車両を含む。
一実施形態では、オブジェクトまたはイベントの情報は、車両の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む。
一実施形態では、オブジェクトは、特定のタイプの人または車両を含む。
一実施形態では、オブジェクトは、船、航空機、機械などを含む。
一実施形態では、オブジェクトは、動物(家畜、ペット、昆虫など)を含む。
一実施形態では、オブジェクトは、自然現象または病理学的現象などを含む。
一実施形態では、学習モジュールは、異なる時間間隔において、特定のシーンの異なる有効分析領域をそれぞれ得るために、前記異なる時間間隔における特定のシーンを分析することから得られるオブジェクトまたはイベントの情報を区別することをさらに含む。
一実施形態では、学習モジュールは、異なる輝度のレベルにおける特定のシーンの異なる有効分析領域をそれぞれ得るために、異なる輝度のレベルにおける特定のシーンを分析することから得られるオブジェクトまたはイベントの情報を区別し、それぞれつなげることをさらに含む。
図5は、本発明の他の実施形態による特定のシーンの有効分析領域を評価するためのシステムの概略図を図示する。システムは、特定のシーン106における、時間間隔内の複数の連続画像フレームを抽出するための抽出モジュール101と、検出可能なオブジェクトまたはイベントの情報を得るため、複数の連続画像フレームに対して画像分析を行う分析モジュール102と、特定のシーンの実際の監視、処理、および分析中の監視デバイス105の画像分析の全体的なデータ負荷を減らすため、検出可能なオブジェクトまたはイベントの情報にしたがって、閉じた有効分析領域を生成するための学習モジュール103と、ユーザが特定のシーンを監視するための検出条件を設定することを支援するため、モニタ上に、閉じた有効分析領域を表示するための設定モジュール104とを備える。
分析モジュール102、学習モジュール103、および設定モジュール104は、同じデバイス、または異なるデバイス中に配置することができる。
図6に示されるように、設定モジュール104は、実際に監視している監視デバイス107の中に特定のシーンを配置することができる。
実際に監視されている特定のシーンの複数の連続画像フレームが時間間隔内に取得され、画像分析を行っている期間にオブジェクトが動く場合がある。たとえば、シーンが道路の交差点であり、目標オブジェクトが車両である場合、検出プロセスは、道路の交差点における様々な場所に現れる様々なタイプの車両を検出することになる。特定のシーンの複数の連続画像フレームは、ライブ動画または予め録画した動画であってよく、複数の連続画像フレームは、規定される制限時間を有する動画セグメント、または分析および学習のための連続動画であってよい。
図7は、本発明の他の実施形態による特定のシーンの有効分析領域を評価するためのシステムの概略図を図示する。システムは、特定のシーン106における、時間間隔内の複数の連続画像フレームを抽出するための抽出モジュール101と、複数の連続画像フレームに対して、その中の検出可能なオブジェクトまたはイベントの情報を得るため、画像分析を行う分析モジュール102と、特定のシーンの実際の監視、処理、および分析中の画像分析の全体的なデータ負荷を減らすため、検出可能なオブジェクトまたはイベントの情報にしたがって、閉じた有効分析領域を生成するための学習モジュール103と、モニタ上に、閉じた有効分析領域を表示し、ユーザが特定のシーンを監視するための検出条件を設定することを支援するための設定モジュールを有する監視デバイス107とを備える。
分析モジュール102および学習モジュール103は、同じデバイス、または異なるデバイス中に配置することができる。
分析モジュールは、異なるタイプのオブジェクトおよびイベントの情報110、111を検出するため画像解析技術に基づいた検出器109を使用することができる。分析モジュールの検出器109は、オブジェクトのタイプ、オブジェクトの位置、オブジェクトのサイズ、オブジェクトのタイムスタンプ、もしくはオブジェクトの追跡した動きの経路を含む、検出可能なオブジェクトまたはイベントの情報を検出してエクスポートすることができる。
学習モジュール103は、分析結果からオブジェクトまたはイベントの情報を得る。分析結果から得られるオブジェクトの位置またはイベントの情報は、閉じた領域112を生成するためにつなげられる。閉じた領域112は、有効分析領域113と呼ばれ、閉じた領域112の境界フレーム114が得られる。学習モジュール103は、特定のシーンの中のすべてのオブジェクトもしくはイベントの情報、または特定のシーンの中のオブジェクトもしくはイベントの情報の、特定のタイプもしくはサイズを使用することができる。閉じた領域112の境界フレーム114は、監視デバイス105/107によって、デフォルトROI116(対象領域、分析が実際に実施される領域)として使用されえ、あるいは、学習モジュール103は、有効分析領域113をモニタ上に表示することによって、ユーザがROI117または交差線分115を構成するのを支援することができる。ユーザによって引かれるROIが閉じた領域112の境界フレーム114の外側である場合、システムは、警告を出すことができ、ユーザによって引かれる検出線が閉じた領域112の境界フレーム114の外側である場合、システムはやはり警告を出すことができる。
図8は、本発明の他の実施形態による特定のシーンの有効分析領域を評価するためのシステムの概略図を示す。システムは、特定のシーンにおける、時間間隔内の複数の連続画像フレームを抽出するための抽出モジュール101と、検出可能なオブジェクトまたはイベントの情報を得るため、複数の連続画像フレームに対して画像分析を行う複数の分析モジュール102Aおよび102Bと、特定のシーンの実際の監視、処理、および分析中の画像分析の全体的なデータ負荷を減らすため、検出可能なオブジェクトまたはイベントの情報にしたがって、閉じた有効分析領域を生成するための学習モジュール103と、ユーザが特定のシーンを監視するための検出条件を設定することを支援するために、モニタ上に、閉じた有効分析領域を表示するための設定モジュール104とを備える。分析モジュール102Aおよび102B、学習モジュール103、ならびに設定モジュール104は、同じデバイス、または異なるデバイスの中に配置されうる。
本発明は、好ましい実施形態に関連して記載されてきたが、本発明の範囲を限定する意図はない。任意の当業者なら、本発明の精神および範囲から逸脱することなく、何らかの変更および修正を行うことができる。したがって、本発明の特許保護の範囲は、ここに添付される特許出願の範囲の規定にしたがうものとする。
100 特定のシーン、複数の連続画像
101 抽出モジュール
102 分析モジュール
102A 分析モジュール1
102B 分析モジュールN
103 学習モジュール
104 設定モジュール
105 監視デバイス
106 特定のシーン
107 設定モジュールを有する監視デバイス
109 画像解析技術に基づいた検出器
110 分析情報1
111 分析情報N
112 閉じた領域生成器
113 有効分析領域
114 閉じた領域の境界フレーム
115 交差線分
116 デフォルトROI
117 ROI
200A 店舗、スーパーマーケット
200B フレーム
200C 領域
200D フレーム
300A 特定のシーン
300B フレーム
300C 線分
300C 線分

Claims (20)

  1. 特定のシーンの有効分析領域を評価するための方法であって、
    時間間隔中の特定のシーンの複数の連続画像フレームを抽出するステップと、
    前記複数の連続画像フレーム中の検出可能なオブジェクトまたはイベントの情報を得るため、前記複数の連続画像フレームに対して画像分析を行うステップと、
    前記特定のシーンの実際の監視、処理、および分析中の画像分析の全体的なデータ負荷を減らすため、検出可能なオブジェクトまたはイベントの情報に基づき、閉じた有効分析領域を生成するステップと
    を含む、方法。
  2. ユーザが前記特定のシーンを監視するための検出条件を設定することを支援するため、モニタ上に、前記閉じた有効分析領域を表示するステップをさらに含む、請求項1に記載の方法。
  3. 前記検出条件は、前記閉じた有効分析領域における線分である、請求項2に記載の方法。
  4. 前記検出条件は、前記閉じた有効分析領域のサブ領域である、請求項2に記載の方法。
  5. 前記オブジェクトは、人または車両を含む、請求項1に記載の方法。
  6. 前記オブジェクトまたはイベントの情報は、人もしくは車両の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む、請求項5に記載の方法。
  7. 異なる時間間隔において、前記特定のシーンの異なる有効分析領域をそれぞれ得るために、前記異なる時間間隔における前記特定のシーンを分析するステップから得られる前記オブジェクトまたはイベントの情報を区別するステップをさらに含む、請求項1に記載の方法。
  8. 異なる輝度のレベルにそれぞれ対応する前記特定のシーンの異なる有効分析領域を得るために、前記異なる輝度のレベルにおける前記特定のシーンを分析するステップから得られる前記オブジェクトまたはイベントの情報を区別し、それぞれつなげるステップをさらに含む、請求項1に記載の方法。
  9. 前記特定のシーンを監視するための検出条件を自動的に設定するステップをさらに含む、請求項1に記載の方法。
  10. ユーザが異なる検出技術を選択するのを支援することをさらに含む、請求項1に記載の方法。
  11. 画像の有効分析領域を評価するためのシステムであって、
    特定のシーンにおける時間間隔内の複数の連続画像フレームを抽出するための抽出モジュールと、
    前記複数の連続画像フレームに対し、その中の検出可能なオブジェクトまたはイベントの情報を得るため、画像分析を行う分析モジュールと、
    前記特定のシーンの実際の監視、処理、および分析の画像分析の全体的なデータ負荷を減らすため、前記検出可能なオブジェクトまたはイベントの情報にしたがって、閉じた有効分析領域を生成するための学習モジュールと
    を備える、システム。
  12. ユーザが前記特定のシーンを監視するための検出条件を設定することを支援するため、モニタ上に、前記閉じた有効分析領域を表示するための設定モジュールをさらに備える、請求項11に記載のシステム。
  13. 前記検出条件は、前記閉じた有効分析領域における線分である、請求項12に記載のシステム。
  14. 前記検出条件は、前記閉じた有効分析領域のサブ領域である、請求項12に記載のシステム。
  15. 前記オブジェクトは、人または車両を含む、請求項11に記載のシステム。
  16. 前記オブジェクトまたはイベントの情報は、人もしくは車両の位置、サイズ、タイムスタンプまたは追跡される動きの経路を含む、請求項15に記載のシステム。
  17. 前記学習モジュールは、異なる時間間隔において、前記特定のシーンの異なる有効分析領域をそれぞれ得るために、前記異なる時間間隔における前記特定のシーンを分析することから得られるオブジェクトまたはイベントの情報を区別することをさらに含む、請求項11に記載のシステム。
  18. 前記学習モジュールは、異なる輝度のレベルにおける前記特定のシーンの異なる有効分析領域をそれぞれ得るために、前記異なる輝度のレベルにおける前記特定のシーンを分析することから得られる前記オブジェクトまたはイベントの情報を区別し、それぞれつなげることをさらに含む、請求項11に記載のシステム。
  19. 前記特定のシーンを監視するための検出条件を自動的に設定するための設定モジュールをさらに備える、請求項11に記載のシステム。
  20. ユーザが異なる検出技術を選択するのを支援するための設定モジュールをさらに備える、請求項11に記載のシステム。
JP2020008289A 2019-11-08 2020-01-22 特定のシーンの有効分析領域を評価する方法およびシステム Pending JP2021077314A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW108140699 2019-11-08
TW108140699A TWI739203B (zh) 2019-11-08 2019-11-08 一種評估影像有效分析區域之方法與系統

Publications (1)

Publication Number Publication Date
JP2021077314A true JP2021077314A (ja) 2021-05-20

Family

ID=75847000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020008289A Pending JP2021077314A (ja) 2019-11-08 2020-01-22 特定のシーンの有効分析領域を評価する方法およびシステム

Country Status (3)

Country Link
US (1) US20210142481A1 (ja)
JP (1) JP2021077314A (ja)
TW (1) TWI739203B (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016120A (ja) * 2017-07-06 2019-01-31 オムロン株式会社 見守り支援システム及びその制御方法
WO2019187552A1 (ja) * 2018-03-29 2019-10-03 京セラドキュメントソリューションズ株式会社 監視システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI226189B (en) * 2003-03-28 2005-01-01 Nat Univ Chung Cheng Method for automatically detecting region of interest in the image
US7242423B2 (en) * 2003-06-16 2007-07-10 Active Eye, Inc. Linking zones for object tracking and camera handoff
WO2005036494A2 (en) * 2003-10-06 2005-04-21 E-Views Safety Systems, Inc. Detection and enforcement of failure-to-yield in an emergency vehicle preemption system
DE102008004369A1 (de) * 2008-01-15 2009-07-16 Robert Bosch Gmbh Überwachungsmodul für ein Videoüberwachungssystem, Verfahren zur Zustandsüberwachung eines Überwachungsbereichs sowie Computerprogramm
US11074495B2 (en) * 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
MX2015000035A (es) * 2012-07-04 2015-08-05 Repsol Sa Sistema integrado de deteccion temprana de hidrocarburos en un medio acuoso.
US10565455B2 (en) * 2015-04-30 2020-02-18 Ants Technology (Hk) Limited Methods and systems for audiovisual communication
US9953448B2 (en) * 2016-01-26 2018-04-24 Sony Corporation Method and system for image processing
TWI642302B (zh) * 2016-08-02 2018-11-21 神準科技股份有限公司 自動設定方法與人流計數方法
US10586433B2 (en) * 2017-02-13 2020-03-10 Google Llc Automatic detection of zones of interest in a video
TWI685247B (zh) * 2017-06-14 2020-02-11 晶睿通訊股份有限公司 影像處理方法及其相關的攝影裝置與攝影系統
US11100350B2 (en) * 2018-02-19 2021-08-24 Avigilon Corporation Method and system for object classification using visible and invisible light images
IT201800003397A1 (it) * 2018-03-09 2019-09-09 Inxpect S P A Sistema e metodo di rilevazione automatico di movimento
CN109684963A (zh) * 2018-12-14 2019-04-26 南京奇偶创想人工智能研究院有限公司 基于人脸识别的实时在线综合判断方法和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016120A (ja) * 2017-07-06 2019-01-31 オムロン株式会社 見守り支援システム及びその制御方法
WO2019187552A1 (ja) * 2018-03-29 2019-10-03 京セラドキュメントソリューションズ株式会社 監視システム

Also Published As

Publication number Publication date
TWI739203B (zh) 2021-09-11
TW202119286A (zh) 2021-05-16
US20210142481A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
CN109886130B (zh) 目标对象的确定方法、装置、存储介质和处理器
EP2297701B1 (de) Videoanalyse
US11080559B2 (en) Product onboarding machine
CN102348128B (zh) 具有摄像机异常检测装置的监视用摄像机系统
CN111881853B (zh) 一种超大桥隧中异常行为识别方法和装置
WO2018056355A1 (ja) 監視装置
CN104966304A (zh) 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法
CN106355162A (zh) 一种基于视频监控的入侵检测方法
CN110659546B (zh) 一种违法摊位检测方法及装置
CN110781853A (zh) 人群异常检测方法以及相关装置
CN110096945B (zh) 基于机器学习的室内监控视频关键帧实时提取方法
WO2019043406A1 (en) DETECTION OF ANOMALY FROM VIDEO DATA FROM SURVEILLANCE CAMERAS
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
CN108460319B (zh) 异常人脸检测方法及装置
TW201328358A (zh) 攝影畫面之物件串接修正方法及其多攝影機監控系統
JP7125843B2 (ja) 障害検知システム
US20200394802A1 (en) Real-time object detection method for multiple camera images using frame segmentation and intelligent detection pool
US20180121729A1 (en) Segmentation-based display highlighting subject of interest
JP6831396B2 (ja) 映像監視装置
CN116419059A (zh) 基于行为标签的自动监控方法、装置、设备及介质
JP2021077314A (ja) 特定のシーンの有効分析領域を評価する方法およびシステム
Hatekar et al. Fire detection on a surveillance system using Image processing
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
EP3819817A1 (en) A method and system of evaluating the valid analysis region of a specific scene
JP2016103246A (ja) 画像監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210315

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211115