CN107644194A - 提供监控数据的系统和方法 - Google Patents

提供监控数据的系统和方法 Download PDF

Info

Publication number
CN107644194A
CN107644194A CN201710253579.6A CN201710253579A CN107644194A CN 107644194 A CN107644194 A CN 107644194A CN 201710253579 A CN201710253579 A CN 201710253579A CN 107644194 A CN107644194 A CN 107644194A
Authority
CN
China
Prior art keywords
data
event
pattern
time
view data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710253579.6A
Other languages
English (en)
Other versions
CN107644194B (zh
Inventor
卢承仁
林廷恩
全承先
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanhua Vision Co ltd
Original Assignee
Samsung Techwin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Techwin Co Ltd filed Critical Samsung Techwin Co Ltd
Publication of CN107644194A publication Critical patent/CN107644194A/zh
Application granted granted Critical
Publication of CN107644194B publication Critical patent/CN107644194B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Emergency Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

提供一种用于提供监控数据的系统和方法。所述系统包括:模式学习器,被配置为:通过分析在预定时间或时间段从监控区域获得的一个或多个图像的图像数据和声音的声音数据中的至少一个来学习基于时间的数据模式,并根据基于时间的数据模式产生事件模型;事件检测器,被配置为:通过将事件模型与从监控区域获得的一个或多个第一图像的第一图像数据和第一声音的第一声音数据中的至少一个的基于时间的数据模式进行比较,来检测至少一个事件。

Description

提供监控数据的系统和方法
本申请要求于2016年7月21日提交到韩国知识产权局的第10-2016-0092889号韩国专利申请的优先权,所述韩国专利申请的公开通过引用完整地包含于此。
技术领域
与示例性实施例一致的设备和方法涉及提供监控数据,更具体地讲,涉及通过分析和学习从监控区域获得的图像数据和声音数据的基于时间的模式(pattern)以及通过考虑学习结果确定包括在将被提供给用户的列表中的事件的优先级来提供监控数据。
背景技术
监控系统从拍摄监控区域的装置接收图像数据和声音数据,并分析图像数据和声音数据以确定是否已经发生异常情况。如果任何的异常情况已经发生,则监控系统可向用户提供各种内容。
大多数的监控系统只使用用户所设置的参考以确定异常情况的发生,而不使用未被用户设置的其他参考。
现有技术中的此类监控系统在根据用户的请求来提供结果的方面是有用的。然而,现有技术中的监控系统在用户没能察觉或还没有预测到异常情况的情况下可能无法正常工作。
发明内容
本发明构思的一个或多个示例性实施例包括一种用于通过学习周围的情况和根据学习的结果设置用于确定异常情况的参考来提供监控数据的系统和方法。
本发明构思的各个方面将在下面的描述中部分地阐述,部分将通过该描述变得明显,或者可通过示例性实施例的实施来了解。
根据一个或多个示例性实施例,提供一种用于提供监控数据的系统,所述系统可包括:模式学习器,被配置为:通过分析在预定时间或时间段从监控区域获得的一个或多个图像的图像数据和声音的声音数据中的至少一个来学习基于时间的数据模式,并根据基于时间的数据模式产生事件模型;事件检测器,被配置为:通过将事件模型与从监控区域获得的一个或多个第一图像的第一图像数据和第一声音的第一声音数据中的至少一个的基于时间的数据模式进行比较,来检测至少一个事件。
模式学习器可包括:第一学习器,被配置为从所述一个或多个图像计算颜色、在监控区域中检测到的至少一个对象的数量以及检测到的所述至少一个对象的移动的程度中的至少一个的统计数据值;第二学习器,被配置为从声音计算至少一个声级的统计数据值,其中,基于时间的数据模式对应于第一学习器或第二学习器所计算的统计值的基于时间的变化。
模式学习器可基于与颜色、所述至少一个对象的数量和移动的程度中的至少一个的第一平均值以及所述至少一个声级的第二平均值对应的图像数据和声音数据,来产生事件模型,其中,第一平均值和第二平均值分别由第一学习器和第二学习器计算;响应于第一图像数据的值或第一声音数据的值分别等于或大于第一平均值或第二平均值,事件检测器可确定所述至少一个事件已经发生。
事件检测器可通过考虑图像数据和声音数据的一天的数据变化模式,从第一图像数据和第一声音数据检测所述至少一个事件;当第一图像数据和第一声音数据不对应于一天的数据变化模式时,事件检测器可确定所述至少一个事件已经发生。
模式学习器可基于从拍摄监控区域的多个相机获得的图像数据来确定在监控区域中检测到的对象的移动路径,并且模式学习器还可通过额外考虑移动路径的基于时间的数据模式来产生事件模型。
事件检测器可将优先级分配给包括多个事件的检测到的所述至少一个事件,所述系统还可包括产生检测到的事件的事件列表的事件输出接口。
事件检测器还可基于事件模型与基于时间的数据模式之间的差的量,将彼此不同的优先级分配给检测到的事件。
所述系统还可包括或连接到存储第一图像数据和第一声音数据的数据库,并且模式学习器可接收用户的搜索请求和根据用户的搜索请求更新事件模型。
根据一个或多个示例性实施例,提供一种提供监控数据的方法。所述方法可包括:通过分析在预定时间或时间段从监控区域获得的一个或多个图像的图像数据和声音的声音数据中的至少一个来学习基于时间的数据模式,并根据基于时间的数据模式产生事件模型;通过将事件模型与从监控区域获得的一个或多个第一图像的第一图像数据和第一声音的第一声音数据中的至少一个的基于时间的数据模式进行比较,来检测至少一个事件。
学习基于时间的数据模式的步骤可包括:执行用于从所述一个或多个图像计算颜色、在监控区域中检测的到至少一个对象的数量以及检测到的所述至少一个对象的移动的程度中的至少一个的统计数据值的第一学习操作;执行用于从所述声音计算至少一个声级的统计数据值的第二学习操作,其中,基于时间的数据模式对应于第一学习器或第二学习器所计算的统计值的基于时间的变化。
在学习基于时间的数据模式的步骤中,可基于与通过第一学习操作和第二学习操作计算的颜色、所述至少一个对象的数量和移动的程度中的至少一个的第一平均值以及所述至少一个声级的第二平均值对应的图像数据和声音数据产生事件模型;在检测所述至少一个事件的步骤中,响应于第一图像数据的值或第一声音数据的值分别等于或大于第一平均值或第二平均值,可确定所述至少一个事件已经发生。
在检测所述至少一个事件的步骤中,通过考虑图像数据和声音数据的一天的数据变化模式,可从第一图像数据和第一声音数据检测所述至少一个事件,其中,当第一图像数据和第一声音数据不对应于一天的数据变化模式时,可确定所述至少一个事件已经发生。
所述方法还可包括:基于从拍摄监控区域的多个相机获得的图像数据,确定在监控区域中检测到的对象的移动路径;可通过额外基于移动路径的基于时间的数据模式,产生事件模型。
附图说明
通过下面结合附图对示例性实施例进行的描述,这些和/或其他方面将会变得清楚和更加容易理解,其中:
图1是示出根据示例性实施例的监控数据提供系统的示意图;
图2是示出根据示例性实施例的模式学习器的示意图;
图3A和图3B是示出根据示例性实施例的根据数据模式变化的示例性事件模型的曲线图;
图4是示出根据示例性实施例的用于通过使用多个监控相机分析图像数据模式的构造的示意图;
图5是示出根据另一示例性实施例的监控数据提供系统的示意图;
图6是示出根据示例性实施例的监控数据提供方法的示意性流程图;
图7是示出根据另一示例性实施例的监控数据提供方法的示意性流程图;
图8是示出根据另一示例性实施例的监控数据提供方法的示意性流程图。
具体实施方式
现在将对在附图中示出的示例性实施例做出详细参照,其中,相同的参考标记始终表示相同的元件。就这一点而言,本示例性实施例可具有不同的形式,并不应被解释为受限于这里阐述的描述。相应地,下面仅仅通过参照附图来描述示例性实施例,以说明本发明构思的各个方面。如这里所使用,术语“和/或”包括一个或多个关联的列出项的任何和全部组合。
以下,将参照附图对示例性实施例进行描述。在附图中,相同的参考标记表示相同的元件,并将省略它们的重复的描述。
在下面的描述中,技术术语仅用于说明一个或多个示例性实施例,而不限制本发明构思。除非提及相反的描述,否则单数形式的术语也可包括复数形式。‘包括’或“包含”的含义指定属性、不变量、步骤、处理、元件、组件或它们的组合,而不排除其他属性、不变量、步骤、处理、元件、组件或它们的组合。将理解,虽然术语“第一”和“第二”在这里被用于描述各种元件,但是这些元件不应该被这些术语限制。这些术语仅用于将一个元件与其他元件进行区分。
图1是示出根据示例性实施例的监控数据提供系统100的示意图。
参照图1,示例性实施例的监控数据提供系统100包括模式学习器110、事件检测器120和事件输出接口130。模式学习器110和事件检测器120可通过安装在监控区域中的监控相机从监控区域获得图像数据和声音数据。以下,术语“图像数据”和“声音数据”可表示作为图像数据和声音数据的基本组成的一个或多个“图像”和“声音”。
在图1中,示出一个监控相机。然而,本发明构思不限于此。示例性实施例的监控数据提供系统100可获得从多个监控相机接收的图像数据和声音数据或通过多个监控相机获得图像数据和声音数据,并可同时单独处理图像数据和声音数据。
模式学习器110可分析从监控区域获得的图像数据和声音数据,以根据时间来学习数据模式,并根据基于时间的数据模式产生事件模型。
基于时间的数据模式表示监控区域的图像数据和声音数据的根据时间的特性。根据时间测量或计算的图像数据中的对象的数量和/或图像数据的平均颜色可以是图像数据的基于时间的数据模式。此外,声音数据的根据时间的响度或声级可以是声音数据的基于时间的数据模式。
模式学习器110可持续接收监控区域的图像数据和声音数据,并可通过分析和学习数据的模式来确定监控区域中的情况的一般模式。
例如,可使用从监控区域获得的一个月的图像数据来分析在特定时间或特定时间周期(例如,从上午10点到上午11点)在监控区域中检测到的对象的数量的统计数据值,并可使用从监控区域获得的一个月的声音数据来分析在特定时间或特定时间周期(例如,从上午10点到上午11点)的监控区域的噪声级的统计数据值。
模式学习器110可基于统计数据值确定监控区域中的基于时间的对象检测趋势和基于时间的噪声产生趋势,并可通过使用图像数据和声音数据的平均数据值来产生监控区域的根据时间的事件模型。
可使用从监控区域获得的图像数据和声音数据的平均数据值来产生事件模型。例如,事件模型可包括从上午十点开始的一小时内在监控区域中检测到的对象的数量、从上午十点开始的一小时内的图像数据的平均颜色、和/或对象的移动的平均程度。类似地,事件模型可包括从上午十点开始的一小时内测量的监控区域的噪声级的平均值。
因此,可以理解,事件模型包括从监控区域获得的图像数据和声音数据的基于时间的平均数据值。
事件检测器120可通过将由模式学习器以上述方式产生的事件模型与事件检测器120从监控区域获得的第一图像数据和第一声音数据的基于时间的数据模式进行比较来检测事件,并将优先级分配给检测到的事件。
可以理解,具有高优先级的事件可以是或可包括由事件检测器120获得的大幅度偏离事件模型的或与事件模型对应的图像数据和/或声音数据的统计的平均数据值的第一图像数据和/或第一声音数据。
可根据时间产生事件模型,也就是说,可产生多个事件模型,并且可将与每个时间段对应的由事件检测器120获得的第一图像数据和第一声音数据与构成事件模型的图像数据模式和声音数据模式进行比较。
如果比较结果表明第一图像数据的模式偏离构成事件模型的图像数据模式达到参考量或更多,则可确定:第一图像数据包括将要报告给用户的事件。在这种情况下,随着偏离变得更大,事件的优先级也可越高。
类似地,如果比较结果表明第一声音数据的模式偏离构成事件模型的声音数据模式达到参考量或更多,则可确定:第一声音数据包括将要报告给用户的事件。在这种情况下,随着偏离变得更大,事件的优先级也可越高。
事件输出接口130根据事件的优先级输出检测到的事件的列表。具有最高优先级的事件可在列表中的第一位置,在接收到列表后,用户可根据列表中的顺序确定将被第一个检查的事件。
事件可以以分配到事件的优先级的顺序被呈现在列表中,或可作为具有与事件的优先级对应的大小的图标或缩略图被呈现。
图2是示出根据示例性实施例的模式学习器110的示意图。
参照图2,示例性实施例的模式学习器110可包括第一学习器111和第二学习器112。第一学习器111可计算图像数据的平均颜色、图像数据中检测到的对象的数量以及检测到的对象的移动的程度的统计数据值。
如参照图1所述,模式学习器110可通过分析从监控区域获得的图像数据和声音数据来学习基于时间的数据模式。
第一学习器111是被配置为学习图像数据的基于时间的数据模式的模型。第一学习器111可计算图像数据的平均颜色的基于时间的变化模式、在每个时间段内的图像数据中检测到的对象的数量、检测到的对象的数量的基于时间的变化模式、和/或检测到的对象的移动的程度的基于时间的变化模式的统计数据值。
例如,第一学习器111可计算从上午3点开始的10分钟内从监控区域获得的图像数据的平均颜色,或可计算在该10分钟时段期间的图像数据中检测到的对象的数量。
此外,可以以10分钟的间隔划分从上午3点开始获得的图像数据,并可在每个10分钟间隔内计算关于图像数据的平均颜色、图像数据中检测到的对象的数量以及检测到的对象的移动的程度的统计数据值。
在上面,时间“上午3点”和时间间隔“10分钟”是用于解释示例性实施例的示例,并且本发明构思不限于此。也就是说,图像数据可使用一天24小时运行的监控相机来获得,并且第一学习器111可以以预设时间间隔划分图像数据,以分析基于时间的图像数据模式并学习分析的结果。
此外,第一学习器111可学习从图像数据提取的除上面描述的在每个时间段内的图像数据的平均颜色和在每个时间期间内的图像数据中的对象的数量之外的各种数据特性。
例如,第一学习器111可将唯一标识(ID)分配给图像数据中检测到的对象,并可使用ID检测对象的移动路径。
此外,可分析在每个时间段内或在一周的每一天内检测到的对象的ID,并可将在每个时间段内检测到的对象的ID的集合设置为事件模型。
第二学习器112是被配置为学习声音数据的基于时间的数据模式的模型。第二学习器112计算关于来自声音数据的响度的统计数据值。在这种情况下,可以以分贝(dB)计算响度。
例如,第二学习器112可确定从上午3点开始的10分钟内从监控区域获得的声音数据的响度,并可基于该确定来计算关于10分钟时段内监控区域的响度的统计数据值。此外,可以以10分钟的间隔划分从上午3点开始获得的声音数据,以确定每个10分钟间隔内的响度。
在这种情况下,时间“上午3点”和时间间隔“10分钟”是用于解释示例性实施例的示例,并且本发明构思不限于此。也就是说,声音数据可使用一天24小时运行的监控相机来获得,并且第二学习器112可以以预设时间间隔划分声音数据,以分析基于时间的声音数据模式并学习分析的结果。
此外,第二学习器112可从声音数据学习除上面描述的响度之外的各种声音特性。例如,第二学习器112可从声音数据学习每个时间段内的声音的频率特性和声音类型。
然后,可基于学习的信息产生事件模型。
此外,模式学习器110可基于与使用第一学习器111和第二学习器112计算的平均值对应的图像数据和声音数据,来产生事件模型。
可使用从监控区域获得的图像数据和声音数据的平均值来产生事件模型。例如,当事件模型可包括从上午3点开始的10分钟内在监控区域检测到的对象的数量、图像数据的平均颜色、和/或对象的移动的平均程度。类似地,事件模型可包括从上午3点开始的一小时内测量的监控区域的噪声级的平均值。
因此,可以理解,事件模型包括从监控区域获得的图像数据和声音数据的基于时间的平均数据值。
例如,从上午3点开始的一小时内在从监控区域获得的图像数据中检测到的对象的平均数量可以是二,并且在相同时间段内从监控区域获得的声音数据检测到的响度的平均值是40dB。在这种情况下,可以理解,在从上午3点开始的一个小时的时间段内的针对监控区域的事件模型包括两个对象和40dB的响度。也就是,可基于多个时间段产生多个事件模型。
此外,如参照图1所述,事件检测器120将事件模型与第一图像数据和第一声音数据进行比较。第一图像数据和第一声音数据分别表示在产生事件模型之后从监控区域获得的图像数据和声音数据。
即使在产生事件模型之后,也能使用安装在监控区域中的监控相机来持续获得图像数据和声音数据,事件检测器120可将事件模型与事件检测器120获得的第一图像数据和第一声音数据进行比较,以确定在产生事件模型之后异常情况是否发生。
此外,如上所述,可基于多个时间段产生多个事件模型。因此,事件检测器120可将事件模型与在对应于事件模型的时间段内获得的第一图像数据和第一声音数据进行比较,以确定事件的发生。
例如,可将基于从上午3点开始的10分钟内获得的图像数据和声音数据产生的事件模型与从在产生事件模型之后的上午3点开始的10分钟内获得的第一图像数据和第一声音数据进行比较。
例如,事件检测器120可将产生事件模型所基于的图像数据的数据模式与第一图像数据的数据模式进行比较。如果第一图像数据的数据模式偏离图像数据的数据模式,则事件检测器120可确定事件已经发生。
例如,如果产生事件模型所基于的图像数据的平均颜色是120的灰度级,而第一图像数据具有150的灰度级,则事件检测器120可确定事件已经在监控区域中发生。在这种情况下,事件检测器120可将事件模型与实时获得的第一图像数据进行比较,以实时确定监控区域中事件的发生。
此外,如果产生事件模型所基于的声音数据的平均响度是40dB,而第一声音数据的平均响度是60dB,则事件检测器120可确定事件已经在监控区域中发生。在这种情况下,事件检测器120可将事件模型与实时获得的第一声音数据进行比较,以实时确定监控区域中事件的发生。
在上面描述的示例中,第一图像数据和第一声音数据的数据模式大于产生事件模型所基于的图像数据和声音数据的统计数据值。然而,本发明构思不限于此。例如,即使当从第一图像数据和第一声音数据检测到的数据模式小于产生事件模型所基于的图像数据和声音数据的统计数据值,也可确定事件已经在监控区域中发生。
图3A和图3B是示出根据示例性实施例的根据数据模式变化的示例性事件模型的曲线图。
图3A示出在从监控区域获得的图像数据中检测到的对象的数量,图3B示出从监控区域获得的声音数据的响度。图3A和图3B中示出的曲线图是用于解释本发明构思的示例,并且本发明构思不限于此。
在图3A和图3B中示出的每个曲线图中,横轴表示从午夜开始的24小时的时间跨度,数据在时间跨度期间的变化被示出。图3A和图3B的曲线图不对应于一周的特定天或特定日期。图3A和图3B的曲线图可呈现在不同的天获得的数据。
可选地,曲线图可呈现一周内从监控区域获得的图像数据和声音数据的平均的一天的数据变化模式。因此,如果从监控区域检测到不对应于数据变化模式的图像数据或声音数据,则可确定事件在不一致的时间突发。
为了确定事件的发生,在其期间获得数据变化模式的时间跨度可能要足够长。时间跨度可以是如上所述的一周,或者可以是一个月或三个月。
首先,参照图3A,在监控区域中检测到的对象的数量从午夜开始逐渐增加,并在大约下午三点达到最大。参照图3B,监控区域中的响度的变化模式可被检查。
图3A和图3B的曲线图可独立地代表事件模型。参照图1和图2描述的事件检测器120可将图3A和图3B的曲线图设置为事件模型,并将第一图像数据和第一声音数据与事件模型进行比较,以确定事件的发生。
示例性实施例的监控数据提供系统100通过考虑基于时间的数据模式来确定事件的发生,并根据事件的优先级提供检测到的事件的列表。
当基于时间的数据模式被分析时,时间可被划分成尽可能短的时间段或可在特定时间点被指定,并且事件模型可在每个时间段内或在特定时间点被产生。然而,这种情况下,在邻近的时间段或时间点的事件模型之间可能没有连续性。
然而,第一图像数据和第一声音数据的数据模式可随时间变化。由于这样,事件模型可以以这样的方式被产生:事件模型包括具有持续的数据流的数据模式。
事件模型可以以图3A和图3B中示出的曲线图的形式被产生,并且第一图像数据和第一声音数据的数据变化模式也可以以图3A和图3B中示出的曲线图的形式被产生,以将数据变化模式与事件模型进行比较。然后,如果第一图像数据和/或第一声音数据不与事件模型的数据变化模式对应的时间点被检测到,则可确定事件已经在该时间点发生。
在这种情况下,对应于事件模型的数据变化模式不意味着事件模型的曲线图与第一图像数据和第一声音数据完全一致。
也就是说,如果第一图像数据和/或第一声音数据偏离超出了预设错误范围的时间点被检测到,则可确定事件已经在该时间点发生。此外,优先级可根据数据偏离预设错误范围的程度而被分配给事件。
图4是示出根据示例性实施例的用于通过使用多个监控相机分析图像数据模式的构造的示意图。
如参照图1所述,示例性实施例的监控数据提供系统100可使用多个监控相机获得图像数据和声音数据,并可同时单独处理图像数据和声音数据。
在这种情况下,模式学习器110可基于使用拍摄监控区域的多个监控相机获得的图像数据,来确定对象的移动路径,并可通过采用移动路径的基于时间的数据模式来产生事件模型。
图4中示出的多个监控相机可在监控区域的不同位置拍摄图像,多个监控相机所拍摄的图像可能彼此不重叠。
模式学习器110可从多个监控相机获得图像数据,并可从由多个监控相机中的每一个提供的每条图像数据检测对象。在这种情况下,如果从多条图像数据检测到同一对象,则模式学习器110可检测到对象的移动路径。
例如,当从第一图像数据至第三图像数据的全部检测到第一对象时,在第一图像数据、第二图像数据和第三图像数据中的第一对象的检测之间可能存在时间间隔。
例如,模式学习器110可分析第一对象的移动路径,并可确定:第一对象已经从用于获得第一图像数据的第一监控相机的拍摄位置移动到用于获得第二图像数据的第二监控相机的拍摄位置,然后移动到用于获得第三图像数据的第三监控相机的拍摄位置。
在这种情况下,移动路径可被理解为第一对象在监控区域中的平均(总体)移动路径。模式学习器110可将移动路径确定为第一对象的事件模型。
如果在监控区域中再次检测到第一对象,则事件检测器120可将第一对象的移动路径与对应于第一对象的平均移动路径的事件模型进行比较,以确定事件的发生。
图5是示出根据另一示例性实施例的监控数据提供系统200的示意图。
参照图5,另一示例性实施例的监控数据提供系统200包括模式学习器210、事件检测器220、事件输出接口230和数据库240。
模式学习器210、事件检测器220和事件输出接口230具有与参照图1和图2描述的模式学习器110、事件检测器120和事件输出接口130基本相同的功能,因此,将不在这里呈现它们的重复描述。
数据库240存储第一图像数据和第一声音数据。如参照图2所述,第一图像数据和第一声音数据是由事件检测器220在模式学习器210产生事件模型之后从监控区域获得的图像数据和声音数据。
模式学习器210从用户接收搜索请求,并更新事件模型。根据包括在搜索请求中的时间和数据特性,模式学习器210可新产生在相应的时间段内具有数据特性的事件模型。新产生的事件模型和已有的事件模型可被包括在新的事件模型中。
如参照图1和图2所述,事件模型是用于确定事件的发生的参考。参照图1描述的监控数据提供系统100基于从监控区域获得的图像数据和声音数据的模式来确定事件的发生。
通过考虑用户的搜索请求,图5中示出的监控数据提供系统200基于图像数据和声音数据更新事件模型。
即使当通过分析在充足的时间段内获得的数据来产生事件模型时,用户认为是事件的情况也可能不会被检测为事件。此外,用户可通过输入用户想要检查的情况的数据特性来检查特定情况或检查在特定时间的情况。
在这种情况下,用户的搜索请求可涉及时间或数据特性,模式学习器210可通过考虑用户的搜索请求来更新事件模型。
例如,如果用户输入用于检查在晚上十点之前和之后的10分钟时段中的情况的搜索请求,则模式学习器210可将晚上十点之前和之后的10分钟时段加入到事件模型。
然而,仅当输入相同的搜索请求或相似的搜索请求预定次数或更多时,才可能执行反映用户的搜索请求的事件模型的更新。
如果事件模型响应于一次搜索请求而被更新,则不重要的情况可能被确定为事件,而且数据可能不会被平稳地提供给相对重要的情况。
事件输出接口230在数据库240搜索与搜索请求对应的数据。由于第一图像数据和第一声音数据被存储在数据库240中,所以事件输出接口230在存储在数据库240中的第一图像数据和第一声音数据搜索与搜索请求对应的数据。然后,事件输出接口230将找到的与搜索请求对应的数据添加到事件列表。
事件列表包括与由模式学习器210产生的事件模型对应的检测到的事件,并且如参照图1和图2所述,事件列表可以是通过将事件模型的数据模式与第一图像数据和第一声音数据进行比较而检测到的事件的列表。
此外,图5中示出的监控数据提供系统200可提供包括与事件模型比较的结果以及与搜索请求对应的数据搜索的结果的事件列表。
也就是说,使用监控数据提供系统200的用户可输入与用户想要检查的特定情况对应的搜索请求,例如,搜索请求可对应于检测到的对象的数量或声音的响度。
因此,如果意图搜索在黎明产生大声的声音的情况,则响度的搜索时间和搜索程度可被输入作为搜索请求,然后,事件输出接口230可响应于搜索请求而搜索存储在数据库240中的第一图像数据和第一声音数据。
模式学习器210可包括图像学习器(未示出)和声音学习器(未示出)。图像学习器可计算图像数据的平均颜色、在图像数据中检测到的对象的数量以及检测到的对象的移动的程度的统计数据值,声音学习器可计算声音数据的响度的统计数据值。此外,模式学习器210可确定与由图像学习器和声音学习器计算的统计数据值中与多个时间段内的变化对应的数据模式。
图6是示出根据示例性实施例的监控数据提供方法的示意性流程图。
参照图6,示例性实施例的监控数据提供方法包括模式学习操作S110、事件检测操作S120和事件输出操作S130。
在模式学习操作S110,分析从监控区域获得的图像数据和声音数据以根据时间学习数据模式,并根据基于时间的数据模式产生事件模型。
基于时间的数据模式表示从监控区域获得的图像数据和声音数据的基于时间的特性。在多个时间段中的每个时间段内的图像数据中检测到的对象的数量和/或在多个时间段内的图像数据的平均颜色可以是图像数据的基于时间的数据模式。此外,每个时间段内的响度可以是声音数据的基于时间的数据模式。
在模式学习操作S110,可持续从监控区域获得图像数据和声音数据,并可通过分析和学习数据的模式来确定监控区域中的情况的一般模式。
例如,可使用从监控区域获得的一个月的图像数据来分析关于从上午10点到上午11点在监控区域中的对象的数量的统计数据值,并可使用从监控区域获得的一个月的声音数据来分析关于从上午10点到上午11点的监控区域的噪声级的统计数据值。
此外,在模式学习操作S110,可基于统计数据值确定监控区域中的基于时间的对象检测趋势和基于时间的噪声产生趋势,并可通过使用图像数据和声音数据的平均值来产生监控区域的基于时间的事件模型。
可使用从监控区域获得的图像数据和声音数据的平均值来产生事件模型。例如,事件模型可包括从上午十点开始的一小时内在监控区域中检测到的对象的数量,从上午十点开始的一小时内的图像数据的平均颜色和/或对象的移动的平均程度。类似地,事件模型可包括从上午十点开始的一小时内测量的监控区域的噪声级的平均值。
因此,可以理解,事件模型包括从监控区域获得的图像数据和声音数据的基于时间的平均数据值。
在事件检测操作210,将事件模型与从监控区域获得的第一图像数据和第一声音数据的基于时间的数据模式进行比较以检测事件,并将优先级分配给检测到的事件。
可以理解,具有高优先级的事件包括大幅度偏离与事件模型对应的图像数据和/或声音数据的统计平均值的第一图像数据和/或第一声音数据。
可根据时间产生事件模型,也就是说,可产生多个事件模型,并且可将与每个时间段对应的第一图像数据和第一声音数据与构成事件模型的图像数据模式和声音数据模式进行比较。
如果比较结果表明第一图像数据的模式偏离构成事件模型的图像数据模式达到参考量或更多,则可确定:第一图像数据包括将要报告给用户的事件。在这种情况下,随着偏离变得更大,事件的优先级可变得越高。
类似地,如果比较结果表明第一声音数据的模式偏离构成事件模型的声音数据模式达到参考量或更多,则可确定:第一声音数据包括将要报告给用户的事件。在这种情况下,随着偏离变得更大,事件的优先级可变得越高。
在事件输出操作S130,根据检测到的事件的优先级输出检测到的事件的列表。具有最高优先级的事件可在列表中的第一位置,在接收到列表后,用户可根据列表中的顺序确定将被第一个检查的事件。
可以事件的优先级的顺序在列表中呈现检测到的事件,或可将检测到的事件作为具有与事件的优先级对应的大小的图标或缩略图来呈现。
此外,在事件检测操作S120,可通过考虑图像数据和声音数据的一天的数据变化模式来从第一图像数据和第一声音数据检测事件。
在模式学习操作S110,可以以参照图3A和图3B描述的曲线图的形式来检测图像数据和声音数据的变化模式。变化模式可构成事件模型;在事件检测操作S120,如果第一图像数据和第一声音数据与事件模型(即,数据变化模式)不一致,则可确定事件发生。
当分析基于时间的数据模式时,可将时间划分成尽可能的短时间段或可在特定时间点指定时间,并且可在每个时间段内或在特定时间点产生事件模型。然而,这种情况下,在邻近的时间段或时间点的事件模型之间可能没有连续性。
然而,第一图像数据和第一声音数据的数据模式可随时间变化,因此,可以以这样的方式产生事件模型:事件模型包括具有持续的数据流的数据模式。
当检测事件时,可将图3A和图3B的曲线图中示出的数据变化模式用于考虑数据的连续变化。
此外,在模式学习操作S110,如在图4中所示,可基于使用拍摄监控区域的多个监控相机获得的图像数据,来确定对象的移动路径,并可通过考虑移动路径的基于时间的数据模式来产生事件模型。
例如,当从第一图像数据至第三图像数据的全部检测到第一对象时,在第一图像数据、第二图像数据和第三图像数据中的第一对象的检测之间可能存在时间间隔。
例如,在模式学习操作S110,可分析第一对象的移动路径,并可确定:第一对象已经从用于获得第一图像数据的第一监控相机的拍摄位置移动到用于获得第二图像数据的第二监控相机的拍摄位置,然后移动到用于获得第三图像数据的第三监控相机的拍摄位置。
在这种情况下,可将移动路径理解为第一对象在监控区域中的平均(总体)移动路径。在模式学习操作S110,可将移动路径确定为第一对象的事件模型。
在事件检测操作S120,如果在监控区域中再次检测到第一对象,则可将第一对象的移动路径与对应于第一对象的平均移动路径的事件模型进行比较,以确定事件的发生。
图7是示出根据另一示例性实施例的监控数据提供方法的示意性流程图。
参照图7,另一示例性实施例的监控数据提供方法包括第一模式学习操作S210、第二模式学习操作S220、事件检测操作S230和事件输出操作S240。
事件检测操作S230和事件输出操作S240与参照图6描述的事件检测操作S120和事件输出操作S130基本相同,因此这里不再呈现它们的重复描述。
在第一模式学习操作S210,学习图像数据的基于时间的数据模式,并计算图像数据的平均颜色的基于时间的变化模式、在每个时间段内的图像数据中检测到的对象的数量、检测到的对象的数量的基于时间的变化模式、和/或检测到的对象的移动的程度的基于时间的变化模式的统计数据值。
例如,在第一模式学习操作S210,可计算从上午3点开始的10分钟内从监控区域获得的图像数据的平均颜色,或可计算在该10分钟时段期间的图像数据中检测到的对象的数量。
此外,可以以10分钟的间隔划分从上午3点开始获得的图像数据,并可在每个10分钟间隔内计算关于图像数据的平均颜色、图像数据中检测到的对象的数量以及检测到的对象的移动的程度的统计数据值。
这种情况下,时间“上午3点”和时间间隔“10分钟”是用于解释示例性实施例的示例,并且本发明构思不限于此。也就是说,可使用一天24小时运行的监控相机来获得图像数据,并且在第一模式学习操作S210,可以以预设时间间隔划分图像数据,以分析基于时间的图像数据模式并学习分析的结果。
在第二模式学习操作S220,学习声音数据的基于时间的数据模式,并计算关于声音数据的响度的统计数据值。在这种情况下,可以以分贝(dB)计算响度。
例如,在第二模式学习操作S220,可确定从上午3点开始的10分钟内从监控区域获得的声音数据的响度,并可基于该确定来计算关于10分钟时段内监控区域的响度的统计数据值。此外,可以以10分钟的间隔划分从上午3点开始获得的声音数据,以确定每个10分钟间隔内的响度。
在这种情况下,时间“上午3点”和时间间隔“10分钟”是用于解释示例性实施例的示例,并且本发明构思不限于此。也就是说,可使用一天24小时运行的监控相机来获得声音数据,并且在第二模式学习操作S220,可以以预设时间间隔划分声音数据,以分析基于时间的声音数据模式并学习分析的结果。
图8是示出根据另一示例性实施例的监控数据提供方法的示意性流程图。
参照图8,另一示例性实施例的监控数据提供方法包括模式学习操作S310、事件模型更新操作S320、事件检测操作S330和事件输出操作S340。模式学习操作S310、事件检测操作S330和事件输出操作S340分别与上面参照图6描述的模式学习操作S110、事件检测操作S120和事件输出操作S130基本相同,因此这里不再呈现它们的重复描述。
在事件模型更新操作S320,响应于从用户接收的搜索请求,更新在模式学习操作S310中产生的事件模型。在事件模型更新操作S320,可考虑包括在搜索请求中的时间和数据特性,并可新产生在相应的时间段内具有该数据特性的事件模型。新产生的事件模型和已有的事件模型可被包括在新的事件模型中。
如参照附图所述,事件模型是用于确定一个或多个事件的发生的参考。即使当通过分析在充足的时间段内获得的数据来产生事件模型时,也可能不会将用户认为是事件的情况检测为事件。此外,用户可通过输入用户想要检查的情况的数据特性来检查特定情况或检查在特定时间的情况。
在这种情况下,用户的搜索请求可涉及时间或数据特性,并且在事件模型更新操作S320,可通过考虑用户的搜索请求来更新事件模型。
可将第一图像数据和第一声音数据存储在诸如数据库装置的存储装置中;在事件输出操作S340,可在数据库装置中搜索与用户的搜索请求对应的数据,并可将找到的数据加到事件列表。
在上面的示例性实施例中,将从监控区域获得的图像数据和声音数据二者用于产生事件模型,将第一图像数据和第一声音数据二者与事件模型进行比较以确定事件的发生,但本发明构思不限于此。换言之,可仅将图像数据或声音数据用于产生事件模型,并可将一个第一图像数据或第一声音数据与事件模型进行比较以确定事件的发生。
如上所述,根据上面的示例性实施例,用于提供监控数据的系统和方法被设计为学习周围的情况,并根据学习结果设置用于确定异常情况的参考。
以上所描述的方法或者算法的操作或者步骤可被体现为计算机可读记录介质上的计算机可读代码,或者可被体现为通过传输介质传输的计算机可读代码。所述计算机可读记录介质为任何可存储其后能由计算机系统读取的数据的数据存储装置。计算机可读记录介质的例子包括(但不限于):只读存储器(ROM)、随机存取存储器(RAM)、光盘CD-ROM、数字多功能盘(DVD)、磁带、软盘和光学数据存储装置。所述传输介质可包括通过互联网或者各种类型的通信信道被传输的载波。所述计算机可读记录介质还可分布于网络连接的计算机系统上,以便所述计算机可读代码以分布方式被存储并和执行。
根据示例性实施例,由如图1、图2和图5所示的块表示的组件、元件和单元中的至少一个可被体现为执行如上所述的各自的功能的不同数量的硬件、软件和/或固件结构。例如,这些组件、元件或者单元中的至少一个可使用可通过一个或者更多个微处理器或其他控制设备的控制来执行各自的功能的直接的电路结构(诸如,存储器、处理器、逻辑电路、查找表等)。此外,这些组件、元件和单元中的至少一个可通过模块、程序或者代码的一部分来具体体现,并由一个或多个微处理器或其他控制设备执行,其中,所述模块、程序或者代码的一部分包含用于执行指定的逻辑功能的一个或更多个可执行指令。此外,这些组件、元件和单元中的至少一个还可包括处理器(诸如,执行各自的功能的中央处理器(CUP)、微处理器等)或由处理器执行。这些组件、元件、模块和单元中的两个或者更多个可被组合成执行组合的两个或者更多个组件、元件、模块或者单元的所有操作或者功能的一个单独的组件、元件、模块或者单元。此外,这些组件、元件、模块或者单元中的至少一个的至少一部分功能可由这些组件、元件、模块或者单元中的另一个执行。包括在相应的组件、元件、模块或单元中的或被配置为控制相应的组件、元件、模块或单元的处理器可根据系统设计来控制至少一个其他组件、元件、模块或单元。此外,虽然在以上框图中没示出总线,但可通过总线来执行组件、元件、模块或者单元之间的通信。可在一个或者更多个处理器上执行的算法中实现以上示例性实施例的功能方面。此外,由块或者处理步骤表示的组件、元件、模块或者单元可采用用于电子配置、信号处理和/或控制、数据处理等的任意数量的现有技术。
应理解的是,在此描述的示例性实施例应该被认为仅是描述性的意义而不是为了限制的目的。每个实施例中的特征或方面的描述通常应被认为可用于其它的实施例中的其它相似的特征或方面。
虽然已经参照附图描述了上面的示例性实施例,但是本领域普通技术人员将理解的是,在不脱离由权利要求限定的本发明构思的精神和范围的情况下,可对其做出形式和细节上的各种改变。

Claims (15)

1.一种用于提供监控数据的系统,所述系统包括:
模式学习器,被配置为:通过分析在预定时间或时间段从监控区域获得的一个或多个图像的图像数据和声音的声音数据中的至少一个来学习基于时间的数据模式,并根据基于时间的数据模式产生事件模型;
事件检测器,被配置为:通过将事件模型与从监控区域获得的一个或多个第一图像的第一图像数据和第一声音的第一声音数据中的至少一个的基于时间的数据模式进行比较,来检测至少一个事件。
2.如权利要求1所述的系统,其中,模式学习器包括:
第一学习器,被配置为从所述一个或多个图像计算颜色、在监控区域中检测到的至少一个对象的数量以及检测到的所述至少一个对象的移动的程度中的至少一个的统计数据值;
第二学习器,被配置为从所述声音计算至少一个声级的统计数据值,
其中,基于时间的数据模式对应于第一学习器或第二学习器所计算的统计数据值的基于时间的变化。
3.如权利要求2所述的系统,其中,模式学习器被配置为:基于与颜色、所述至少一个对象的数量和移动的程度中的至少一个的第一平均值以及所述至少一个声级的第二平均值对应的图像数据和声音数据,产生事件模型,其中,由第一学习器计算的统计数据值是第一平均值,由第二学习器计算的统计数据值是第二平均值,
其中,响应于第一图像数据的值或第一声音数据的值偏离第一平均值或第二平均值达预定参考量或更多,事件检测器被配置为确定所述至少一个事件已经发生。
4.如权利要求1所述的系统,其中,事件检测器被配置为:通过考虑图像数据和声音数据的一天的数据变化模式,从第一图像数据和第一声音数据检测所述至少一个事件。
5.如权利要求4所述的系统,其中,响应于第一图像数据和第一声音数据不对应于一天的数据变化模式,事件检测器被配置为确定所述至少一个事件已经发生。
6.如权利要求1所述的系统,其中,
模式学习器被配置为:基于从拍摄监控区域的多个相机获得的图像数据,确定在监控区域中检测到的对象的移动路径,
其中,模式学习器被配置为:通过额外基于移动路径的基于时间的数据模式,产生事件模型。
7.如权利要求1所述的系统,其中,事件检测器还被配置为将优先级分配给包括多个事件的检测到的所述至少一个事件,
其中,所述系统还包括:事件输出接口,被配置为产生检测到的事件的事件列表。
8.如权利要求1所述的系统,其中,事件检测器还被配置为:基于事件模型与基于时间的数据模式之间的差的量,将彼此不同的优先级分配给检测到的事件。
9.如权利要求1所述的系统,其中,所述系统还包括或连接到存储第一图像数据和第一声音数据的数据库,
其中,模式学习器被配置为接收用户的搜索请求和根据用户的搜索请求更新事件模型。
10.一种提供监控数据的方法,所述方法包括:
通过分析在预定时间或时间段从监控区域获得的一个或多个图像的图像数据和声音的声音数据中的至少一个来学习基于时间的数据模式,并根据基于时间的数据模式产生事件模型;
通过将事件模型与从监控区域获得的一个或多个第一图像的第一图像数据和第一声音的第一声音数据中的至少一个的基于时间的数据模式进行比较,来检测至少一个事件。
11.如权利要求10所述的方法,其中,学习基于时间的数据模式的步骤包括:
执行用于从所述一个或多个图像计算颜色、在监控区域中检测的到至少一个对象的数量以及检测到的所述至少一个对象的移动的程度中的至少一个的统计数据值的第一学习操作;
执行用于从所述声音计算至少一个声级的统计数据值的第二学习操作,
其中,基于时间的数据模式对应于第一学习操作或第二学习操作所计算的统计数据值的基于时间的变化。
12.如权利要求11所述的方法,其中,在学习基于时间的数据模式的步骤中,基于与颜色、所述至少一个对象的数量和移动的程度中的至少一个的第一平均值以及所述至少一个声级的第二平均值对应的图像数据和声音数据,产生事件模型,其中,通过第一学习操作计算的统计数据值是第一平均值,通过第二学习操作计算的数据值是第二平均值,
其中,在检测所述至少一个事件的步骤中,响应于第一图像数据的值或第一声音数据的值偏离第一平均值或第二平均值达到预定参考量或更多,确定所述至少一个事件已经发生。
13.如权利要求10所述的方法,其中,在检测所述至少一个事件的步骤中,通过考虑图像数据和声音数据的一天的数据变化模式,从第一图像数据和第一声音数据检测所述至少一个事件。
14.如权利要求13所述的方法,其中,当第一图像数据和第一声音数据不对应于一天的数据变化模式时,确定所述至少一个事件已经发生。
15.如权利要求10所述的方法,还包括:
基于从拍摄监控区域的多个相机获得的图像数据,确定在监控区域中检测到的对象的移动路径,
其中,通过额外基于移动路径的基于时间的数据模式,产生事件模型。
CN201710253579.6A 2016-07-21 2017-04-18 提供监控数据的系统和方法 Active CN107644194B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0092889 2016-07-21
KR1020160092889A KR102630227B1 (ko) 2016-07-21 2016-07-21 감시 데이터 제공 시스템 및 방법

Publications (2)

Publication Number Publication Date
CN107644194A true CN107644194A (zh) 2018-01-30
CN107644194B CN107644194B (zh) 2022-12-16

Family

ID=60988072

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710253579.6A Active CN107644194B (zh) 2016-07-21 2017-04-18 提供监控数据的系统和方法

Country Status (3)

Country Link
US (1) US10282620B2 (zh)
KR (2) KR102630227B1 (zh)
CN (1) CN107644194B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112689125A (zh) * 2020-12-18 2021-04-20 中标慧安信息技术股份有限公司 基于物联网的多终端安全监控方法和系统
CN113259213A (zh) * 2021-06-28 2021-08-13 广州市威士丹利智能科技有限公司 一种基于边缘计算智能网关的智能家居信息监控方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6728699B2 (ja) * 2016-01-15 2020-07-22 富士通株式会社 生体認証装置、生体認証方法および生体認証プログラム
US9928403B2 (en) * 2016-02-09 2018-03-27 Molecular Devices, Llc System and method for image analysis of multi-dimensional data
KR102630227B1 (ko) * 2016-07-21 2024-01-29 한화비전 주식회사 감시 데이터 제공 시스템 및 방법
KR102249498B1 (ko) * 2016-08-17 2021-05-11 한화테크윈 주식회사 이벤트 검색 장치 및 시스템
US10546195B2 (en) * 2016-12-02 2020-01-28 Geostat Aerospace & Technology Inc. Methods and systems for automatic object detection from aerial imagery
US10699119B2 (en) * 2016-12-02 2020-06-30 GEOSAT Aerospace & Technology Methods and systems for automatic object detection from aerial imagery
US11565365B2 (en) * 2017-11-13 2023-01-31 Taiwan Semiconductor Manufacturing Co., Ltd. System and method for monitoring chemical mechanical polishing
US11321568B1 (en) * 2018-10-16 2022-05-03 EVES Technology, Inc. Method for real-time integrated t+2D DWT video compression and low-level video analysis within an intelligent camera optionally embedded in an end-to-end AAL system
US11381781B2 (en) 2018-11-06 2022-07-05 Avigilon Corporation Method and system for displaying video streams
CN109934172B (zh) * 2019-03-14 2021-10-15 中南大学 高速列车受电弓免gps全运行线故障视觉检测定位方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314987A (ja) * 2001-04-16 2002-10-25 Hitachi Ltd 監視システム
US20100238285A1 (en) * 2009-03-19 2010-09-23 International Business Machines Corporation Identifying spatial locations of events within video image data
CN102414680A (zh) * 2009-03-20 2012-04-11 伊斯曼柯达公司 利用跨域知识的语义事件检测
US20150339912A1 (en) * 2014-05-20 2015-11-26 Ooma, Inc. Security Monitoring and Control
US20150379355A1 (en) * 2013-02-07 2015-12-31 Iomniscient Pty Ltd A surveillance system

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6178141B1 (en) * 1996-11-20 2001-01-23 Gte Internetworking Incorporated Acoustic counter-sniper system
US8711217B2 (en) * 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
KR20040025149A (ko) * 2002-09-18 2004-03-24 에스엘투(주) 영상/환경음향을 이용한 보안장치
KR100737740B1 (ko) 2004-12-24 2007-07-10 전자부품연구원 Ieee 1394 인터페이스를 이용한 영상 감시 시스템 및이를 이용한 대역폭 확보 방법
CA2645206C (en) * 2006-04-28 2014-09-16 Orica Explosives Technology Pty Ltd Wireless electronic booster, and methods of blasting
EP2034462A4 (en) * 2006-05-12 2011-05-18 Panasonic Elec Works Co Ltd SMOKE SENSOR OF SOUND WAVE TYPE
US20150363673A1 (en) * 2010-04-05 2015-12-17 Sirius-Beta Corp. System and method for scalable semantic stream processing
US8585567B2 (en) * 2007-12-11 2013-11-19 Tokitae Llc Systems, devices, and methods including paramagnetic oscillation, rotation and translation of hemozoin asymmetric nanoparticles in response to multi-harmonic optical detection of the presence of hemozoin
WO2009094591A2 (en) * 2008-01-24 2009-07-30 Micropower Appliance Video delivery systems using wireless cameras
KR100922784B1 (ko) * 2009-02-23 2009-10-21 주식회사 이미지넥스트 영상 기반 화재 감지 방법 및 이를 적용한 방범 및 방재 시스템
KR101033922B1 (ko) 2009-03-23 2011-05-11 주식회사 리퓨터 음성인식 지능형 폐쇄형 감시시스템
US9044141B2 (en) * 2010-02-10 2015-06-02 Tokitae Llc Systems, devices, and methods including a dark-field reflected-illumination apparatus
US8594482B2 (en) * 2010-05-13 2013-11-26 International Business Machines Corporation Auditing video analytics through essence generation
US8659663B2 (en) * 2010-12-22 2014-02-25 Sportvision, Inc. Video tracking of baseball players to determine the start and end of a half-inning
US9004353B1 (en) * 2012-03-12 2015-04-14 Diebold Self-Service Systems Division Of Diebold, Incorporated Check cashing automated banking machine
US9202115B2 (en) * 2012-03-12 2015-12-01 Hanwha Techwin Co., Ltd. Event detection system and method using image analysis
US20140306799A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle Intruder Alert Detection and Indication
EP2831842A4 (en) * 2012-03-26 2016-03-23 Tata Consultancy Services Ltd PARTICIPATORY SURVEILLANCE BASED ON LOCALIZATION TRIGGERED BY EVENTS
US9594163B2 (en) * 2013-04-15 2017-03-14 Electronics And Telecommunications Research Institute Security and surveillance system and method
ITTO20130371A1 (it) * 2013-05-09 2014-11-10 A M General Contractor S P A Metodo di rilevazione di dati di energia termica radiata in un ambiente mediante elaborazione di immagini in radiazione infrarossa
US20150005951A1 (en) * 2013-06-30 2015-01-01 Enlighted, Inc. Flooring sensors for occupant detection
KR101367196B1 (ko) * 2013-11-29 2014-02-26 주식회사 에보시스 상황인지 기반 무선충전형 스마트 cctv 장치
FR3017480B1 (fr) * 2014-02-07 2017-09-08 Thales Sa Procede de detection et de classification d'evenements d'une scene
IL231111A (en) * 2014-02-24 2016-06-30 Ori Afek Flash detection
US20160232399A1 (en) * 2014-04-08 2016-08-11 Umoove Services Ltd. System and method of detecting a gaze of a viewer
KR101600860B1 (ko) 2014-05-12 2016-03-09 대동산전주식회사 이벤트 기반의 영상 비교 관리시스템
KR20160016022A (ko) 2014-08-01 2016-02-15 송상혁 이벤트 저장 기능을 가진 cctv 시스템
US9405967B2 (en) * 2014-09-03 2016-08-02 Samet Privacy Llc Image processing apparatus for facial recognition
US10301018B2 (en) * 2014-10-17 2019-05-28 Tyco Fire & Security Gmbh Fixed drone visualization in security systems
KR101485022B1 (ko) * 2014-10-20 2015-01-21 에코아이넷 주식회사 행동 패턴 분석이 가능한 객체 추적 시스템 및 이를 이용한 방법
US9626569B2 (en) * 2014-11-06 2017-04-18 Bae Systems Information And Electronics Systems Integration Inc. Filtered image data recovery using lookback
KR102630227B1 (ko) * 2016-07-21 2024-01-29 한화비전 주식회사 감시 데이터 제공 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314987A (ja) * 2001-04-16 2002-10-25 Hitachi Ltd 監視システム
US20100238285A1 (en) * 2009-03-19 2010-09-23 International Business Machines Corporation Identifying spatial locations of events within video image data
CN102414680A (zh) * 2009-03-20 2012-04-11 伊斯曼柯达公司 利用跨域知识的语义事件检测
US20150379355A1 (en) * 2013-02-07 2015-12-31 Iomniscient Pty Ltd A surveillance system
US20150339912A1 (en) * 2014-05-20 2015-11-26 Ooma, Inc. Security Monitoring and Control

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112689125A (zh) * 2020-12-18 2021-04-20 中标慧安信息技术股份有限公司 基于物联网的多终端安全监控方法和系统
CN113259213A (zh) * 2021-06-28 2021-08-13 广州市威士丹利智能科技有限公司 一种基于边缘计算智能网关的智能家居信息监控方法
CN113259213B (zh) * 2021-06-28 2021-09-14 广州市威士丹利智能科技有限公司 一种基于边缘计算智能网关的智能家居信息监控方法

Also Published As

Publication number Publication date
KR20240014569A (ko) 2024-02-01
US20180025231A1 (en) 2018-01-25
US10282620B2 (en) 2019-05-07
KR102630227B1 (ko) 2024-01-29
KR20180010581A (ko) 2018-01-31
CN107644194B (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
CN107644194A (zh) 提供监控数据的系统和方法
US20080243912A1 (en) Method of providing business intelligence
JP2018124937A (ja) 異常検出装置、異常検出方法およびプログラム
JP7214417B2 (ja) データ処理方法およびデータ処理プログラム
KR102493719B1 (ko) 통합 공기질 예측 시스템
US6453265B1 (en) Accurately predicting system behavior of a managed system using genetic programming
EP3767399A1 (en) Control device, control system, control method, and control program
JP7481902B2 (ja) 管理計算機、管理プログラム、及び管理方法
JP7090430B2 (ja) データ処理方法、データ処理装置、および、データ処理プログラム
JP7188949B2 (ja) データ処理方法およびデータ処理プログラム
CN101142559B (zh) 对计算机控制的处理进行监视的方法与系统
TWI709833B (zh) 資料處理、資料處理裝置以及電腦可讀取記錄媒體
JP6647461B1 (ja) 故障診断システム、故障予測方法、および故障予測プログラム
CN115099425A (zh) 一种机电设备保养的远程检测方法
KR20230073632A (ko) Ai 모델 드리프트 모니터링 장치 및 방법
JP4308113B2 (ja) データ分析装置及びその方法、プログラム
JP7287093B2 (ja) 学習プログラム、学習方法および学習装置
JP2020135520A (ja) 計算機システム及び施設の監視方法
CN115599037B (zh) 一种基因检测实验室设备自动化监控方法
CN112241343A (zh) 一种慢盘检测方法、装置、电子设备及可读存储介质
US20240077865A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
CN114010064B (zh) 烹饪设备、烹饪设备控制方法和存储介质
US20220114519A1 (en) Method for Device Monitoring
CN117252284B (zh) 一种工业丝油剂原料的智能筛选方法及系统
JPH096850A (ja) データ解析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information

Address after: Gyeongnam Changwon City, South Korea

Applicant after: HANWHA AEROSPACE Co.,Ltd.

Address before: Gyeongnam Changwon City, South Korea

Applicant before: HANWHA TECHWIN Co.,Ltd.

CB02 Change of applicant information
TA01 Transfer of patent application right

Effective date of registration: 20190305

Address after: Gyeonggi Do city of South Korea

Applicant after: HANWHA TECHWIN Co.,Ltd.

Address before: Gyeongnam Changwon City, South Korea

Applicant before: HANWHA AEROSPACE Co.,Ltd.

TA01 Transfer of patent application right
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Gyeonggi Do city of South Korea

Patentee after: Hanhua Vision Co.,Ltd.

Address before: Gyeonggi Do city of South Korea

Patentee before: HANWHA TECHWIN Co.,Ltd.

CP01 Change in the name or title of a patent holder