CN104956412B - 信息处理设备、信息处理方法、程序和信息处理系统 - Google Patents

信息处理设备、信息处理方法、程序和信息处理系统 Download PDF

Info

Publication number
CN104956412B
CN104956412B CN201480006863.8A CN201480006863A CN104956412B CN 104956412 B CN104956412 B CN 104956412B CN 201480006863 A CN201480006863 A CN 201480006863A CN 104956412 B CN104956412 B CN 104956412B
Authority
CN
China
Prior art keywords
image
personage
time
segmentation
processing equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201480006863.8A
Other languages
English (en)
Other versions
CN104956412A (zh
Inventor
王启宏
冈田宪
冈田宪一
宫下健
奥村泰史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104956412A publication Critical patent/CN104956412A/zh
Application granted granted Critical
Publication of CN104956412B publication Critical patent/CN104956412B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种信息处理设备,该设备包括:获得单元,被配置成获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在至少一个图像帧内特定目标对象被找到以被捕捉;以及提供单元,被配置成提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,跟踪状态指示器与时间有关地指示在所述多个分段内特定目标对象的存在,其中,沿着时间线结合所述多个分段的位置显示能够被用户选择为特定目标对象的多个候选缩略图图像,其中所述候选缩略图图像是所述至少一个图像帧中的每个图像帧的部分图像并且具有包含所述特定目标对象的高可能性。

Description

信息处理设备、信息处理方法、程序和信息处理系统
相关申请的交叉引用
本申请要求2013年2月6日提交的日本优先权专利申请JP2013-021371的权益,其全部内容通过引用并入本文中。
技术领域
本公开内容涉及可以在例如监管摄像机系统中使用的信息处理设备、信息处理方法、程序和信息处理系统。
背景技术
例如,专利文献1公开了在对象跟踪之前或期间容易且正确地指定跟踪目标的技术,该技术适用于监管摄像机系统。在该技术中,以放大的方式显示要作为跟踪目标的对象,而其它对象被提取作为跟踪目标候选。用户仅需要进行从所提取的跟踪目标候选之中选择要以放大的方式显示的目标(跟踪目标)的容易的操作,来获得期望的放大显示图像,即扩大的图像(例如参见专利文献1的说明书第[0010]段、第[0097]段等)。
引用列表
专利文献
PTL1:日本专利申请特开第2009-251940号
发明内容
技术问题
期望提供专利文献1中所公开的实现有用的监管摄像机系统的技术。
鉴于如上所述的情况,期望提供能够实现有用的监管摄像机系统的信息处理设备、信息处理方法、程序和信息处理系统。
问题的解决方案
根据本公开内容的实施例,提供了一种图像处理设备,该设备包括:获得单元,被配置成获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在所述至少一个图像帧内特定目标对象被找到以被捕捉;以及提供单元,被配置成提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,跟踪状态指示器与时间有关地指示在所述多个分段内特定目标对象的存在,其中,沿着时间线结合所述多个分段的位置显示能够被用户选择为特定目标对象的多个候选缩略图图像,其中所述候选缩略图图像是所述至少一个图像帧中的每个图像帧的部分图像并且具有包含所述特定目标对象的高可能性。
根据本公开内容的另一实施例,提供了一种图像处理方法,包括:获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在所述至少一个图像帧内特定目标对象被找到以被捕捉;以及提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,跟踪状态指示器与时间有关地指示所述多个分段内特定目标对象的存在,其中,沿着时间线结合所述多个分段的位置显示能够被用户选择为特定目标对象的多个候选缩略图图像,其中所述候选缩略图图像是所述至少一个图像帧中的每个图像帧的部分图像并且具有包含所述特定目标对象的高可能性。
根据本公开内容的另一实施例,提供了一种非暂态计算机可读介质,其上包含有程序,该程序在由计算机执行时使得计算机执行一种方法,该方法包括:获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在至少一个图像帧内特定目标对象被找到以被捕捉;以及提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,跟踪状态指示器与时间有关地指示所述多个分段内特定目标对象的存在。
本发明的有利效果
如上所述,根据本公开内容,可以实现有用的监管摄像机系统。
附图说明
图1是示出根据本公开内容的实施例的包括信息处理设备的监管摄像机系统的配置示例的框图。
图2是示出在本公开内容的实施例中生成的运动图像数据的示例的示意图。
图3是示出根据本公开内容的实施例的监管摄像机系统的功能框图。
图4是示出通过人物检测处理生成的人物跟踪元数据的示例的图。
图5A和5B分别是用于描述人物跟踪元数据的图。
图6是示出根据本公开内容的实施例的监管摄像机系统的概况的示意图。
图7是示出根据本公开内容的实施例的服务器设备生成的UI(用户接口)屏幕的示例的示意图。
图8是示出UI屏幕上的用户操作以及对应于该操作的处理的示例的图。
图9是示出UI屏幕上的用户操作以及对应于该操作的处理的示例的图。
图10是示出改变指向位置的操作的另一示例的图。
图11是示出改变指向位置的操作的示例的图。
图12是示出改变指向位置的操作的示例的图。
图13是示出改变指向位置的操作的另一示例的图。
图14是示出改变指向位置的操作的示例的图。
图15是示出改变指向位置的操作的示例的图。
图16是用于描述一个或更多个相同缩略图图像的校正的图。
图17是用于描述一个或更多个相同缩略图图像的校正的图。
图18是用于描述一个或更多个相同缩略图图像的校正的图。
图19是用于描述一个或更多个相同缩略图图像的校正的图。
图20是用于描述一个或更多个相同缩略图图像的校正的另一示例的图。
图21是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图22是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图23是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图24是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图25是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图26是用于描述一个或更多个相同缩略图图像的校正的另一示例的图。
图27是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图28是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图29是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图30是用于描述一个或更多个相同缩略图图像的校正的示例的图。
图31是用于描述如何通过使用候选浏览按钮显示候选的图。
图32是用于描述如何通过使用候选浏览按钮显示候选的图。
图33是用于描述如何通过使用候选浏览按钮显示候选的图。
图34是用于描述如何通过使用候选浏览按钮显示候选的图。
图35是用于描述如何通过使用候选浏览按钮显示候选的图。
图36是详细示出校正一个或更多个相同缩略图图像的处理的示例的流程图。
图37是示出在图36的步骤106中检测到“是”时UI屏幕的示例的图。
图38是示出在图36的步骤106中检测到“否”时UI屏幕的示例的图。
图39是示出校正一个或更多个相同缩略图图像的处理的另一示例的流程图。
图40A和40B分别是用于描述图39中示出的处理的图。
图41A和41B分别是用于描述图39中示出的处理的图。
图42A和42B分别是用于描述卷胶片图像(rolled film image)的配置和操作的另一示例的图。
图43A和43B分别是用于描述卷胶片图像的配置和操作的示例的图。
图44A和44B分别是用于描述卷胶片图像的配置和操作的示例的图。
图45是用于描述卷胶片图像的配置和操作的示例的图。
图46是用于描述卷胶片部分的标准变化的图。
图47是用于描述卷胶片部分的标准变化的图。
图48是用于描述卷胶片部分的标准变化的图。
图49是用于描述卷胶片部分的标准变化的图。
图50是用于描述卷胶片部分的标准变化的图。
图51是用于描述卷胶片部分的标准变化的图。
图52是用于描述卷胶片部分的标准变化的图。
图53是用于描述卷胶片部分的标准变化的图。
图54是用于描述卷胶片部分的标准变化的图。
图55是用于描述卷胶片部分的标准变化的图。
图56是用于描述卷胶片部分的标准变化的图。
图57是用于描述时间轴上指示的分度(graduation)的标准变化的图。
图58是用于描述时间轴上指示的分度的标准变化的图。
图59是用于描述时间轴上指示的分度的标准变化的图。
图60是用于描述时间轴上指示的分度的标准变化的图。
图61是用于描述在使用多个摄像机的环境下人物跟踪的算法的示例的图。
图62是用于描述在使用多个摄像机的环境下人物跟踪的算法的示例的图。
图63是包括照片的图,示出了一对一匹配处理的示例。
图64是示出根据本公开内容的实施例的人物跟踪的算法的应用示例的示意图。
图65是示出根据本公开内容的实施例的人物跟踪的算法的应用示例的示意图。
图66是示出根据本公开内容的实施例的人物跟踪的算法的应用示例的示意图。
图67是示出根据本公开内容的实施例的人物跟踪的算法的应用示例的示意图。
图68是示出根据本公开内容的实施例的人物跟踪的算法的应用示例的示意图。
图69是示出根据本公开内容的实施例的人物跟踪的算法的应用示例的示意图。
图70是示出根据本公开内容的实施例的人物跟踪的算法的应用示例的示意图。
图71是用于描述根据本公开内容的实施例的使用监管摄像机系统的监管系统的概况的图。
图72是示出警报屏幕的示例的图。
图73是示出警报屏幕上的操作和对应于该操作的处理的示例的图。
图74是示出警报屏幕上的操作和对应于该操作的处理的示例的图。
图75是示出警报屏幕上的操作和对应于该操作的处理的示例的图。
图76是示出警报屏幕上的操作和对应于该操作的处理的示例的图。
图77是示出跟踪屏幕的示例的图。
图78是示出校正跟踪屏幕上的目标的方法的示例的图。
图79是示出校正跟踪屏幕上的目标的方法的示例的图。
图80是示出校正跟踪屏幕上的目标的方法的示例的图。
图81是示出校正跟踪屏幕上的目标的方法的示例的图。
图82是示出校正跟踪屏幕上的目标的方法的示例的图。
图83是用于描述在跟踪屏幕上执行的另外的处理的图。
图84是用于描述在跟踪屏幕上执行的另外的处理的图。
图85是用于描述在跟踪屏幕上执行的另外的处理的图。
图86是用于描述在跟踪屏幕上执行的另外的处理的图。
图87是示出要用作客户端设备和服务器设备的计算机的配置示例的示意性框图。
图88是示出根据另一实施例的卷胶片图像的图。
具体实施方式
下文中,将参照附图描述本公开内容的实施例。
(监管摄像机系统)
图1是示出根据本公开内容的实施例的包括信息处理设备的监管摄像机系统的配置示例的框图。
监管摄像机系统100包括一个或更多个摄像机10、服务器设备20和客户端设备30。服务器设备20是根据一个实施例的信息处理设备。一个或更多个摄像机10和服务器设备20经由网络5相连。此外,服务器设备20和客户端设备30也经由网络5相连。
网络5例如是LAN(局域网)或WAN(广域网)。网络5的类型、用于网络5的协议等不受限制。图1中示出的两个网络5不必彼此完全相同。
摄像机10是能够捕捉运动图像的摄像机,诸如数码视频摄像机。摄像机10生成运动图像数据并经由网络5将其传输至服务器设备20。
图2是示出在一个实施例中生成的运动图像数据的示例的示意图。运动图像数据11由多个时间上连续的帧图像12构成。例如以30fps(帧每秒)或60fps的帧速率生成帧图像12。注意,可以通过隔行扫描针对每个场生成运动图像数据11。根据一个实施例,摄像机10对应于成像设备。
如图2所示,沿时间轴生成多个帧图像12。当在图2中观看时从左侧向右侧生成帧图像12。位于左侧的帧图像12对应于运动图像数据11的前半部,而位于右侧的帧图像12对应于运动图像数据11的后半部。
在一个实施例中,使用多个摄像机10。因此,利用多个摄像机10捕捉的多个帧图像12被传输至服务器设备20。在一个实施例中,多个帧图像12对应于多个捕捉的图像。
客户端设备30包括通信单元31和GUI(图形用户接口)单元32。通信单元31用于经由网络5与服务器设备20通信。GUI单元32显示运动图像数据11、用于各种操作的GUI、以及其它信息。例如,通信单元31经由网络5接收从服务器设备20传输的运动图像数据11等。运动图像等被输出至GUI单元32并通过预定GUI被显示在显示单元(未示出)上。
此外,经由显示在显示单元上的GUI在GUI单元32中输入来自用户的输入。GUI单元32基于输入操作生成指示信息,并将指示信息输出至通信单元31。通信单元31经由网络5将指示信息传输至服务器设备20。注意,可以与GUI单元32分开地设置基于输入操作生成指示信息并输出该信息的块。
例如,客户端设备30是PC(个人计算机)或平板式便携终端,但是客户端设备30不受限于它们。
服务器设备20包括摄像机管理单元21、摄像机控制单元22和图像分析单元23。摄像机控制单元22和图像分析单元23连接至摄像机管理单元21。另外,服务器设备20包括数据管理单元24、警报管理单元25和存储各种类型数据的存储单元208。此外,服务器设备20包括用于与客户端设备30通信的通信单元27。通信单元27连接至摄像机控制单元22、图像分析单元23、数据管理单元24和警报管理单元25。
通信单元27经由网络5将从连接至通信单元27的块输出的各种类型的信息和运动图像数据11传输至客户端设备30。此外,通信单元27接收从客户端设备30传输的指示信息,并将指示信息输出至服务器设备20的块。例如,指示信息可以经由控制单元(未示出)输出至块,以控制服务器设备20的操作。在一个实施例中,通信单元27用作输入来自用户的指示的指示输入单元。
摄像机管理单元21经由网络5将从摄像机控制单元22提供的控制信号传输至摄像机10。这允许控制摄像机10的各种操作。例如,控制摄像机的平摇和倾斜、缩放、对焦等操作。
此外,摄像机管理单元21经由网络5接收从摄像机10传输的运动图像数据11,然后将运动图像数据11输出至图像分析单元23。可以适当地执行诸如噪声处理的处理。在一个实施例中,摄像机管理单元21用作图像输入单元。
图像分析单元23针对每个帧图像12分析从相应摄像机10提供的运动图像数据11。图像分析单元23分析帧图像12中出现的对象的类型和数目、对象的运动等。在一个实施例中,图像分析单元23从多个时间上连续的帧图像12中的每个中检测预定对象。在本文中,人物被检测作为预定对象。对于帧图像12中出现的多个人物,针对每个人物执行检测。从帧图像12检测人物的方法不受限制,并且可以使用公知的技术。
此外,图像分析单元23生成对象图像。对象图像是人物被检测到的每个帧图像12的部分图像,并且包含检测到的人物。通常,对象图像是检测到的人物的缩略图图像。根据帧图像12生成对象图像的方法不受限制。针对每个帧图像12生成对象图像,使得生成一个或更多个对象图像。
此外,图像分析单元23可以计算两个图像之间的差。在一个实施例中,图像分析单元23检测帧图像12之间的差。此外,图像分析单元23检测预定参考图像与每个帧图像12之间的差。用于计算两个图像之间的差的技术不受限制。通常,把两个图像之间的亮度值的差计算为差。另外,可以使用亮度值的绝对差、与亮度值有关的归一化校正系数、频率分量等的和来计算差。可以适当地使用在模式匹配等中使用的技术。
此外,图像分析单元23确定检测到的对象是否是要监视的人物。例如,欺骗手段进入安全门等的人物、其数据没有存储在数据库中的人物等被确定为要监视的人物。使用监管摄像机系统100的安保人员可以通过操作输入来执行关于要监视的人物的确定。此外,用于把检测到的人物确定为可疑人物的条件、算法等不受限制。
此外,图像分析单元23可以执行对检测到的对象的跟踪。具体地,图像分析单元23检测对象的运动并生成其跟踪数据。例如,针对每个连续帧图像12计算作为跟踪目标的对象的位置信息。位置信息用作对象的跟踪数据。用于跟踪对象的技术不受限制,并且可以使用公知的技术。
根据一个实施例的图像分析单元23用作检测单元、第一生成单元、确定单元和第二生成单元的部分。这些功能不必通过一个块来实现,可以分开地设置用于实现每个功能的块。
数据管理单元24管理运动图像数据11、图像分析单元23的分析结果的数据、从客户端设备30传输的指示数据等。此外,数据管理单元24管理存储在存储单元208上的过去的运动图像的视频数据和元信息数据、从警报管理单元25提供的关于警报指示的数据等。
在一个实施例中,存储单元208存储与生成的缩略图图像相关联的信息,即关于作为生成缩略图图像的源的帧图像12的图像捕捉时间的信息、以及用于标识缩略图图像中包含的对象的标识信息。作为生成缩略图图像的源的帧图像12对应于包含对象图像的捕捉图像。如上所述,在一个实施例中,缩略图图像中包含的对象为人物。
基于与每个图像相关联地存储的图像捕捉时间信息,数据管理单元24布置(arrange)来自一个或更多个对象图像之中的、具有存储在存储单元208中的相同标识信息的一个或更多个图像。具有相同标识信息的一个或更多个图像对应于相同对象图像(identical object image)。例如,沿着时间轴、按图像捕捉时间的顺序布置一个或更多个相同对象图像。这允许充分观测预定对象的时间序列运动或运动历史。换言之,使得能够进行高度准确的跟踪。
如稍后将详细描述的,数据管理单元24从一个或更多个对象图像中选择参考对象图像,以使用它作为参考。另外,数据管理单元24输出显示在客户端设备30的显示单元上的时间轴的数据以及指示时间轴上的预定位置的指向符。另外,数据管理单元24选择对应于由指向符指示的时间轴上的预定位置的相同对象图像,并从存储单元208读取作为与相同对象图像相关联的信息的对象信息并输出对象信息。另外,数据管理单元24根据输入单元输入的预定指示来校正一个或更多个相同对象图像。
在一个实施例中,图像分析单元23将预定对象的跟踪数据输出至数据管理单元24。数据管理单元24基于跟踪数据生成表达对象的运动的运动图像。注意,可以分开地设置生成运动图像的块,并且数据管理单元24可以将跟踪数据输出至块。
另外,在一个实施例中,存储单元208存储关于运动图像数据11中出现的人物的信息。例如,存储单元208初步存储使用监管摄像机系统100的公司和建筑物内的人物的数据。当例如预定人物被检测到并且被选择时,数据管理单元24从存储单元208读取人物的数据并输出该数据。对于数据没有被存储的人物,诸如外人,可以输出指示人物的数据没有被存储的数据,以作为人物的信息。
另外,存储单元208存储运动图像上的位置与多个帧图像12中的每个帧图像之间的关联。根据基于该关联选择运动图像上的预定位置的指示,数据管理单元24输出与所选择的预定位置相关联且从多个帧图像12中选择的帧图像12。
在一个实施例中,数据管理单元24用作布置单元、选择单元、第一和第二输出单元、校正单元和第二生成单元的部分。
警报管理单元25管理针对帧图像12中的对象的警报指示。例如,基于来自用户的指示和图像分析单元23的分析结果,把预定对象检测为相关对象,诸如可疑人物。用警报指示显示检测到的可疑人物等。此时,管理警报指示的类型、执行警报指示的定时等。此外,管理警报指示的历史等。
图3是示出根据一个实施例的监管摄像机系统100的功能框图。多个摄像机10经由网络5传输运动图像数据11。针对从相应摄像机10传输的运动图像数据11(在图像分析单元23中)执行用于人物检测的分段。具体地,针对构成运动图像数据11的多个帧图像12中的每个执行图像处理,以检测人物。
图4是示出通过人物检测处理生成的人物跟踪元数据的示例的图。如上所述,根据检测到人物40的帧图像12生成缩略图图像41。图4中示出的与缩略图图像41相关联的人物跟踪元数据42被存储。人物跟踪元数据42的详情如下。
"object_id(对象_id)"表示检测到的人物40的缩略图图像41的ID,并且与缩略图图像41具有一对一关系。"tracking_id(跟踪_id)"表示被确定为同一人物40的ID的跟踪ID,并且对应于标识信息。"camera_id(摄像机_id)"表示借以捕捉帧图像12的摄像机10的ID。"timestamp(时间戳)"表示人物40出现的帧图像12被捕捉的时间和日期,并且对应于图像捕捉时间信息。"LTX"、"LTY"、"RBX"和"RBY"表示帧图像12中的缩略图图像41的位置坐标(归一化)。"MapX"和"MapY"分别表示地图中人物40的位置信息(归一化)。
图5A和5B分别是用于描述人物跟踪元数据42(LTX,LTY,RBX,RBY)的图。如图5A所示,帧图像12的左上端点13被设置为坐标(0,0)。此外,帧图像12的右下端点14被设置为坐标(1,1)。在这样的归一化状态下缩略图图像41的左上端点处的坐标(LTX,LTY)和缩略图图像41的右下端点处的坐标(RBX,RBY)被存储作为人物跟踪元数据42。如图5B所示,对于帧图像12中的多个人物40,生成每个人物40的缩略图图像41,并且位置坐标(LTX,LTY,RBX,RBY)的数据与缩略图图像41相关联地存储。
如图3所示,针对每个运动图像数据11生成人物跟踪元数据42,并且收集人物跟踪元数据42以将其存储在存储单元208中。同时,根据帧图像12生成的缩略图图像41还作为视频数据被存储在存储单元208中。
图6是示出根据一个实施例的监管摄像机系统100的概况的示意图。如图6所示,适当地读出存储在存储单元208中的人物跟踪元数据42、缩略图图像41、用于实现本公开内容的实施例的系统数据等。系统数据包括例如稍后描述的地图信息和关于摄像机10的信息。这些数据用于由服务器设备20根据来自客户端设备30的预定指示来提供与本公开内容的实施例有关的服务。以这种方式,在服务器设备20与客户端设备30之间允许交互式处理。
注意,当摄像机10传输运动图像数据11时,人物检测处理可以作为预处理被执行。具体地,与客户端设备30使用和本公开内容的实施例有关的服务或应用无关地,缩略图图像41的生成、人物跟踪元数据42的生成等可以由图3的虚线3围绕的框初步执行。
(监管摄像机系统的操作)
图7是示出根据一个实施例的服务器设备20生成的UI(用户接口)屏幕的示例的示意图。用户可以操作显示在客户端设备30的显示单元上的UI屏幕50,以检查摄像机的视频(帧图像12)、警报记录和指定人物40的运动路径以及执行例如对分析结果的校正处理。
在一个实施例中UI屏幕50由第一显示区域52和第二显示区域54构成。卷胶片图像51被显示在第一显示区域52中,对象信息53被显示在第二显示区域54中。如图7所示,UI屏幕50的下半部是第一显示区域52,UI屏幕50的上半部是第二显示区域54。在UI屏幕50的竖直方向上,第一显示区域52的尺寸(高度)小于第二显示区域54。第一显示区域52和第二显示区域54的位置和尺寸不受限制。
卷胶片图像51由时间轴55、指示时间轴55上的预定位置的指向符56、沿时间轴55布置的相同缩略图图像57、以及稍后描述的跟踪状态条58(下文中,被称作状态条58)构成。指向符56用作时间指示器。相同缩略图图像57对应于相同对象图像。
在一个实施例中,从自帧图像12检测到的一个或更多个缩略图图像41中选择用作参考对象图像的参考缩略图图像43。在一个实施例中,根据人物A在预定图像捕捉时间处被成像的帧图像12生成的缩略图图像41被选择作为参考缩略图图像43。例如,基于人物A在该时间进入禁止区域并由此被确定为可疑人物的原因,选择参考缩略图图像43。选择参考缩略图图像43所基于的条件等不受限制。
当选择参考缩略图图像43时,对参考缩略图图像43的跟踪ID进行参考,并且选择具有相同跟踪ID的一个或更多个缩略图图像41作为相同缩略图图像57。基于参考缩略图图像43的图像捕捉时间(下文中,被称作参考时间),沿时间轴55布置一个或更多个相同缩略图图像57。如图7所示,参考缩略图图像43被设置为尺寸比其它相同缩略图图像57更大。参考缩略图图像43以及一个或更多个相同缩略图图像57构成卷胶片部分59。注意,参考缩略图图像43包含在相同缩略图图像57之中。
在图7中,在对应于时间轴55上的参考时间T1的位置处布置指向符56。这表明了关于参考缩略图图像43构成UI屏幕50时的基本初始状态。在指向符56指示的参考时间T1的右侧,布置晚于参考时间T1捕捉的相同缩略图图像57。在参考时间T1的左侧,布置早于参考时间T1捕捉的相同缩略图图像57。
在一个实施例中,在时间轴55上关于参考时间T1的相应预定范围61内布置相同缩略图图像57。范围61表示时间长度,并对应于卷胶片部分59的标准,即标度。卷胶片部分59的标准不受限制,并且可以被适当地设置为1秒、5秒、10秒、30分钟、1小时等。例如,假设卷胶片部分59的标准是10秒,在图7所示的参考时间T1右侧以10秒的间隔设置预定范围61。根据在10秒期间被成像的人物A的相同缩略图图像57,选择并布置要作为卷胶片图像51被显示的显示缩略图图像62。
参考缩略图图像43是在参考时间T1捕捉的图像。在参考缩略图图像43的右端43a和左端43b设置相同的参考时间T1。针对晚于参考时间T1的时间,关于参考缩略图图像43的右端43a布置相同缩略图图像57。另一方面,针对早于参考时间T1的时间,关于参考缩略图图像43的左端43b布置相同缩略图图像57。因此,指向符56位于参考缩略图图像43的左端43b的状态可以作为UI屏幕50被显示,从而示出基本初始状态。
从在由预定范围61指示的时间内捕捉的相同缩略图图像57选择显示缩略图图像62的方法不受限制。例如,可以选择在预定范围61内的相同缩略图图像57当中的最早时间处捕捉的图像,即过去的图像,以作为显示缩略图图像62。相反地,可以选择在最近时间处捕捉的图像,即将来的图像,以作为显示缩略图图像62。替选地,可以选择在预定范围61内的时间中点处捕捉的图像或与时间中点最接近的时间处捕捉的图像,以作为显示缩略图图像62。
在时间轴55与相同缩略图图像57之间,沿时间轴55显示图7所示的跟踪状态条58。跟踪状态条58指示执行人物A的跟踪的时间。具体地,跟踪状态条58指示存在相同缩略图图像57的时间。例如,当人物A位于杆子后面等或与帧图像12中的另一人物重叠时,人物A不被检测为对象。在这种情况下,没有生成人物A的缩略图图像41。这样的时间是不执行跟踪的时间,并对应于跟踪状态条58中断的部分63或如图7所示没有提供跟踪状态条58的部分63。
此外,针对捕捉人物A的图像的每个摄像机10,以不同颜色显示跟踪状态条58。因此,为了掌握利用哪个摄像机10捕捉要生成相同缩略图图像57的源的帧图像12,适当地执行用颜色显示。基于图4中示出的人物跟踪元数据42,确定捕捉人物A的图像的摄像机10,即跟踪人物A的摄像机10。基于确定结果,以针对每个摄像机10设置的颜色显示跟踪状态条58。
在图7示出的UI屏幕50的地图信息65中,示出了三个摄像机10和各个摄像机10的成像范围66。例如,对摄像机10和成像范围66给出预定颜色。为了与上述那些颜色对应,对跟踪状态条58给出颜色。这允许容易且直观地观测人物A。
如上所述,例如,假设在预定范围61内的最早时间处捕捉的图像被选择作为显示缩略图图像62。在这种情况下,位于图7最左侧位置的显示缩略图图像62a是在显示缩略图图像62a上方示出的跟踪状态条58的左端58a的时间T2处捕捉的相同缩略图图像57。在图7中,在该显示缩略图图像62的左侧没有布置相同缩略图图像57。这意味着在捕捉显示缩略图图像62a的时间T2之前没有生成相同缩略图图像57。换言之,此时没有执行人物A的跟踪。在没有显示相同缩略图图像57的范围内,可以显示指示没有执行跟踪的图像、文本等。例如,可以显示具有灰色的人物形状的图像,作为没有显示人物的图像。
图7中示出的第二显示区域54被分成左显示区域67和右显示区域68。在左显示区域67中,显示作为对象信息53被输出的地图信息65。在右显示区域68中,显示作为对象信息53输出的帧图像12和运动图像69。这些图像被输出以作为与根据指向符56在时间轴55上指示的预定位置选择的相同缩略图图像57相关联的信息。因此,显示地图信息65,地图信息65指示在由指向符56指示的时间处捕捉的相同缩略图图像57中包含的人物A的位置。此外,显示包含在由指向符56指示的时间处捕捉的相同缩略图图像57的帧图像12、以及人物A的运动图像69。在一个实施例中,显示用作运动图像69的交通线路,但是要显示为运动图像69的图像不受限制。
对应于由指向符56指示的时间轴55上的预定位置的相同缩略图图像57不限于在该时间处捕捉的相同缩略图图像57。例如,可以在包含由指向符56指示的时间的范围61(卷胶片部分59的标准)内显示关于被选择作为显示缩略图图像62的相同缩略图图像57的信息。替选地,可以选择不同的相同缩略图图像57。
地图信息65初步被存储作为图6中示出的系统数据。在地图信息65中,基于人物跟踪元数据42显示指示被检测作为对象的人物A的图标71a。在图7中示出的UI屏幕50中,显示捕捉参考缩略图图像43的时间T1处的人物A的位置。此外,在包含参考缩略图图像43的帧图像12中,人物B被检测作为另一对象。因此,还在地图信息65中显示指示人物B的图标71b。此外,在地图信息65中还显示人物A和人物B的运动图像69。
在作为对象信息53输出的帧图像12(下文中被称作播放视图图像70)中,显示强调图像72,强调图像72是强调地示出的所检测的对象的图像。在一个实施例中,围绕检测到的人物A和人物B的帧被显示,以分别用作强调图像72a和强调图像72b。每个帧对应于所生成的缩略图图像41的外边缘。注意,例如,箭头可以显示在人物40上以用作强调图像72。任何其它图像可以用作强调图像72。
此外,在一个实施例中,还显示将卷胶片图像51中示出的对象与播放视图图像70中的多个对象区分开的图像。下文中,在卷胶片图像51中显示的对象被称作目标对象73。在图7等中示出的示例中,人物A是目标对象73。
在一个实施例中,显示包含在播放视图图像70中的多个对象中的目标对象73的图像。利用这一点,可以掌握显示在一个或更多个相同缩略图图像57中的目标对象73处于播放视图图像70中哪个位置。结果,允许直观的观测。在一个实施例中,对上述强调图像72给出预定颜色。例如,对围绕作为卷胶片图像51被显示的人物A的强调图像72a给出诸如红色的醒目的颜色。另一方面,对围绕用作另一对象的人物B的强调图象72b给出诸如绿色的另一颜色。以这种方式,对象相互区分开。可以通过使用另外的方法和图像来区分目标对象73。
根据强调图像72的颜色,还可以以不同颜色显示运动图像69。具体地,可以以红色显示表达人物A的运动的运动图像69a,可以以绿色显示表达人物B的运动的运动图像69b。这允许充分观测用作目标对象73的人物A的运动。
图8和9是分别示出用户1在UI屏幕50上的操作以及对应于该操作的处理的示例的图。如图8和9所示,用户1在也用作触摸面板的屏幕上输入操作。该操作作为来自用户1的指示经由客户端设备30被输入到服务器设备20。
在一个实施例中,对一个或更多个相同缩略图图像57的指示被输入,并根据该指示,改变由指向符56指示的时间轴55上的预定位置。具体地,在水平方向(y轴方向)上将拖拽操作输入到卷胶片图像51的卷胶片部分59。这使相同缩略图图像57在水平方向上运动,并且连同该运动一起,时间轴55内的指示图像的时间(即分度)也运动。指向符56的位置是固定的,并且由此指向符56在时间轴55上指向的位置74(下文中称作指向位置74)相对地改变。注意,当对指向符56输入拖拽操作时,指向位置74可以改变。另外,例如,用于改变指向位置74的操作不受限制。
结合指向位置74的改变,对应于指向位置74的相同缩略图图像57的选择以及对象信息53的输出改变。例如,如图8和9所示,假设相同缩略图图像57在左方向上运动。利用这一点,指向符56相对地在右方向上运动,并且指向位置74改变为晚于参考时间T1的时间。与此结合,显示与晚于参考时间T1捕捉的相同缩略图图像57有关的地图信息65和播放视图图像70。换言之,在地图信息65中,沿着运动图像69,人物A的图标71a在右方向上运动,人物B的图标71b在左方向上运动。在播放视图图像70中,人物A与运动图像69a一起运动至深侧,人物B与运动图像69b一起运动至近侧。顺序地显示这样的图像。这允许掌握和详细地观测沿着时间轴55的对象的运动。此外,这允许从一个或更多个相同缩略图图像57选择显示诸如播放视图图像70的对象信息53的图像的操作。
注意,在图8和9所示的示例中,布置根据用一个摄像机10捕捉的帧图像12生成的相同缩略图图像57。因此,应以对应于该摄像机10的仅一个颜色给出跟踪状态条58。然而,在图7至9中,为了说明针对每个摄像机10以不同颜色显示跟踪状态条58,图示了不同类型的跟踪状态条58。另外,作为卷胶片部分59在左方向上运动的结果,在右侧没有显示新的相同缩略图图像57。然而,在存在该时间处捕捉的相同缩略图图像57的情况下,适当地布置那些图像。
图10至12是分别示出改变指向位置74的操作的另一示例的图。如图10至12所示,指向符56指示的位置74可根据对输出对象信息53的指示输入而改变。
在一个实施例中,作为目标对象73的人物A被选择作为UI屏幕50的播放视图图像70上的对象。例如,手指可以放置在人物A上或强调图像72上。通常,在强调图像72内某一位置上的触摸等允许输入选择人物A的指示。当选择人物A时,显示在左显示区域67中的信息从地图信息65改变为放大显示信息75。放大显示信息75可以根据作为播放视图图像70显示的帧图像12而生成。放大显示信息75也包含在与相同缩略图图像57相关联的对象信息53中。放大显示信息75的显示允许详细地观测用户1选择的对象。
如图10至12所示,在选择人物A的状态下,沿着运动图像69a输入拖拽操作。对应于运动图像69a上的位置的帧图像12作为播放视图图像70被显示。对应于运动图像69a上的位置的帧图像12是指在上述位置处显示人物A或在最接近上述位置的位置处显示人物A的帧图像12。例如,如图10至12所示,人物A沿着运动图像69a运动至深侧。结合该运动,指向位置74移向作为晚于参考时间T1的时间的右方向。具体地,相同缩略图图像57在左方向上运动。结合该运动,放大显示信息75也改变。
当播放视图图像70改变时,结合该改变,指向符56移向对应于作为播放视图图像70显示的帧图像12的图像捕捉时间的位置。这允许改变指向位置70。这对应于下述事实:指向位置74处的时间和播放视图图像70的图像捕捉时间彼此相关联,并且当它们中的一个改变时,另一个也结合前者改变而改变。
图13至15是分别示出改变指向位置74的操作的另一示例的图。如图13所示,与播放视图图像70中显示的目标对象73不同的另一对象76被操作,使得可以改变指向位置74。如图13所示,选择作为另一对象76的人物B,并且显示人物B的放大显示信息75。当沿着运动图像69b输入拖拽操作时,根据拖拽操作改变指向符56的指向位置74。以这种方式,可以执行针对另一对象76的操作。因此,可以观测另一对象76的运动。
如图14所示,当手指与作为另一对象76的人物B分开时,显示用于指定目标对象73的弹出窗口77。例如,弹出窗口77用于校正或改变目标对象73。如图15所示,在这种情况下,选择“取消”,使得不改变目标对象73。随后,删除弹出窗口77。稍后将与目标对象73的校正一起描述弹出窗口77。
图16至19是用于描述作为卷胶片图像51布置的一个或更多个相同缩略图图像57的校正的图。如图16所示,当人物A被成像的参考缩略图图像43被选择时,在一些情况下不同于人物A的人物B被成像的缩略图图像41b可以作为相同缩略图图像57被布置。例如,当从帧图像12检测到对象时,可能发生错误检测,并且作为另一对象76的人物B可以被设置为具有指示人物A的跟踪ID。例如,这种错误检测会由于那些人物的大小和形状或发型相似或快速运动的两个人物离去的各种情况而发生。在这种情况下,不正确用作目标对象73的对象的缩略图图像41被显示在卷胶片图像51中。
在根据一个实施例的监管摄像机系统100中,如稍后将描述的,可以通过简单的操作来执行目标对象73的校正。具体地,可以根据通过输入单元输入的预定指示来校正一个或更多个相同缩略图图像57。
如图17所示,在播放视图图像70中搜索在目标对象73被不正确地识别的状态下的图像。具体地,搜索下述播放视图图像70:其中以红色显示人物B的强调图像72b以及以绿色显示人物A的强调图像72a。在图17中,操作卷胶片部分59,使得搜索被错误检测的播放视图图像70。替选地,可以通过对播放视图图像70的人物A或人物B的操作执行搜索。
如图18所示,当指向符56移向人物B的缩略图图像41b被显示的范围78的左端78a时,目标对象73被错误地检测的播放视图图像70被显示。用户1选择其强调图像72a以绿色显示的人物A,人物A最初被检测为目标对象73。随后,用于指定目标对象73的弹出窗口77被显示,并且目标指定按钮被压下。
如图19所示,被布置在指向符56的右侧的人物B的缩略图图像41b被删除。在这种情况下,删除晚于由指向符56指示的时间捕捉的所有缩略图图像41,即缩略图图像41和无人物被显示的图像。在一个实施例中,动画79被显示,通过动画79晚于由指向符56指示的时间捕捉的缩略图图像41逐渐消失至UI屏幕50的下侧,并且删除缩略图图像41。删除缩略图图像41时的UI不受限制,可以显示直观上易于理解的动画或具有高设计性的动画。
在删除指向符56的右侧的缩略图图像41之后,被指定为校正后的目标对象73的人物A的缩略图图像41被布置为相同缩略图图像57。在播放视图图像70中,以红色显示人物A的强调图像72a,以绿色显示人物B的强调图像72b。
注意,如图18等所示,当指向符56处于人物B的缩略图图像41b被显示的范围78的左端78a时,找到被错误检测的播放视图图像70。然而,也可以在人物A的缩略图图像41被显示为显示缩略图图像62的范围内找到被错误检测的播放视图图像70。在这种情况下,可以删除晚于相关显示缩略图图像62被捕捉的时间所捕捉的人物B的缩略图图像41b,或可以删除指向符56的右侧的缩略图图像41,使得人物A的缩略图图像41的范围被分割。另外,也可以在人物B的缩略图图像41b被显示为显示缩略图图像62的范围的一半处找到被错误检测的播放视图图像70。在这种情况下,仅需要执行包含人物B的缩略图图像41b的缩略图图像的删除。
以这种方式,根据选择包含在作为对象信息53输出的播放视图图像70中的另一对象76的指示,校正一个或更多个相同缩略图图像57。这允许通过直观的操作来执行校正。
图20至25是用于描述一个或更多个相同缩略图图像57的校正的另一示例的图。在这些图中,没有示出地图信息65。类似于上述描述,首先,搜索人物B被错误检测为目标对象73的时间处的播放视图图像70。结果,如图20所示,假设被检测为正确的目标对象73的人物A没有出现在播放视图图像70中。例如,可想到以下情况:被错误检测的人物B移离人物A;并且最初位于另一地方的人物B被检测为目标对象73。
注意,在图20中,在其左侧邻近指向符56的相同缩略图图像57a在水平方向上具有比其它缩略图图像57更小的尺寸。例如,在布置有缩略图图像57a的范围61(卷胶片部分59的标准)的一半处改变目标对象73的情况下,可以部分地改变卷胶片部分59的标准。在其它情况下,例如,当正确地检测目标对象73时可以部分地改变卷胶片部分59的标准,但是改变借以捕捉目标对象73的摄像机10。
如图21所示,当意在被指定为目标对象73的人物A没有显示在播放视图图像70中时,使用设置于UI屏幕50的剪切按钮80。在一个实施例中,剪切按钮80设置于指向符56的下部。如图22所示,当用户1点击剪切按钮80时,删除布置在指向符56的右侧的缩略图图像41b。因此,由于错误检测而被布置为相同缩略图图像57的人物B的缩略图图像41b被删除。随后,播放视图图像70中的人物B的强调图像72b的颜色从红色变为绿色。注意,例如剪切按钮80的位置或形状不受限制。在一个实施例中,剪切按钮80被布置为连接至指向符56,这允许通过直观的操作执行关于指向符56的剪切处理。
搜索出现目标对象73的错误检测的时间点对应于从一个或更多个相同缩略图图像57中选择晚于该时间点捕捉的至少一个相同缩略图图像57。所选择的相同缩略图图像57被剪切,使得对一个或更多个缩略图图像57进行校正。
如图23所示,当布置在指向符56的右侧的缩略图图像41b被删除时,在显示地图信息65的左显示区域67中显示利用各个摄像机10捕捉的视频图像,即多个帧图像12。摄像机10的视频图像被显示在均具有小尺寸的监视器显示区域81中,并且可以作为视频列表被观看。在监视器显示区域81中,对应于指向符56的指向位置74处的时间的帧图像12被显示。此外,为了在摄像机10之间进行区分,在每个监视器显示区域81的上部82中显示针对每个摄像机10设置的颜色。
多个监视器显示区域81被设置为搜索要被检测为目标对象73的人物A。从监管摄像机系统100中的多个摄像机10当中选择其捕捉图像被显示在监视器显示区域81中的摄像机10的方法不受限制。通常,按照具有作为目标对象73的人物A被成像的较高可能性的区域的降序来顺序地选择摄像机10,并且摄像机10的视频图像被顺序地显示为从左显示区域67的顶部开始的列表。在捕捉发生错误检测的帧图像12的摄像机10附近的区域被选择为具有人物A被成像的高可能性的区域。替选地,例如,基于人物A的信息选择人物A工作的办公室。也可以使用其它方法。
如图24所示,操作卷胶片部分59,使得改变由指向符56指示的位置74。与此结合,改变播放视图图像70和监视器显示区域81的监视器图像。此外,当用户1选择监视器显示区域81时,在右显示区域68中显示在选择的监视器显示区域81中所显示的监视器图像,作为播放视图图像70。因此,用户1可以改变指向位置74或适当地选择监视器显示区域81,以容易地搜索要被检测为目标对象73的人物A。
注意,在太晚的时间处可以检测人物A作为目标对象73以被显示在UI屏幕50上,即在指向位置74的右侧的位置。具体地,可以解决目标对象73的错误检测,并且人物A可以被适当地检测为目标对象73。在这种情况下,例如,可以显示用于输入跳转至在该时间人物A出现的相同缩略图图像57的指示的按钮。例如,当时间进展以在接近当前时间的时间处监视人物A时,这是有效的。
如图25所示,从多个监视器显示区域81中选择人物A出现的监视器图像12,并且所选择的监视器图像12被显示为播放视图图像70。随后,如图18所示,选择了显示在播放视图图像70中的人物A,并且显示用于指定目标对象73的弹出窗口77。用于指定目标对象73的按钮被压下,使得对目标对象73进行校正。在图25中,在指向符56的上部显示用于显示候选的候选浏览按钮83。稍后将详细描述候选浏览按钮83。
图26至30是用于描述一个或更多个相同缩略图图像57的校正的另一示例的图。在卷胶片部分59的一个或更多个相同缩略图图像57中,在一半时间处,可能出现目标对象73的错误检测。例如,经过目标对象73(人物A)的另一人物B被错误检测为目标对象73。在捕捉人物B的图像的摄像机10被切换的时刻,人物A可以被适当地再次检测为目标对象73。
图26是示出这样的情况的示例的图。如图26所示,被布置的相同缩略图图像57包括人物B的缩略图图像41b。当观看播放视图图像70时,显示运动图像69。运动图像69表达了朝向深侧行进的人物B的运动,但是在半路折返并返回至近侧。在这样的情况下,可以通过以下操作校正卷胶片部分59中显示的人物B的缩略图图像41b。
首先,指向符56被调节至人物B被错误地检测为目标对象73的时间。通常,指向符56被调节至位于人物B的缩略图图像41b的最左位置处的缩略图图像41b的左端78a。如图27所示,用户1压下剪切按钮80。当在该状态下输入点击操作时,剪切在指向符56右侧的相同缩略图图像57。因此,这里,在剪切按钮80被压下的情况下手指移向范围78的端部。在范围78内,显示人物B的缩略图图像41b。具体地,在剪切按钮80被压下的情况下,输入拖拽操作,以覆盖想要被剪切的区域。随后,如图28所示,显示指示要剪切的范围78的UI 84。注意,结合要剪切的范围78的选择,显示对应于拖拽目的地的时间的地图信息65和播放视图图像70。替选地,可以不改变地图信息65和播放视图图像70。
如图29所示,当手指在拖拽操作之后与剪切按钮89分开时,删除所选择的要剪切的范围78。如图30所示,当删除要剪切的范围78的缩略图图像41b时,显示多个监视器显示区域81,并显示利用相应摄像机10捕捉的监视器图像12。借此,在剪切范围78的时间处搜索人物A。此外,在指向符56的上部显示候选浏览按钮83。
要剪切的范围78的选择对应于一个或更多个相同缩略图图像57中的至少一个的选择。选择的相同缩略图图像57被剪切,使得一个或更多个相同缩略图图像57被校正。这允许通过直观的操作执行校正。
图31至35是用于描述如何通过使用候选浏览按钮83显示候选的图。图31中示出的UI屏幕50是在相同缩略图图像57被校正且搜索要作为目标对象73的人物A的阶段处的屏幕。在这种状态下,用户1点击候选浏览按钮83。随后,如图32所示,显示用于显示可选择的多个候选缩略图图像85的候选选择UI 86。
候选选择UI 86随后被显示为放大候选浏览按钮83的动画,并且被显示以连接至指向符56的位置。在对应于指向符56的指向位置的缩略图图像41当中,通过校正处理删除存储人物A的跟踪ID的缩略图图像41。因此,假设在存储单元208中不存在作为对应于指向位置的缩略图图像41的人物A的跟踪ID。服务器设备20从对应于指向位置74的多个缩略图图像41当中选择具有人物A出现的高可能性的缩略图图像41,并显示所选择的缩略图图像41作为候选缩略图图像85。注意,例如从在指向位置74的该时间处捕捉的缩略图图像41或在指向位置74的该时间周围的预定范围内包含的时间处捕捉的缩略图图像41中选择对应于指向位置74的候选缩略图图像85。
选择候选缩略图图像85的方法不受限制。通常,计算出现在缩略图图像41中的对象的相似度。对于该计算,可以使用包括模式匹配处理和边缘检测处理的任何技术。替选地,基于关于要搜索的目标对象的信息,优选地可以从对象频繁出现的区域选择候选缩略图图像85。也可以使用其它方法。注意,如图33所示,当改变指向位置74时,还结合指向位置74的改变来改变候选缩略图图像85。
另外,候选选择UI 86包括关闭按钮87和刷新按钮88。关闭按钮87是用于关闭候选选择UI 86的按钮。刷新按钮88是用于指示候选缩略图图像85的更新的按钮。当点击刷新按钮88时,再次检索其它候选缩略图图像85并进行显示。
如图34所示,当人物A的缩略图图像41a作为候选缩略图图像85被显示在候选选择UI 86中时,用户1选择缩略图图像41a。随后,如图35所示,关闭候选选择UI 86,并且包含缩略图图像41a的帧图像12被显示为播放视图图像70。此外,显示与播放视图图像70相关联的地图信息65。用户1可以观测播放视图图像70(运动图像69)和地图信息65以确定对象是人物A。
当播放视图图像70中出现的对象被确定为人物A时,如图18所示,选择人物A并显示用于指定目标对象73的弹出窗口77。用于指定目标对象73的按钮被压下,使得人物A被设置为目标对象73。因此,人物A的缩略图图像41a被显示为相同缩略图图像57。注意,在图34中,当选择候选缩略图图像85时,可以执行目标对象73的设置。这允许缩短处理花费的时间。
如上所述,从存储有不同于所选择的参考缩略图图像43的标识信息的标识信息的一个或更多个缩略图图像41中,选择要成为相同缩略图图像57的候选的候选缩略图图像85。这允许容易地校正一个或更多个缩略图图像57。
图36是详细示出校正上述一个或更多个相同缩略图图像57的处理的示例的流程图。图36示出了播放视图图像70中的人物被点击的处理。
确定是否点击播放视图图像70中的检测到的人物(步骤101)。当确定不点击人物(步骤101中为否)时,处理返回到初始状态(校正前)。当确定点击人物(步骤101中为是)时,确定被点击的人物是否与警报人物相同(步骤102)。
警报人物是指要提防的人物或要监视的人物,并且对应于上述目标对象73。将被点击的人物的跟踪ID(track_id)与警报人物的跟踪ID进行比较,执行步骤102中的确定处理。
当被点击的人物被确定为与警报人物相同(步骤102中为是)时,处理返回至初始状态(校正前)。换言之,确定点击操作不是校正的指示。当被点击的人物被确定为不与警报人物相同(步骤102中为否)时,用于指定目标对象73的弹出窗口77被显示为GUI菜单(步骤103)。随后,确定是否选择菜单中的“设置目标”,即是否点击用于指定目标的按钮(步骤104)。
当确定没有选择“设置目标”(步骤104中为否)时,删除GUI菜单。当确定选择“设置目标”(步骤104中为是)时,获取播放视图图像70的当前时间t(步骤105)。当前时间t对应于被显示为播放视图图像70的帧图像12的图像捕捉时间。确定在时间t处是否存在警报人物的跟踪数据(步骤106)。具体地,确定在时间t处是否存在被检测为目标对象73的对象以及是否存在其缩略图图像41。
图37是示出当确定在时间t处存在被检测为目标对象73的对象(在步骤106中为是)时的UI屏幕的示例的图。如果在时间t处存在相同缩略图图像57,则相同缩略图图像57中的人物(在这种情况下,人物B)出现在播放视图图像70中。在这种情况下,检测跟踪数据的中断时间(步骤107)。中断时间是早于时间t且最接近时间t的时间,在该中断时间处不存在警报人物的跟踪数据。如图37所示,中断时间由t_a表示。
此外,检测跟踪数据的另一中断时间(步骤108)。该中断时间是晚于时间t且最接近时间t的时间,在该中断时间处不存在警报人物的跟踪数据。还如图37所示,中断时间由t_b表示。剪切关于从检测到的时间t_a到时间t_b的人物跟踪的数据。因此,删除图37中示出的卷胶片部分59中包含的人物B的缩略图图像41b。随后,在时间t_a与时间t_b之间重新发布关于跟踪的人物的数据的track_id(步骤109)。
在这里描述的处理的示例中,当相同缩略图图像57被布置在卷胶片部分59中时,发布关于跟踪人物的数据的track_id。发布的关于跟踪人物的数据的track_id被设置为警报人物的track_id。例如,当选择参考缩略图图像43时,其track_id作为关于跟踪人物的数据的track_id被发布。关于跟踪人物的数据的track_id被设置为警报人物的track_id。存储所设置的track_id的缩略图图像41被选择作为相同缩略图图像57并被布置。当如上所述删除预定范围(从时间t_a到时间t_b的范围)内的相同缩略图图像57时,在该范围内重新发布关于跟踪人物的数据的track_id。
把指定人物设置为目标对象(步骤110)。具体地,在从时间t_a到时间t_b的范围内重新发布关于指定人物的数据的track_id,并且track_id被设置为警报人物的track_id。结果,在图37中示出的示例中,经由弹出窗口77指定的人物A的缩略图图像被布置在人物B的缩略图图像被删除的范围内。以这种方式,校正相同缩略图图像57,并更新校正后的GUI(步骤111)。
图38是示出当确定在时间t处不存在被检测为目标对象73的对象(步骤106中为否)时的UI屏幕的示例的图。在图38中示出的示例中,在人物A被设置为目标对象73的情况下,在特定时间范围内不执行跟踪。
如果在时间t处不存在相同缩略图图像57,则人物(人物B)不出现在播放视图图像70中(或可以出现但是未被检测到)。在这种情况下,检测在早于时间t且最接近时间t的时间处警报人物的跟踪数据(步骤112)。随后,计算跟踪数据的时间(由时间t_a表示)。在图38中示出的示例中,检测被检测为目标对象73的人物A的数据,并计算时间t_a。注意,如果在时间t之前不存在跟踪数据,则最小时间被设置为时间t_a。最小时间是指设置的时间轴上的最小时间和最左时间点。
另外,检测在晚于时间t且最接近时间t的时间处警报人物的跟踪数据(步骤113)。随后,计算跟踪数据的时间(由时间t_b表示)。在图38中示出的示例中,检测被检测为目标对象73的人物A的数据,并计算时间t_b。注意,如果在时间t之后不存在跟踪数据,则最大时间被设置为时间t_b。最大时间是指设置的时间轴上的最大时间和最右时间点。
把指定人物设置为目标对象73(步骤110)。具体地,在从时间t_a到时间t_b的范围内重新发布关于指定人物的数据的track_id,并且track_id被设置为警报人物的track_id。结果,在图38示出的示例中,经由弹出窗口77指定的人物A的缩略图图像被布置在不存在特定时间范围的范围内。以这种方式,校正相同缩略图图像57并且更新校正后的GUI(步骤111)。结果,人物A的缩略图图像作为相同缩略图图像57被布置在卷胶片部分59中。
图39是示出校正上述一个或更多个相同缩略图图像57的处理的另一示例的流程图。图40和41是用于描述该处理的图。图39至41示出了剪切按钮80被点击时的处理。
确定UI屏幕50上作为GUI的剪切按钮80是否被点击(步骤201)。当确定剪切按钮80被点击(步骤201中为是)时,确定发布在一个点剪切的指示(步骤202)。基于在卷胶片部分59中点击剪切按钮80的位置来计算执行时间轴55上的剪切的剪切时间t(步骤203)。例如,当如图40A和40B等所示,剪切按钮80被设置以连接至指向符56时,对应于剪切按钮80被点击时的指向位置74的时间被计算为剪切时间t。
确定剪切时间t是否等于或大于生成警报的时间T(步骤204)。生成警报的时间T对应于图7等中的参考时间T1。虽然稍后将进行描述,当确定要监视的人物时,把确定时间设置为警报生成的时间,并且在该时间点处人物的缩略图图像41被选择为参考缩略图图像43。随后,在警报生成的时间T被设置为参考时间T1的情况下,生成如图8所示在初始状态下的基本UI屏幕50。步骤204中的确定是关于剪切时间t早于还是晚于参考时间T1的确定。在图40A和40B的示例中,步骤204中的确定对应于关于指向符56是位于具有大尺寸的参考缩略图图像43左侧还是右侧的确定。
例如,如图40A所示,假设在左方向上拖拽卷胶片部分59并且指向符56的指向位置74在右方向上相对移动。当在该状态下点击剪切按钮80时,确定剪切时间t等于或大于警报生成的时间T(步骤204中为是)。在这种情况下,剪切的开始时间被设置为剪切时间t,并且剪切的结束时间被设置为最大时间。换言之,剪切时间t之后的时间范围(右侧的范围R)被设置为剪切目标(步骤205)。随后,在开始时间与结束时间之间重新发布关于跟踪人物的数据的track_id(步骤206)。注意,仅目标对象73被检测到的范围,即布置有相同缩略图图像57的范围可以被设置为要剪切的范围。
如图40B所示,假设在右方向上拖拽卷胶片部分59并且指向符56的指向位置74在左方向上相对移动。当在该状态下点击剪切按钮80时,确定剪切时间t小于警报生成的时间T(步骤204中为否)。在这种情况下,剪切的开始时间被设置为s,并且剪切的结束时间被设置为剪切时间t。换言之,剪切时间t之前的时间范围(左侧的范围L)被设置为剪切目标(步骤207)。随后,在开始时间与结束时间之间重新发布关于跟踪人物的数据的track_id(步骤206)。
在步骤201中,当确定剪切按钮80没有被点击(步骤201中为否)时,确定是否拖拽剪切按钮80(步骤208)。当确定没有拖拽剪切按钮80(步骤208中为否)时,处理返回到初始状态(校正前)。当确定拖拽了剪切按钮80(步骤208中为是)时,拖拽范围被设置为由用户选择的范围,并且显示描绘该范围的GUI(步骤209)。
确定是否完成对剪切按钮80的拖拽操作(步骤210)。当确定没有完成拖拽操作(步骤210中为否)时,即当确定拖拽操作正在进行时,继续描绘所选择的范围。当确定完成对剪切按钮80的拖拽操作(步骤210中为是)时,基于拖拽开始的位置来计算剪切时间t_a。此外,基于拖拽完成的位置来计算剪切时间t_b(步骤211)。
将所计算的剪切时间t_a与剪切时间t_b进行相互比较(步骤212)。结果,当剪切时间t_a与剪切时间t_b二者彼此相等时(当t_a=t_b时),执行确定在一个点处剪切的指示之后的处理。具体地,在步骤203中时间t_a被设置为剪切时间t,并且处理进行至步骤204。
当剪切时间t_a小于剪切时间t_b时(当t_a<t_b时),剪切的开始时间被设置为剪切时间t_a,并且剪切的结束时间被设置为剪切时间t_b(步骤213)。例如,当在剪切按钮80被压下的情况下朝向将来的时间(在右方向上)输入拖拽操作时,获得t_a<t_b。在这种情况下,剪切时间t_a是开始时间,而剪切时间t_b是结束时间。
当剪切时间t_a大于剪切时间t_b时(当t_a>t_b时),剪切的开始时间被设置为剪切时间t_b,并且剪切的结束时间被设置为剪切时间t_a(步骤214)。例如,当在剪切按钮80被压下的情况下朝向过去的时间(在左方向上)输入拖拽操作时,获得t_a>t_b。在这种情况下,剪切时间t_b是开始时间,剪切时间t_a是结束时间。具体地,在剪切时间t_a和剪切时间t_b中,较小的剪切时间被设置为开始时间,而另一个较大的剪切时间被设置为结束时间。
当开始时间和结束时间被设置时,在开始时间与结束时间之间重新发布关于跟踪人物的数据的track_id(步骤206)。以这种方式,校正相同缩略图图像57并且更新校正后的GUI(步骤215)。可以通过图36和39的示例所示的处理来校正一个或更多个相同缩略图图像57。注意,如图41A和41B所示,具有小于相同缩略图图像57的宽度的宽度的范围可以被选择为要剪切的范围。在这种情况下,仅需要剪切缩略图图像41的对应于要剪切的范围的部分41P。
这里,将描述卷胶片图像51的配置和操作的其它示例。图42至45是用于描述示例的图。例如,如图42A所示,在左方向上拖拽相同缩略图图像57允许相对移动指向位置74。如图42B所示,假设具有大尺寸的参考缩略图图像43被拖拽以到达卷胶片图像51的左端89。此时,参考缩略图图像43可以被固定在左端89的位置处。当如图43A所示在左方向上从该状态进一步输入拖拽操作时,其它相同缩略图图像57在左方向上移动以与参考缩略图图像43重叠,并在参考缩略图图像43的背侧上行进。具体地,同样当拖拽操作被输入,直到参考时间达到卷胶片图像51之外,在卷胶片图像51中继续显示参考缩略图图像43。这允许当例如目标对象被错误地检测或目标对象的视线丢失时参考最先检测到的目标对象。结果,可以充分地监视被检测为可疑人物的目标对象。注意,如图43B所示,同样当在右方向上输入拖拽操作时,可以执行相似的处理。
另外,当输入拖拽操作并松开用户1的手指时,在与指向符56最接近的位置处布置的相同缩略图图像57的端部可以自动移动至指向符56的指向位置74。例如,如图44A所示,假设输入拖拽操作,直到指向符56与参考缩略图图像43重叠并且在该位置处松开用户1的手指。在这种情况下,如图44B所示,位于与指向符56最接近的参考缩略图图像43的左端43b可以与指向位置74自动对准。此时,显示在右方向上移动卷胶片部分59的动画。注意,可以对除了参考缩略图图像43之外的其它相同缩略图图像57执行相同的处理。这允许改进对卷胶片图像51的操作性。
如图45所示,也可以通过滑动(flick)操作来移动指向位置74。当输入水平方向上的滑动操作时,计算用户1的手指被松开的时刻的移动速度。基于该移动速度,在滑动方向上以恒定减速度移动一个或更多个相同缩略图图像57。指向符56在与滑动方向相反的方向上相对移动。计算移动速度的方法和设置减速度的方法不受限制,并且替代地可以使用公知技术。
接着,将描述卷胶片部分59的标准即标度的变化。图46至56是用于描述该变化的图。例如,假设针对卷胶片部分59中布置的每个相同缩略图图像57在水平方向上的尺寸设置固定尺寸S1。被分配给固定尺寸S1的时间被设置为卷胶片部分59的标准。在这种设置下,将描述改变卷胶片部分59的标准的操作和处理。注意,固定尺寸S1可以基于例如UI屏幕的尺寸被适当地设置。
在图46中,卷胶片部分59的标准被设置为10秒。因此,时间轴55上的10秒分度被分配给相同缩略图图像57的固定尺寸S1。卷胶片部分59中显示的显示缩略图图像62是在分配的10秒内的预定时间处捕捉的缩略图图像41。
如图46所示,将触摸操作输入给卷胶片部分59的两个点L和M。随后,右手1a和左手1b彼此分开以在水平方向上增加触摸点L和M之间的距离。如图46所示,可以用右手1a和左手1b输入操作,或通过用一只手的两根手指的捏放(pinch)操作来输入操作。捏放操作是例如同时与两个点接触并打开和闭合的两根手指的运动。
如图47所示,根据两个点L和M之间的距离的增加,水平方向上的每个显示缩略图图像62的尺寸S2增加。例如,根据利用两只手的操作显示每个显示缩略图图像62在水平方向上尺寸增加的动画。随着尺寸增加,时间轴55上的分度之间的距离,即分度大小也在水平方向上增加。结果,分配给固定尺寸S1的分度的数目减小。图47示出了9秒分度被分配给固定尺寸S1的状况。
如图48所示,两个点L和M之间的距离进一步增加,并且在6秒分度被分配给固定尺寸S1的状态下松开两只手1a和1b。如图49所示,显示每个显示缩略图图像62的尺寸S2再次改变至固定尺寸S1的动画。随后,卷胶片部分59的标准被设置为6秒。此时,可以重新从相同缩略图图像57中选择被显示为显示缩略图图像62的缩略图图像41。
可以最初设置可被分配给固定尺寸S1的最短时间。在两个点L和M之间的距离增加至大于最短时间被分配的尺寸的时间点处,卷胶片部分59的标准可以被自动设置为最短时间。例如,假设在图50中最短时间被设置为50秒,5秒分度被分配给固定尺寸S1的距离是显示缩略图图像62的尺寸S2具有固定尺寸S1两倍大的尺寸的距离。当两个点L和M之间的距离增加至大于显示缩略图图像62的上述距离时,如图51所示,如果右手1a和左手1b没有松开,则标准被自动设置为最短时间5秒。这样的处理允许改进卷胶片图像51的操作性。注意,被设置为最短时间的时间不受限制。例如,被设置为初始状态的标准可以用作参考,并且该时间的一半或三分之一可以被设置为最短时间。
在上面的描述中,已经详细描述了使卷胶片部分59的标准改变为更小的方法,即显示卷胶片图像51的方法。相反,还允许卷胶片部分59的标准改变为更大以概述卷胶片图像51。
例如,如图52所示,在卷胶片部分59的标准被设置为5秒的状态下用右手1a和左手1b输入触摸操作。随后,使右手1a和左手1b彼此接近,以减小两个点L和M之间的距离。可以用一只手的两根手指输入捏放操作。
如图53所示,根据两个点L和M之间的距离减小,每个显示缩略图图像62的尺寸S2和时间轴55的每个分度的尺寸减小。结果,被分配给固定尺寸S1的分度的数目增加。在图53中,9秒的分度被分配给固定尺寸S1。当在两个点L和M之间的距离减小的状态下右手1a和左手1b松开时,每个显示缩略图图像62的尺寸S2再次改变至固定尺寸S1。随后,当松开手时对应于被分配给固定尺寸S1的分度的数目的时间被设置为卷胶片部分59的标准。此时,可以从相同缩略图图像57中重新选择被显示为显示缩略图图像62的缩略图图像41。
可以最初设置可被分配给固定尺寸S1的最长时间。在两个点L和M之间的距离减小至短于最长时间被分配到的尺寸的时间点处,卷胶片部分59的标准可以被自动设置为最长时间。例如,假设在图54中最长时间被设置为10秒,10秒分度被分配给固定尺寸S1的距离是显示缩略图图像62的尺寸S2具有尺寸S1一半的尺寸的距离。当两个点L和M之间的距离减小至小于显示缩略图图像62的上述距离时,如图55所示,如果右手1a和左手1b没有松开,则标准被自动设置为最长时间10秒。这样的处理允许改进卷胶片图像51的操作性。注意,被设置为最长时间的时间不受限制。例如,被设置为初始状态的标准可以是参考,并且该时间两倍或三倍长的时间可以被设置为最长时间。
可以通过利用鼠标的操作来改变卷胶片部分59的标准。例如,如图56的上部所示,鼠标90的滚轮按扭91向近侧,即沿箭头A的方向旋转。与旋转的量一致,显示缩略图图像62的尺寸S2和分度的尺寸增加。当这样的状态保持预定时间段或更多时间段时,卷胶片部分59的标准改变为具有更小值。另一方面,当鼠标90的滚轮按钮91向深侧,即沿箭头B的方向旋转时,与旋转的量一致地减小显示缩略图图像62的尺寸S2和分度的尺寸。当这样的状态保持预定时间段或更多时间段时,卷胶片部分59的标准改变为具有更大值。这样的处理也可以容易地被实现。注意,还可以实现上面描述的最短时间和最长时间的设置。换言之,在添加预定旋转量或更多旋转量的时间点处,最短时间或最长时间仅需要根据旋转方向被设置为卷胶片部分59的标准。
由于这样的简单操作允许卷胶片部分59的标准改变,因此连同卷胶片图像51的操作一起充分地监视可疑人物等。结果,可以实现有用的监管摄像机系统。
显示在时间轴55上的分度的标准,即时间标准也可以改变。例如,在图57所示的示例中,卷胶片部分59的标准被设置为15秒。同时,具有大的长度的长分度92、具有短的长度的短分度93和具有大的长度与短的长度之间的中间长度的中间分度94被设置在时间轴55上。一个中间分度94被设置在长分度92的中间处,并且四个短分度93被设置在中间分度94与长分度92之间。在图57所示的示例中,固定尺寸S1被设置为等于长分度92之间的距离。因此,时间标准被设置为使得长分度92之间的距离被设置为15秒。
这里,假设针对长分度92之间的距离设置的时间被如下初步确定:1秒、2秒、5秒、10秒、15秒和30秒(秒的模式);1分钟、2分钟、5分钟、10分钟、15分钟和30分钟(分钟的模式);以及1小时、2小时、4小时、8小时和12小时(小时的模式)。具体地,假设秒的模式、分钟的模式和小时的模式被设置为可选择的并且上述时间均作为可以以每种模式设置的时间被准备。注意,可以以每种模式被设置的时间不限于上述时间。
如图58所示,多点触摸操作被输入到卷胶片部分59中的两个点L和M,并且两个点L和M之间的距离增加。连同该增加一起,显示缩略图图像62的尺寸S2和每个分度的尺寸增加。在图58所示的示例中,分配给固定尺寸S1的时间被设置为13秒。因为“13秒”的值不是最初设置的值,所以时间标准没有改变。如图59所示,右手1a与左手1b之间的距离进一步增加,分配给固定尺寸S1的时间被设置为10秒。“10秒”的值是最初设置的值。因此,在分配的时间改变为10秒的时间处,如图60所示,时间标准被改变,使得长分度92之间的距离被设置为10秒。随后,右手1a与左手1b的两根手指放开,并且显示缩略图图像62的尺寸再次改变为固定尺寸S1。此时,分度的尺寸减小并且显示在时间轴55上。替选地,长分度92之间的距离可以是固定的,并且显示缩略图图像62的尺寸可以增加。
当时间标准增加时,仅需要减小两个点L和M之间的距离。在分配给固定尺寸S1的时间被设置为最初确定的30秒的时间点处,标准改变,使得长分度92之间的距离被设置为30秒。注意,这里描述的操作与上述操作相同以改变卷胶片部分59的标准。可以适当地确定改变两个点L和M之间的距离的操作是否可以用于改变卷胶片部分59的标准或改变时间标准。替选地,改变卷胶片部分59的标准的模式和改变时间标准的模式可以被设置为可选择的。适当地选择模式可以允许卷胶片部分59的标准和时间标准被适当地改变。
如上所述,在根据实施例的监管摄像机系统100中,使用多个摄像机10。这里,将描述在使用多个摄像机的环境下人物跟踪的算法的示例。图61和62是用于描述算法的概况的图。例如,如图61所示,利用第一摄像机10a捕捉人物40的图像,并且利用与第一摄像机10a不同的第二摄像机10b稍后捕捉人物40的另一图像。在这种情况下,利用各个监管摄像机10a和10b捕捉的人物是否相同是通过以下人物跟踪算法来确定的。这允许在摄像机10a和10b的整个覆盖区中对人物40进行跟踪。
如图62所示,在本文描述的算法中,执行以下两种重要类型的处理以利用多个摄像机跟踪人物:1.对于检测到的人物40的一对一匹配处理;2.在接近时间范围内,即图62所示的时间范围(TimeScope)内的一个或更多个人物40的全部的最优组合的计算。
具体地,对预定范围内的人物对执行一对一匹配处理。通过匹配处理,针对每个对计算相似度的得分。与这样的处理一起,对被确定为彼此相同的人物的组合执行优化。
图63示出图示了一对一匹配处理的示例的图片和图。注意,在每个图片中去掉每个人物的面部。这是在本文使用的图片中出现的人物的隐私保护的处理并且与本公开内容的实施例中执行的处理没有关系。另外,一对一匹配处理不限于以下处理,替代地可以使用任何技术。
如帧A所示,对人物40的图像95(下文中被称作人物图像95)执行边缘检测处理,并且生成边缘图像96。随后,对人物的边缘96a的内部区域96b内各个像素的颜色信息执行匹配。具体地,不是通过使用人物40的整个图像95而是使用人物40的边缘96a的内部区域96b的颜色信息来执行匹配处理。另外,人物图像95和边缘图像96分别在竖直方向上被分成三个区域。随后,在上区域97a之间、在中间区域97b之间以及在下区域97c之间执行匹配处理。以这种方式,针对每个局部区域执行匹配处理。这允许执行高度准确的匹配处理。注意,用于边缘检测处理和使用颜色信息的匹配处理的算法不受限制。
如帧B所示,要匹配的区域98可以被适当地选择。例如,基于边缘检测的结果,可以检测包含相同身体部位的区域并且可以对这些区域执行匹配处理。
如帧C所示,在被检测为人物图像95的图像之中,可以通过滤波(filter)等排除不适合作为匹配处理目标的图像99。例如,基于边缘检测的结果,确定不适合作为匹配处理目标的图像99。另外,可以基于颜色信息等确定不适合作为匹配处理目标的图像99。执行这样的滤波等允许执行高度准确的匹配处理。
如帧D所示,基于存储在存储单元中的人物信息和地图信息,可以计算关于人物40的行进距离和行进时间的信息。例如,不是计算用直线X表示的距离和该距离的行进时间,而是计算(用曲线Y表示的)与办公室的结构、路径等相关联的距离和行进距离。基于该信息,计算相似度得分,或可以设置预定范围(时间范围)。例如,基于摄像机10的布置位置和关于距离和行进时间的信息,利用两个摄像机10中的每个顺序地对一个人物成像的时间。利用计算结果,可以确定用两个摄像机10成像的人物相同的可能性。
如帧E所示,当执行处理时,可以选择最适于匹配处理的人物图像105。在本公开内容中,开始检测(即人物40出现的)的时间点110处的人物图像95以及检测结束(即人物40消失)的时间点111处的人物图像95被用于匹配处理。此时,从根据在接近相应时间点的时间处捕捉的多个帧图像12生成的多个人物图像95中,选择适合于匹配处理的人物图像105作为出现点110和消失点111处的人物图像95。例如,从人物图像95a和95b选择人物图像95a以作为帧E中示出的出现点110处的人物A的图像。从人物图像95c和95d选择人物图像95d以作为在出现点110处的人物B的图像。从人物图像95e和95f选择人物图像95e以作为在消失点111处的人物B的图像。注意,两个人物图像95g和95h被采用作为在消失点111处的人物A的图像。以这种方式,可以选择被确定为适于匹配处理的多个图像,即具有高得分的图像,并且在每个图像中可以执行匹配处理。这允许执行高度准确的匹配处理。
图64和70是各自示出根据本公开内容的实施例的人物跟踪的算法的应用示例的示意图。这里,确定针对在出现点110处的人物图像95(下文中,被称作出现点110,省略“人物图像95”)设置哪个跟踪ID。具体地,如果出现点110处的人物与在过去的消失点111处的人物图像95(下文中,被称作消失点111,省略“人物图像95”)中出现的人物相同,则连续地设置相同ID。如果人物是新的,则针对该人物设置新ID。因此,消失点111和晚于消失点111的出现点110用于执行一对一匹配处理和优化处理。下文中,匹配处理和优化处理被称作优化匹配处理。
首先,跟踪ID被设置的出现点110a假设是参考,在过去/将来的方向上设置时间范围。在时间范围内对出现点110和消失点111执行优化匹配处理。结果,当确定没有跟踪ID被分配给参考出现点110a时,新的跟踪ID被分配给出现点110a。另一方面,当确定有跟踪ID被分配给参考出现点110a时,连续地分配跟踪ID。具体地,当跟踪ID被确定为与过去的消失点111的ID相同时,将分配给消失点111的ID连续地分配给出现点110。
在图64示出的示例中,人物A的出现点110a被设置为参考并且设置时间范围。在时间范围内对人物A的消失点111和人物F的出现点110执行优化匹配处理。结果,确定没有要分配给人物A的出现点110a的ID,并且将新的ID:1分配给出现点110a。接着,如图65所示,人物C的出现点110a被设置为参考,并且选择时间范围。随后,对人物A的消失点111和随后的每个出现点110执行优化匹配处理。结果,确定没有ID要分配给人物C的出现点110a,并且将新的ID:2分配给人物C的出现点110a。
如图66所示,人物F的出现点110a被设置为参考,并且选择时间范围。对人物A的消失点111和随后的每个出现点110执行优化匹配处理。此外,对人物C的消失点111和随后的每个出现点110执行优化匹配处理。结果,例如,如图67所示,确定作为人物A的消失点111的跟踪ID的ID:1被分配给人物F的出现点110a。具体地,在这种情况下,确定人物A和人物F相同。
如图68所示,人物E的出现点110a被设置为参考,并且选择时间范围。对人物A的消失点111和随后的每个出现点110执行优化匹配处理。此外,对人物C的消失点111和随后的每个出现点110执行优化匹配处理。结果,确定没有ID要分配给人物E的出现点110a,并且将新的ID:3分配给人物E的出现点110a。
如图69所示,人物B的出现点110a被设置为参考,并且选择时间范围。对人物A的消失点111和随后的每个出现点110执行优化匹配处理。此外,对人物C的消失点111和随后的每个出现点110执行优化匹配处理。此外,对人物F的消失点111和随后的每个出现点110执行优化匹配处理。此外,对人物E的消失点111和随后的每个出现点110执行优化匹配处理。结果,例如,如图70所示,确定作为人物C的消失点111的跟踪ID的ID:2被分配给人物B的出现点110a。具体地,在这种情况下,确定人物C和人物B相同。例如,以这种方式,执行在使用多个摄像机的环境下的人物跟踪。
上文中,在根据实施例的信息处理设备(服务器设备20)中,从多个帧图像12中的每个中检测预定人物40,并且生成人物40的缩略图图像41。此外,存储与缩略图图像41相关联的图像捕捉时间信息和跟踪ID。随后,基于每个图像的图像捕捉时间信息来布置具有相同跟踪ID的一个或更多个相同缩略图图像57。这允许相关人物40被充分地观测。利用该技术,可以实现有用的监管摄像机系统100。
例如,用多个摄像机10跟踪的人物的监管图像被容易地沿时间线布置在卷胶片部分59中。这允许高度准确的监管。此外,目标对象73可以容易地被校正,并相应地可以以高操作性被观测。
在现有技术中的监管摄像机系统中,在屏幕的分割区域中显示来自监管摄像机的图像。因此,难以实现使用多个摄像机的大规模监管摄像机系统。此外,还难以跟踪其图像利用多个摄像机被捕捉的人物。使用上面描述的根据本公开内容的实施例的监管摄像机系统可以提供这样的问题的解决方案。
具体地,跟踪人物40的摄像机图像彼此相连,使得可以与摄像机的总数无关地容易地观测人物。此外,编辑卷胶片部分59可以允许容易地校正人物40的跟踪历史。可以直观地执行校正操作。
图71是用于描述根据本公开内容的实施例的使用监管摄像机系统100的监管系统500的概况的图。首先,安保人员501在多个监视器502上观测利用多个摄像机捕捉的监管图像(步骤301)。显示指示警报生成的UI屏幕503以向安保人员501通知生成警报(步骤302)。如上所述,当可疑人物出现、传感器等检测到人物进入禁区区域、并且例如检测到欺骗手段进入安全门时,生成警报。此外,当通过例如可检测人物姿势的算法检测到躺了长时间段的人物时,可以生成警报。此外,当发现以欺骗手段获取诸如雇员ID卡的ID卡时,可以生成警报。
显示警报生成的状态的警报屏幕504被显示。安保人员501可以观测警报屏幕504以确定生成的警报是否正确(步骤303)。该步骤被视为该监管系统500中的第一步骤。
当安保人员501通过检查警报屏幕504确定错误地生成警报(步骤304)时,处理返回到步骤301的监管状态。当安保人员501确定适当地生成警报时,显示用于跟踪被设置为可疑人物的人物的跟踪屏幕505。在注视跟踪屏幕505的情况下,安保人员501收集信息以将其发送给位于监视位置附近的另一安保人员506。此外,在跟踪可疑人物507的同时,安保人员501向监视位置处的安保人员506发布指示(步骤305)。该步骤被视为该监管系统500中的第二步骤。第一和第二步骤主要作为警报生成时的操作被执行。
根据该指示,监视位置处的安保人员506可以搜索可疑人物507,使得可以快速找到可疑人物507(步骤306)。在例如找到可疑人物507并且事件结束之后,接着执行收集用于解决该事件的信息的操作。具体地,安保人员501观测被称为历史屏幕508的UI屏幕,其中警报生成的时间被设置为参考。因此,观测在出现事件之前和之后可疑人物507的移动等并且详细分析事件(步骤307)。该步骤被视为该监管系统500中的第三步骤。例如,在步骤307中,可以有效地使用上述使用UI屏幕50的监管摄像机系统100。换言之,UI屏幕50可以用作历史屏幕508。下文中,根据实施例的UI屏幕50被称作历史屏幕508。
为了用作根据实施例的信息处理设备,可以使用生成要提供给用户的警报屏幕504、跟踪屏幕505和历史屏幕508的信息处理设备。该信息处理设备允许建立有用的监管摄像机系统。下文中,将描述警报屏幕504和跟踪屏幕505。
图72是示出警报屏幕504的示例的图。警报屏幕504包括列表显示区域510、第一显示区域511、第二显示区域512和地图显示区域513。在列表显示区域510中,生成警报的时间直至当前时间被显示为列表形式的历史。在第一显示区域511中,警报被生成的时间处的帧图像122被显示为回放图像515。在第二显示区域512中,显示警报人物516的放大图像517。警报人物516是警报被生成且显示在回放图像515中的目标。在图72所示的示例中,人物C被设置为警报人物516,并且用红色显示人物C的强调图像518。在地图显示区域513中,显示指示警报生成时警报人物516的位置的地图信息519。
如图72所示,当选择警报被生成的列出的时间中的一个时,在第一和第二显示区域511和512以及地图显示区域513中显示关于在选择的时间处生成的警报的信息。当时间改变为另一时间时,要显示在每个显示区域中的信息也改变。
此外,警报屏幕504包括用于切换至跟踪屏幕505的跟踪按钮520以及用于切换至历史屏幕508的历史按钮521。
如图73所示,沿着运动图像522移动警报人物516可以允许警报生成之前和之后的信息显示在每个显示区域中。此时,可以结合拖拽操作显示各种类型的信息中的每个。
此外,可以改变或校正警报人物516。例如,如图74所示,选择回放图像515中的另一人物B。随后,在每个显示区域中显示关于人物B的放大图像517和地图信息519。另外,在回放图像515中显示指示人物B的运动的运动图像522b。如图75所示,当用户1的手指松开时,显示用于指定警报人物516的弹出窗口523,并且当选择用于指定目标的按钮时,改变警报人物516。此时,关于警报被生成的列出的时间的信息从人物C的信息改变为人物B的信息。替选地,可以重新生成与人物B的信息相关联的警报信息,作为相同的警报生成信息。在这种情况下,在列表显示区域510中列出警报生成的两个相同时间。
接着,将描述跟踪屏幕505。图76中示出的警报屏幕504的跟踪按钮502被按压,使得显示跟踪屏幕505。
图77是示出跟踪屏幕505的示例的图。在跟踪屏幕505中,在第一显示区域525、第二显示区域526和地图显示区域527中显示关于当前时间的信息。如图77所示,在第一显示区域525中,在当前时间捕捉的警报人物516的帧图像12被显示为实况图像528。在第二显示区域526中,显示实况图像528中出现的警报人物516的放大图像529。在地图显示区域527中,显示指示当前时间处警报人物516的位置的地图信息530。随着时间消逝实时地显示上述每条信息。
注意,在图76所示的警报屏幕504中,人物B被设置为警报人物516。然而,在图77中示出的跟踪屏幕505,人物A作为警报人物516被跟踪。以这种方式,可错误地检测到作为目标被跟踪的人物。在这种情况下,需要校正被设置为警报人物516的目标(下文中,在一些情况下也被称作目标516)。例如,当作为目标516的人物B出现在实况图像528中时,用于指定目标516的弹出窗口用于校正目标516。另一方面,如图77所示,存在目标516不出现在实况图像528中的许多情况。在下文中,将描述在这样的情况下的目标516的校正。
图78至82是各自示出校正目标516的方法的示例的图。如图78所示,点击丢失跟踪按钮531。针对要跟踪的目标516的视线丢失的情况设置丢失跟踪按钮531。随后,如图79所示,在第二显示区域526中人物B的缩略图图像532和候选选择UI 534。缩略图图像532的人物B是目标516。候选选择UI 534用于显示可选择的多个候选缩略图图像533。从其图像在当前时间用每个摄像机被捕捉的人物的缩略图图像中选择候选缩略图图像533。基于人物的相似度、摄像机之间的位置关系等适当地选择候选缩略图图像533(可以使用关于图32所示的候选缩略图图像85描述的选择方法)。
此外,候选选择UI 534设置有刷新按钮535、取消按钮536和“好”按钮537。刷新按钮535是用于指示候选缩略图图像533的更新的按钮。当点击刷新按钮535时,再次检索并显示其它候选缩略图图像533。注意,当压下刷新按钮535时,模式可以切换至自动刷新模式。自动刷新模式是指每当预定时间消逝自动更新候选缩略图图像533的模式。取消按钮536是用于取消候选缩略图图像533的显示的按钮。“好”按钮537是用于把所选的候选缩略图图像533设置为目标的按钮。
如图80所示,当人物B的缩略图图像533b被显示为候选缩略图图像533时,由用户1选择缩略图图像533b。随后,包含缩略图图像533b的帧图像12作为实况图像528被实时显示。此外,显示与实况图像528有关的地图信息530。用户1可以通过观测实况图像528和地图信息530来确定对象是人物B。如图81所示,当出现在实况图像528中的对象被确定为人物B时,点击“好”按钮537。这允许人物B被选择为目标,并且设置为警报人物。
图82是示出使用弹出窗口538校正目标539的情况的图。点击出现在实况图像528中的另一人物540提供了用于指定目标的弹出窗口538的显示。在跟踪屏幕505中,实时显示实况图像528。因此,还在显示弹出窗口538之后,继续实时显示,并且点击的人物540也继续移动。不跟随移动的人物的弹出窗口538显示询问目标539是否被校正为指定的另一人物540的文本、以及对应于该文本的取消按钮541和“是”按钮542。例如,当屏幕被切换时,不删除弹出窗口538,直到任何按钮被按压。这允许监视人物的实时移动的观测并且还允许确定人物是否被设置为警报人物。
图83至86是用于描述使用跟踪屏幕505执行的其它处理的图。例如,在使用多个摄像机的监管摄像机系统中,可以存在没有用任何摄像机成像的区域。具体地,可以存在没有用任何摄像机覆盖的死区。将描述目标539落在这样的区域内时的处理。
如图83所示,被设置为目标539的人物B朝向近侧移动。假设存在在目标539的行进方向上没有用摄像机覆盖的死区。在这样的情况下,如图83所示,在实况图像528的预定位置处设置门543。可以基于摄像机之间的布置关系(即没有用摄像机覆盖的死区的情形等)适当地设置门543的位置和尺寸。当人物B接近门543预定距离或更多距离时,在实况图像528中显示门543。替选地,可以始终显示门543。
如图84所示,当人物B与门543重叠时,显示反映出摄像机之间的位置关系的移动图像544。首先,除了门543之外的图像消失,并且显示具有强调的门543的图像。随后,如图85所示,显示动画544。在动画544中,门543随着反映摄像机之间的位置关系的移动而移动。作为图85所示的最小门的门543a的左侧对应于图83的实况图像528的深侧。最小门543a的右侧对应于实况图像528的近侧。因此,人物B从左侧接近最小门543a并向右侧行进。
如图86所示,显示门545和实况图像546。门545对应于假设接着捕捉人物B的候选摄像机(第一和第二候选摄像机)的成像范围。利用相应的候选摄像机捕捉实况图像546。候选摄像机被分别选择为具有接着捕捉位于摄像机未覆盖的死区的位置的人物B的图像的高可能性的摄像机。可以基于摄像机之间的位置关系、人物B的人物信息等适当地执行选择。数值被分配给相应的候选摄像机的门545。每个数值表示人物B假设出现在门545中的预测时间。具体地,预测假设人物B的图像用每个候选摄像机被捕捉作为实况图像546的时间。基于地图信息、关于建筑物的结构的信息等计算关于预测时间的信息。注意,在图86中示出的放大图像529中显示最后捕捉的图像。具体地,显示人物B的最新放大图像。这允许容易检查在用候选摄像机捕捉的实况图像546上目标的出现。
在上述实施例中,诸如PC(个人计算机)的各种计算机被用作客户端设备30和服务器设备20。图87是示出这样的计算机的配置示例的示意框图。
计算机200包括CPU(中央处理单元)201、ROM(只读存储器)202、RAM(随机存取存储器)203、输入/输出接口205、以及将这些部件彼此相连的总线204。
输入/输出接口205连接至显示单元206、输入单元207、存储单元208、通信单元209、驱动单元210等。
显示单元206是使用例如液晶、EL(电致发光)或CRT(阴极射线管)的显示装置。
输入单元207是例如控制器、指示装置、键盘、触摸板和其它操作装置。当输入单元207包括触摸板时,触摸板可以与显示单元206一体化。
存储单元208是非易失性存储装置,并且例如是HDD(硬盘驱动器)、闪存、或其它固态存储器。
驱动单元210是可以驱动可移除记录介质211的装置,可移除记录介质211诸如光记录介质、软(已注册商标)盘、磁记录带和闪存。另一方面,存储单元208经常用作最初安装在计算机200上的装置并且主要驱动非可移除记录介质。
通信单元209是调制解调器、路由器、或用于与其他装置通信的另一通信装置,并且连接至LAN(局域网)、WAN(广域网)等。通信单元209可以使用任何有线和无线通信。在许多情况下,与计算机200分开地使用通信单元209。
与存储在存储单元208、ROM 202等的软件和计算机200的硬件资源协作地实现由具有如上所述的硬件配置的计算机200进行的信息处理。具体地,CPU 201将构成软件的程序加载至RAM 203,程序被存储在存储单元208、ROM 202等中,并且CPU 201执行程序,使得实现由计算机200进行的信息处理。例如,CPU 201执行预定程序,使得实现图1中示出的每个块。
程序经由例如记录介质被安装至计算机200中。替选地,程序可以经由全局网络等被安装至计算机200中。
此外,计算机200要执行的程序可以是依据描述的次序按时间执行处理的程序、或可以是在必要定时(诸如并行执行处理或执行调用时)处执行处理的程序。
(其它实施例)
本公开内容不限于上述实施例,并且可以实现其它各种实施例。
例如,图88是示出根据另一实施例的卷胶片图像656的图。在上述实施例中,如图7等所示,在卷胶片部分59的大体中心处显示参考缩略图图像43,以使其连接至布置在参考时间T1的指针56。另外,根据对卷胶片部分59的拖拽操作,参考缩略图图像43还在水平方向上移动。替代该操作,如图88所示,参考缩略图图像643可以从开始起固定至卷胶片部分659的右端651或左端652。另外,可以适当地改变显示参考缩略图图像643的位置。
在上述实施例中,人物被设置为要检侧的对象,但是对象不限于人物。诸如动物和汽车的其它移动对象可以被检测为要观测的对象。
虽然在上述实施例中客户端设备和服务器设备经由网络相连并且服务器设备和多个摄像机经由网络相连,但是可以不使用网络来连接这些设备。具体地,连接设备的方法不受限制。此外,虽然在上述实施例中分开地布置客户端设备和服务器设备,但是客户端设备和服务器设备可以一体化以用作根据本公开内容的实施例的信息处理设备。根据本公开内容的实施例的信息处理设备可以被配置成包括多个成像设备。
例如,上面描述的根据本公开内容的实施例的图像切换处理可以用于除了监管摄像机系统之外的其它信息处理系统。
可以将上面描述的实施例的至少两个特征相结合。
注意,本公开内容可以采用以下配置。
(1)一种图像处理设备,包括:
获得单元,被配置成获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在所述至少一个图像帧内特定目标对象被找到以被捕捉;以及
提供单元,被配置成提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,所述跟踪状态指示器与时间有关地指示所述多个分段内所述特定目标对象的存在。
(2)根据(1)所述的图像处理设备,其中,在所述多个分段的汇编之前,对象被指定为所述特定目标对象。
(3)根据(1)或(2)所述的图像处理设备,其中,所述时间线表示所述多个分段的捕捉时间,沿着所述时间线结合所显示的多个分段来显示所述跟踪状态指示器,沿着所述时间线在对应的捕捉时间处布置所显示的多个分段。
(4)根据(1)至(3)中任一项所述的图像处理设备,其中,所显示的多个分段中的每个分段是能够选择的,并且在选择所述多个分段中的期望的分段时,再现所述期望的分段。
(5)根据(1)至(4)中任一项所述的图像处理设备,其中,在沿着所述时间线显示所述多个分段的图像帧的同时,在观看显示区域内再现所述期望的分段。
(6)根据(1)至(5)中任一项所述的图像处理设备,其中,结合所再现的期望的分段的至少一个图像来显示焦点,以指示所述至少一个图像内所述特定目标对象的位置。
(7)根据(1)至(6)中任一项所述的图像处理设备,其中,在所述观看显示区域内沿着所述时间线连同所再现的期望的分段和所述图像帧一起显示具有指示所述特定目标对象的定位的图标的地图。
(8)根据(1)至(7)中任一项所述的图像处理设备,其中,所述焦点包括身份标记、高亮、轮廓和封闭框中的至少一个。
(9)根据(1)至(8)中任一项所述的图像处理设备,其中,在被再现以进行显示的图像内的对应位置处显示在所述多个分段的图像帧内捕捉的所述特定目标对象在一个时间段内的运动路径。
(10)根据(1)至(9)中任一项所述的图像处理设备,其中,当用户从所述观看显示区域内指定沿着所述运动路径的所述特定目标对象的期望的位置时,焦点被置于沿着所述时间线显示的对应分段上,在该对应分段内所述特定目标对象在所述期望的位置的定位处被找到以被捕捉。
(11)根据(1)至(10)中任一项所述的图像处理设备,其中,每个分段的所述至少一个图像帧由至少一个相应代表性图像来表示以沿着时间线进行显示,并且从每个对应分段的内容中提取所述多个分段中的每个分段的所述相应代表性图像。
(12)根据(1)至(11)中任一项所述的图像处理设备,其中,
显示在所述观看显示区域中的对象能够由用户选择作为所述特定目标对象,并且
基于所述用户的选择,沿着所述时间线显示的所述多个分段的至少一部分被包含所述用户在所述观看显示区域中选择的所述特定目标对象的分段替代。
(13)根据(1)至(12)中任一项所述的图像处理设备,其中,所述多个分段是基于由不同成像装置捕捉的图像而生成的。
(14)根据(1)至(13)中任一项所述的图像处理设备,其中,所述不同成像装置包括移动成像装置和视频监管装置中的至少一个。
(15)根据(1)至(14)中任一项所述的图像处理设备,其中,所述至少一个媒介源包括包含识别的对象的视频内容数据库,并且从所述识别的对象当中选择所述特定目标对象。
(16)根据(1)至(15)中任一项所述的图像处理设备,其中,连同所述观看显示区域一起提供显示表示不同媒介源的不同图像的监视显示区域,并且基于所述监视显示区域中显示的图像的选择来改变所述观看显示区域中的至少一个显示的图像。
(17)根据(1)至(16)中任一项所述的图像处理设备,其中,沿着所述时间线结合所述多个分段的位置显示能够被用户选择为所述特定目标对象的多个候选缩略图图像。
(18)根据(1)至(17)中任一项所述的图像处理设备,其中,所述多个候选缩略图图像对应于沿着所述时间线的所述多个分段的相应选择的位置,并且具有包含所述特定目标对象的高可能性。
(19)根据(1)至(18)中任一项所述的图像处理设备,其中,基于所述多个分段内出现的对象的相似度,所述特定目标对象被找到以被捕捉。
(20)根据(1)至(19)中任一项所述的图像处理设备,其中,根据面部识别处理的结果,所述特定目标对象被识别为存在于所述多个分段内。
(21)一种图像处理方法,包括:
获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在所述至少一个图像帧内特定目标对象被找到以被捕捉;以及
提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,所述跟踪状态指示器与时间有关地指示所述多个分段内所述特定目标对象的存在。
(22)一种非暂态计算机可读介质,其上包含有程序,所述程序在由计算机执行时使得所述计算机执行一种方法,所述方法包括:
获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在所述至少一个图像帧内特定目标对象被找到以被捕捉;以及
提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,所述跟踪状态指示器与时间有关地指示所述多个分段内所述特定目标对象的存在。
(23)一种信息处理设备,包括:
检测单元,被配置成从多个捕捉的图像中的每个图像检测预定对象,所述多个捕捉的图像是用成像设备捕捉的并且是时间上连续的;
第一生成单元,被配置成针对所述对象被检测到的所述多个捕捉的图像中的每个图像生成包含所述对象的部分图像,以生成至少一个对象图像;
存储单元,被配置成与所生成的至少一个对象图像相关联地存储关于分别包含所述至少一个对象图像的所述捕捉的图像中的每个图像的图像捕捉时间的信息以及标识信息,所述标识信息被用于标识所述至少一个对象图像中包含的对象;以及
布置单元,被配置成基于所存储的关于每个图像的所述图像捕捉时间的信息来布置来自所述至少一个对象图像中的具有相同存储的标识信息的至少一个相同对象图像。
(24)根据(23)所述的信息处理设备,还包括:
选择单元,被配置成从所述至少一个对象图像中选择参考对象图像,所述参考对象图像是参考,其中所述布置单元被配置成基于关于所述参考对象图像的图像捕捉时间来布置存储与所选择的参考对象图像的标识信息相同的标识信息的所述至少一个相同对象图像。
(25)根据(23)或(24)所述的信息处理设备,其中,所述检测单元被配置成从用所述多个成像设备中的每个成像设备捕捉的所述多个捕捉图像中的每个捕捉图像中检测所述预定对象。
(26)根据(23)至(25)中任一项所述的信息处理设备,还包括第一输出单元,所述第一输出单元被配置成输出时间轴,其中所述布置单元被配置成沿着所述时间轴布置所述至少一个相同对象图像。
(27)根据(23)至(26)中任一项所述的信息处理设备,其中,所述布置单元被配置成针对所述时间轴上的每个预定范围布置所述至少一个相同对象图像,所述至少一个相同对象图像具有所述预定范围内的所述图像捕捉时间。
(28)根据(23)至(27)中任一项所述的信息处理设备,其中,所述第一输出单元被配置成输出指示所述时间轴上的预定位置的指向符,所述信息处理设备还包括第二输出单元,所述第二输出单元被配置成选择与所述指向符指示的所述时间轴上的所述预定位置对应的所述至少一个相同对象图像,以及输出作为与所述至少一个相同对象图像有关的信息的对象信息。
(29)根据(23)至(28)中任一项所述的信息处理设备,其中,所述第二输出单元被配置成结合所述指向符指示的所述预定位置的改变来改变对应于所述预定位置的所述至少一个相同对象图像的选择和所述对象信息的输出。
(30)根据(23)至(29)中任一项所述的信息处理设备,其中,所述第二输出单元被配置成输出包括对应于所述预定位置的所述至少一个相同对象图像的所述捕捉图像中的一个捕捉图像。
(31)根据(23)至(30)中任一项所述的信息处理设备,还包括第二生成单元,所述第二生成单元被配置成检测所述对象的运动并且生成表达所述运动的运动图像,其中所述第二输出单元被配置成输出对应于所述预定位置的所述至少一个相同对象图像中包含的所述对象的运动图像。
(32)根据(23)至(31)中任一项所述的信息处理设备,其中,所述第二输出单元被配置成输出指示对应于所述预定位置的所述至少一个相同对象图像中包含的所述对象的位置的地图信息。
(33)根据(23)至(32)中任一项所述的信息处理设备,还包括输入单元,所述输入单元被配置成输入来自用户的指示,其中所述第一输出单元被配置成根据对所述至少一个相同对象图像给出的指示来改变所述指向符指示的预定位置,所述指示用所述输入单元输入。
(34)根据(23)至(33)中任一项所述的信息处理设备,其中所述第一输出单元被配置成根据对所述输出对象信息给出的指示来改变所述指向符指示的所述预定位置。
(35)根据(23)至(34)中任一项所述的信息处理设备,还包括校正单元,所述校正单元被配置成根据用所述输入单元输入的预定指示来校正所述至少一个相同对象图像。
(36)根据(23)至(35)中任一项所述的信息处理设备,其中,所述校正单元被配置成根据作为所述对象信息被输出的、选择在所述捕捉图像中包含的另一对象的指示来校正所述至少一个相同对象图像。
(37)根据(23)至(36)中任一项所述的信息处理设备,其中,所述校正单元被配置成根据从所述至少一个相同对象图像选择至少一个图像的指示来校正所述至少一个相同对象图像。
(38)根据(23)至(37)中任一项所述的信息处理设备,其中,所述校正单元被配置成从存储与所选择的参考对象图像的标识信息不同的标识信息的所述至少一个对象图像选择作为所述至少一个相同对象图像的候选的候选对象图像。
(39)根据(23)至(38)中任一项所述的信息处理设备,还包括确定单元,所述确定单元被配置成确定所检测到的人物是否是要监视的人物,其中所述选择单元被配置成选择包含被确定为是要监视的人物的对象的所述至少一个对象图像作为所述参考对象图像。
(40)一种由计算机执行的信息处理方法,所述方法包括:
从多个捕捉的图像中的每个图像检测预定对象,所述多个捕捉的图像是用成像设备捕捉的并且是时间上连续的;
针对所述对象被检测到的所述多个捕捉的图像中的每个图像,生成包含所述对象的部分图像,以生成至少一个对象图像;
与所生成的至少一个对象图像相关联地存储关于分别包含所述至少一个对象图像的所述捕捉的图像中的每个图像的图像捕捉时间的信息以及标识信息,所述标识信息被用于标识所述至少一个对象图像中包含的对象;以及
基于所存储的关于每个图像的所述图像捕捉时间的信息来布置来自所述至少一个对象图像中的具有相同存储的标识信息的至少一个相同对象图像。
(41)一种程序,所述程序使计算机执行:
从多个捕捉的图像中的每个图像检测预定对象,所述多个捕捉的图像是用成像设备捕捉的并且是时间上连续的;
针对所述对象被检测到的所述多个捕捉的图像中的每个图像生成包含所述对象的部分图像,以生成至少一个对象图像;
与所生成的至少一个对象图像相关联地存储关于分别包含所述至少一个对象图像的所述捕捉的图像中的每个图像的图像捕捉时间的信息以及标识信息,所述标识信息被用于标识所述至少一个对象图像中包含的对象;以及
基于所存储的关于每个图像的所述图像捕捉时间的信息来布置来自所述至少一个对象图像中的具有相同存储的标识信息的至少一个相同对象图像。
(42)一种信息处理系统,包括:
至少一个成像设备,所述成像设备被配置成捕捉时间上连续的多个图像;以及
信息处理设备,包括:
检测单元,被配置成从用所述至少一个成像设备捕捉的多个图像中的每个图像检测预定对象;
生成单元,被配置成针对所述对象被检测到的所述多个图像中的每个图像生成包含所述对象的部分图像,以生成至少一个对象图像;
存储单元,被配置成与所生成的至少一个对象图像相关联地存储关于分别包含所述至少一个对象图像的所述图像中的每个图像的图像捕捉时间的信息以及标识信息,所述标识信息被用于标识所述至少一个对象图像中包含的对象;以及
布置单元,被配置成基于所存储的关于每个图像的所述图像捕捉时间的信息来布置来自所述至少一个对象图像中的具有相同存储的标识信息的至少一个相同对象图像。
本领域技术人员应理解,可以根据设计要求和其它因素想到各种修改、组合、子组合和变型,只要它们在所附权利要求或其等同物的范围之内。
本领域技术人员应理解,可以根据设计要求和其它因素想到各种修改、组合、子组合和变型,只要它们在所附权利要求或其等同物的范围之内。
附图标记列表
T1 参考时间
1 用户
5 网络
10 摄像机
12 帧图像
20 服务器设备
23 图像分析单元
24 数据管理单元
25 警报管理单元
27 通信单元
30 客户端设备
40 人物
41 缩略图图像
42 人物跟踪元数据
43 参考缩略图图像
53 对象信息
55 时间轴
56 指针
57 相同缩略图图像
61 预定范围
65 地图信息
69 运动图像
80 剪切按钮
85 候选缩略图图像
100 监管摄像机系统
500 监管系统
504 警报屏幕
505 跟踪屏幕
508 历史屏幕

Claims (20)

1.一种图像处理设备,包括:
获得单元,被配置成获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在所述至少一个图像帧内特定目标对象被找到以被捕捉;以及
提供单元,被配置成提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,所述跟踪状态指示器与时间有关地指示所述多个分段内所述特定目标对象的存在,
其中,沿着所述时间线结合所述多个分段的位置显示能够被用户选择为所述特定目标对象的多个候选缩略图图像,其中所述候选缩略图图像是所述至少一个图像帧中的每个图像帧的部分图像并且具有包含所述特定目标对象的高可能性。
2.根据权利要求1所述的图像处理设备,其中,在所述多个分段的汇编之前,对象被指定为所述特定目标对象。
3.根据权利要求1所述的图像处理设备,其中,所述时间线表示所述多个分段的捕捉时间,沿着所述时间线结合所显示的多个分段来显示所述跟踪状态指示器,沿着所述时间线在对应的捕捉时间处布置所显示的多个分段。
4.根据权利要求1所述的图像处理设备,其中,所显示的多个分段中的每个分段是能够选择的,并且在选择所述多个分段中的期望的分段时,再现所述期望的分段。
5.根据权利要求4所述的图像处理设备,其中,在沿着所述时间线显示所述多个分段的图像帧的同时,在观看显示区域内再现所述期望的分段。
6.根据权利要求5所述的图像处理设备,其中,结合所再现的期望的分段的至少一个图像来显示焦点,以指示所述至少一个图像内所述特定目标对象的位置。
7.根据权利要求6所述的图像处理设备,其中,在所述观看显示区域内沿着所述时间线连同所再现的期望的分段和所述图像帧一起显示具有指示所述特定目标对象的定位的图标的地图。
8.根据权利要求6所述的图像处理设备,其中,所述焦点包括身份标记、高亮、轮廓和封闭框中的至少一个。
9.根据权利要求5所述的图像处理设备,其中,在被再现以进行显示的图像内的对应位置处显示在所述多个分段的图像帧内捕捉的所述特定目标对象在一个时间段内的运动路径。
10.根据权利要求9所述的图像处理设备,其中,当用户从所述观看显示区域内指定沿着所述运动路径的所述特定目标对象的期望的位置时,焦点被置于沿着所述时间线显示的对应分段上,在该对应分段内所述特定目标对象在所述期望的位置的定位处被找到以被捕捉。
11.根据权利要求1所述的图像处理设备,其中,每个分段的所述至少一个图像帧由至少一个相应代表性图像来表示以沿着时间线进行显示,并且从每个对应分段的内容中提取所述多个分段中的每个分段的所述相应代表性图像。
12.根据权利要求5所述的图像处理设备,其中,
显示在所述观看显示区域中的对象能够由用户选择作为所述特定目标对象,并且
基于所述用户的选择,沿着所述时间线显示的所述多个分段的至少一部分被包含所述用户在所述观看显示区域中选择的所述特定目标对象的分段替代。
13.根据权利要求1所述的图像处理设备,其中,所述多个分段是基于由不同成像装置捕捉的图像而生成的。
14.根据权利要求13所述的图像处理设备,其中,所述不同成像装置包括移动成像装置和视频监管装置中的至少一个。
15.根据权利要求1所述的图像处理设备,其中,所述至少一个媒介源包括包含识别的对象的视频内容数据库,并且从所述识别的对象当中选择所述特定目标对象。
16.根据权利要求5所述的图像处理设备,其中,连同所述观看显示区域一起提供显示表示不同媒介源的不同图像的监视显示区域,并且基于所述监视显示区域中显示的图像的选择来改变所述观看显示区域中的至少一个显示的图像。
17.根据权利要求1所述的图像处理设备,其中,所述多个候选缩略图图像对应于沿着所述时间线的所述多个分段的相应选择的位置。
18.根据权利要求1所述的图像处理设备,其中,基于所述多个分段内出现的对象的相似度,所述特定目标对象被找到以被捕捉。
19.根据权利要求1所述的图像处理设备,其中,根据面部识别处理的结果,所述特定目标对象被识别为存在于所述多个分段内。
20.一种图像处理方法,包括:
获得从至少一个媒介源汇编的多个分段,其中所述多个分段中的每个分段包含至少一个图像帧,在所述至少一个图像帧内特定目标对象被找到以被捕捉;以及
提供所获得的多个分段的图像帧以沿着时间线且结合跟踪状态指示器进行显示,所述跟踪状态指示器与时间有关地指示所述多个分段内所述特定目标对象的存在,
其中,沿着所述时间线结合所述多个分段的位置显示能够被用户选择为所述特定目标对象的多个候选缩略图图像,其中所述候选缩略图图像是所述至少一个图像帧中的每个图像帧的部分图像并且具有包含所述特定目标对象的高可能性。
CN201480006863.8A 2013-02-06 2014-01-16 信息处理设备、信息处理方法、程序和信息处理系统 Expired - Fee Related CN104956412B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013-021371 2013-02-06
JP2013021371A JP6171374B2 (ja) 2013-02-06 2013-02-06 情報処理装置、情報処理方法、プログラム、及び情報処理システム
PCT/JP2014/000180 WO2014122884A1 (en) 2013-02-06 2014-01-16 Information processing apparatus, information processing method, program, and information processing system

Publications (2)

Publication Number Publication Date
CN104956412A CN104956412A (zh) 2015-09-30
CN104956412B true CN104956412B (zh) 2019-04-23

Family

ID=50070650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480006863.8A Expired - Fee Related CN104956412B (zh) 2013-02-06 2014-01-16 信息处理设备、信息处理方法、程序和信息处理系统

Country Status (5)

Country Link
US (1) US9870684B2 (zh)
EP (1) EP2954499B1 (zh)
JP (1) JP6171374B2 (zh)
CN (1) CN104956412B (zh)
WO (1) WO2014122884A1 (zh)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10229327B2 (en) * 2012-12-10 2019-03-12 Nec Corporation Analysis control system
JP6524619B2 (ja) * 2014-08-18 2019-06-05 株式会社リコー 軌跡描画装置、軌跡描画方法、軌跡描画システム、及びプログラム
JP5999394B2 (ja) 2015-02-20 2016-09-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US10810539B1 (en) * 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
JP6268497B2 (ja) * 2015-08-17 2018-01-31 パナソニックIpマネジメント株式会社 警備システム、及び人物画像表示方法
JP6268496B2 (ja) * 2015-08-17 2018-01-31 パナソニックIpマネジメント株式会社 警備システム及び画像表示方法
US10219026B2 (en) * 2015-08-26 2019-02-26 Lg Electronics Inc. Mobile terminal and method for playback of a multi-view video
JP6268498B2 (ja) * 2015-08-27 2018-01-31 パナソニックIpマネジメント株式会社 警備システム及び人物画像表示方法
CN106911550B (zh) * 2015-12-22 2020-10-27 腾讯科技(深圳)有限公司 信息推送方法、信息推送装置及系统
JP2017138719A (ja) * 2016-02-02 2017-08-10 株式会社リコー 情報処理システム、情報処理方法、および情報処理プログラム
US20170244959A1 (en) * 2016-02-19 2017-08-24 Adobe Systems Incorporated Selecting a View of a Multi-View Video
WO2017208352A1 (ja) * 2016-05-31 2017-12-07 株式会社オプティム 録画画像共有システム、方法及びプログラム
JP6738213B2 (ja) * 2016-06-14 2020-08-12 グローリー株式会社 情報処理装置及び情報処理方法
JP6742195B2 (ja) * 2016-08-23 2020-08-19 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
WO2018067058A1 (en) * 2016-10-06 2018-04-12 Modcam Ab Method for sharing information in system of imaging sensors
JP6740539B2 (ja) * 2016-11-07 2020-08-19 日本電気株式会社 情報処理装置、制御方法、及びプログラム
EP3321844B1 (en) * 2016-11-14 2021-04-14 Axis AB Action recognition in a video sequence
JP6897691B2 (ja) 2016-12-22 2021-07-07 日本電気株式会社 追跡支援装置、端末、追跡支援システム、追跡支援方法及びプログラム
JP6961363B2 (ja) * 2017-03-06 2021-11-05 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
JP6725061B2 (ja) * 2017-03-31 2020-07-15 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
US20190253748A1 (en) * 2017-08-14 2019-08-15 Stephen P. Forte System and method of mixing and synchronising content generated by separate devices
JP6534709B2 (ja) * 2017-08-28 2019-06-26 日本電信電話株式会社 コンテンツ情報提供装置、コンテンツ表示装置、オブジェクトメタデータのデータ構造、イベントメタデータのデータ構造、コンテンツ情報提供方法およびコンテンツ情報提供プログラム
NL2020067B1 (en) * 2017-12-12 2019-06-21 Rolloos Holding B V System for detecting persons in an area of interest
US10834478B2 (en) 2017-12-29 2020-11-10 Dish Network L.L.C. Methods and systems for an augmented film crew using purpose
US10783925B2 (en) 2017-12-29 2020-09-22 Dish Network L.L.C. Methods and systems for an augmented film crew using storyboards
US10783648B2 (en) * 2018-03-05 2020-09-22 Hanwha Techwin Co., Ltd. Apparatus and method for processing image
JP6898883B2 (ja) * 2018-04-16 2021-07-07 Kddi株式会社 接続装置、接続方法及び接続プログラム
US10572740B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Method and system for detecting a threat or other suspicious activity in the vicinity of a motor vehicle
US10572738B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Method and system for detecting a threat or other suspicious activity in the vicinity of a person or vehicle
US10366586B1 (en) * 2018-05-16 2019-07-30 360fly, Inc. Video analysis-based threat detection methods and systems
US10572739B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Method and system for detecting a threat or other suspicious activity in the vicinity of a stopped emergency vehicle
US10572737B2 (en) * 2018-05-16 2020-02-25 360Ai Solutions Llc Methods and system for detecting a threat or other suspicious activity in the vicinity of a person
GB2574009B (en) * 2018-05-21 2022-11-30 Tyco Fire & Security Gmbh Fire alarm system and integration
US11176383B2 (en) * 2018-06-15 2021-11-16 American International Group, Inc. Hazard detection through computer vision
JP7229698B2 (ja) * 2018-08-20 2023-02-28 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6573346B1 (ja) 2018-09-20 2019-09-11 パナソニック株式会社 人物検索システムおよび人物検索方法
WO2020068737A1 (en) * 2018-09-27 2020-04-02 Dakiana Research Llc Content event mapping
JP7258580B2 (ja) * 2019-01-30 2023-04-17 シャープ株式会社 監視装置及び監視方法
CN109905607A (zh) * 2019-04-04 2019-06-18 睿魔智能科技(深圳)有限公司 跟拍控制方法及系统、无人摄像机及存储介质
JP7032350B2 (ja) * 2019-04-15 2022-03-08 パナソニックi-PROセンシングソリューションズ株式会社 人物監視システムおよび人物監視方法
JP7317556B2 (ja) * 2019-04-15 2023-07-31 シャープ株式会社 監視装置及び監視方法
US10811055B1 (en) * 2019-06-27 2020-10-20 Fuji Xerox Co., Ltd. Method and system for real time synchronization of video playback with user motion
KR20210007276A (ko) * 2019-07-10 2021-01-20 삼성전자주식회사 영상 생성 장치 및 방법
JP7235612B2 (ja) * 2019-07-11 2023-03-08 i-PRO株式会社 人物検索システムおよび人物検索方法
JP6989572B2 (ja) * 2019-09-03 2022-01-05 パナソニックi−PROセンシングソリューションズ株式会社 捜査支援システム、捜査支援方法およびコンピュータプログラム
JP2020201983A (ja) * 2020-09-02 2020-12-17 東芝テック株式会社 販売データ処理装置およびプログラム
US20220230333A1 (en) * 2021-01-19 2022-07-21 Kabushiki Kaisha Toshiba Information processing system, information processing method, and program
KR20230040708A (ko) * 2021-09-16 2023-03-23 현대자동차주식회사 행위 인식 장치 및 방법
US11809675B2 (en) 2022-03-18 2023-11-07 Carrier Corporation User interface navigation method for event-related video

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1777959A1 (en) * 2005-10-20 2007-04-25 France Telecom System and method for capturing audio/video material
CN101426109A (zh) * 2007-11-02 2009-05-06 联咏科技股份有限公司 图像输出装置、显示器与图像处理方法
WO2009121053A2 (en) * 2008-03-28 2009-10-01 On-Net Surveillance Systems, Inc. Method and systems for video collection and analysis thereof
CN101835021A (zh) * 2009-03-10 2010-09-15 三星数码影像株式会社 连续再现运动图像文件的方法和设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
GB2395264A (en) * 2002-11-29 2004-05-19 Sony Uk Ltd Face detection in images
JP4175622B2 (ja) * 2003-01-31 2008-11-05 セコム株式会社 画像表示システム
US7088846B2 (en) * 2003-11-17 2006-08-08 Vidient Systems, Inc. Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones
US7746378B2 (en) 2004-10-12 2010-06-29 International Business Machines Corporation Video analysis, archiving and alerting methods and apparatus for a distributed, modular and extensible video surveillance system
US7843491B2 (en) 2005-04-05 2010-11-30 3Vr Security, Inc. Monitoring and presenting video surveillance data
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
US7791466B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation System and method for event detection utilizing sensor based surveillance
JP4933354B2 (ja) * 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
JP2009251940A (ja) 2008-04-07 2009-10-29 Sony Corp 情報処理装置および方法、並びにプログラム
JP4968249B2 (ja) * 2008-12-15 2012-07-04 ソニー株式会社 情報処理装置及び方法、並びにプログラム
US8346056B2 (en) * 2010-10-14 2013-01-01 Honeywell International Inc. Graphical bookmarking of video data with user inputs in video surveillance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1777959A1 (en) * 2005-10-20 2007-04-25 France Telecom System and method for capturing audio/video material
CN101426109A (zh) * 2007-11-02 2009-05-06 联咏科技股份有限公司 图像输出装置、显示器与图像处理方法
WO2009121053A2 (en) * 2008-03-28 2009-10-01 On-Net Surveillance Systems, Inc. Method and systems for video collection and analysis thereof
CN101835021A (zh) * 2009-03-10 2010-09-15 三星数码影像株式会社 连续再现运动图像文件的方法和设备

Also Published As

Publication number Publication date
JP6171374B2 (ja) 2017-08-02
JP2014153813A (ja) 2014-08-25
US20150356840A1 (en) 2015-12-10
CN104956412A (zh) 2015-09-30
WO2014122884A1 (en) 2014-08-14
EP2954499B1 (en) 2018-12-12
US9870684B2 (en) 2018-01-16
EP2954499A1 (en) 2015-12-16

Similar Documents

Publication Publication Date Title
CN104956412B (zh) 信息处理设备、信息处理方法、程序和信息处理系统
RU2702160C2 (ru) Устройство поддержки отслеживания, система поддержки отслеживания и способ поддержки отслеживания
US11244488B2 (en) Video processing device, video processing system, and video processing method
US9269243B2 (en) Method and user interface for forensic video search
US8289390B2 (en) Method and apparatus for total situational awareness and monitoring
US10181197B2 (en) Tracking assistance device, tracking assistance system, and tracking assistance method
CN103004188B (zh) 设备、系统和方法
CN104106260B (zh) 基于地理图的控制
RU2727178C1 (ru) Устройство содействия отслеживанию, система содействия отслеживанию и способ содействия отслеживанию
JP2014153813A5 (ja) 画像処理装置、画像処理方法、及びプログラム
US20220141425A1 (en) Target Tracking in a Multi-Camera Surveillance System
KR101960667B1 (ko) 저장 영상에서 용의자 추적 장치 및 방법
WO2006039080A1 (en) Unsupervised learning of events in a video sequence
EP3973446A1 (en) Forensic video exploitation and analysis tools
KR20080075091A (ko) 실시간 경보 및 포렌식 분석을 위한 비디오 분석 데이터의저장
JP2006229465A (ja) 監視装置、監視方法、監視用プログラム
WO2015173272A1 (en) Method and system for display of visual information
US20110150272A1 (en) Systems and methods of tracking object paths
CN108074363A (zh) 基于深度摄像机的周界防护监控识别系统
KR101513414B1 (ko) 감시 영상 분석 방법 및 시스템
EP3879440A1 (en) Video analysis system and video analysis method

Legal Events

Date Code Title Description
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190423

Termination date: 20220116