CN107766788A - 信息处理装置、其方法和计算机可读存储介质 - Google Patents

信息处理装置、其方法和计算机可读存储介质 Download PDF

Info

Publication number
CN107766788A
CN107766788A CN201710629991.3A CN201710629991A CN107766788A CN 107766788 A CN107766788 A CN 107766788A CN 201710629991 A CN201710629991 A CN 201710629991A CN 107766788 A CN107766788 A CN 107766788A
Authority
CN
China
Prior art keywords
image
information
subject
display
routing information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710629991.3A
Other languages
English (en)
Other versions
CN107766788B (zh
Inventor
黛子
黛一子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN107766788A publication Critical patent/CN107766788A/zh
Application granted granted Critical
Publication of CN107766788B publication Critical patent/CN107766788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Abstract

一种信息处理装置、其方法和计算机可读存储介质。信息处理设备使显示装置显示由一个以上图像拍摄设备拍摄的图像。信息处理设备获得指示由一个以上图像拍摄设备拍摄到的被摄体的位置变化的一个以上路径信息,并且使显示装置显示与对应于路径信息的时间有关的信息和能够指定对应于路径信息的图像拍摄设备的信息中的至少一个、以及与一个以上路径信息重叠的地图信息。

Description

信息处理装置、其方法和计算机可读存储介质
技术领域
本公开涉及信息处理设备、其方法和计算机可读存储介质。
背景技术
在诸如用于店铺中的监视系统等的使用多个照相机的监视系统中,在多画面设置中显示多个照相机的拍摄图像,并且,监视人员对这些图像进行目视确认。这些图像保存在诸如记录器等的装置中,并且,当出现诸如事件等的问题时,通过从时间信息和位置信息等指定相应的照相机来回放图像。
还已知存在具有以下配置的系统:除了上述的监视目的以外还出于店铺内的人流分析的目的而安装多个照相机和红外传感器。在这种系统中,通过使用照相机和传感器检测人物的移动以及分析检测结果,来将行进路径作为统计信息显示在地图上。
然而,由于这些系统是独立的系统,因此,例如,不能出于人流分析的目的在系统中显示和目视确认与地图上的行进路径相对应的实际的人物的图像。
作为协作地利用行进路径和人物的图像的系统,日本特开2009-265922公开了执行脸部认证并且记录由脸部认证所指定的人物如何在监视区域中移动的配置。
然而,在日本特开2009-265922所公开的系统中,仅将事先进行了脸部认证并预先登记的人物设定为追踪目标。因此,在将诸如店铺等的无限多的人物出入的场所设定为目标时,不能协作地执行监视操作和人物的行进路径的分析。
发明内容
根据本发明的一个方面,提供一种信息处理设备,其使显示装置显示由一个以上图像拍摄设备拍摄的图像,所述信息处理设备包括:第一获得装置,用于获得指示由所述一个以上图像拍摄设备拍摄的被摄体的位置变化的一个以上路径信息;以及显示控制装置,用于使所述显示装置显示:与对应于所述路径信息的时间有关的信息和能够指定对应于所述路径信息的图像拍摄设备的信息中的至少一个、以及与所述一个以上路径信息重叠的地图信息。
根据本发明的另一方面,提供一种信息处理方法,其使显示装置显示由一个以上图像拍摄设备拍摄的图像,所述信息处理方法包括:获得指示由所述一个以上图像拍摄设备拍摄的被摄体的位置变化的一个以上路径信息;以及使所述显示装置显示:与对应于所述路径信息的时间有关的信息和能够指定对应于所述路径信息的图像拍摄设备的信息中的至少一个、以及与所述一个以上路径信息重叠的地图信息。
根据本发明的另一方面,提供一种计算机可读存储介质,其存储用于使计算机用作上述信息处理设备中的各装置的计算机程序。
根据以下(参考附图)对典型实施例的说明,本发明的其它特征将变得明显。
附图说明
图1是图像处理系统的总体配置的框图;
图2是示出图像处理设备的硬件配置的框图;
图3是示出显示装置上要显示的监视区域地图和行进路径的示例的示图;
图4是示出与各行进路径对应的被摄体的当前图像和过去图像的显示示例的示图;
图5是示出直到显示地图为止进行的处理过程的框图;
图6是示出从行进路径的选择开始、直到图像的显示为止的处理过程的流程图;
图7是示出进行从图像显示追踪当前被摄体的处理的处理过程的流程图;
图8是示出选择行进路径并且连续地显示图像的处理过程的流程图;
图9是示出宽区域设定为监视目标的示例的示图。
具体实施方式
现在将参考附图详细描述本发明的优选实施例。注意,在以下实施例中将要描述的配置仅仅是示例,并且本发明不限于所示的配置。
(图像处理系统)
图1中示出根据本发明的实施例的图像处理系统的配置。图像处理系统包括多个照相机、图像处理设备和存储装置,并且这些各个部件经由网络彼此连接。图1示出使用两个照相机的系统配置的示例。照相机的数量不限于两个,并且可能存在多个照相机。要拍摄监视区域的照相机100和110分别设置在特定位置,并通过网络140连接。在照相机100内,以预定帧频拍摄的图像通过用于拍摄图像的图像获得单元101传送到网络上。此外,被摄体检测单元102从通过图像获得单元101获得的图像中检测监视区域中存在的被摄体,并且通过画面内追踪单元103执行检测到的被摄体的追踪处理。将被摄体的检测和追踪处理的结果作为与图像相关的元数据传送到网络上。具有与上述相同各功能的图像获得单元111、被摄体检测单元112和画面内追踪单元113也存在于照相机110中。
存储装置130包括存储从照相机100和110传送的图像和元数据的图像/结果保存单元。存储装置130可以独立地存在于网络上,或者可存在于图像处理设备120(稍后描述)内。
附图标记120表示图像处理设备。图像处理设备120用作导致显示设备显示在预定空间区域中由至少一个图像拍摄设备所拍摄的图像的信息处理设备。图像处理设备120接收从照相机100和110输出的图像和元数据或从存储装置130读出的数据,并执行内部处理。用于接受来自用户的输入的输入装置123和用于显示处理结果的显示装置124连接到图像处理设备120。显示装置124显示从各照相机接收的拍摄图像和存储装置中保存的图像。除了图像之外,显示装置还显示监视区域的地图(地图信息)和在监视区域中移动的人物的行进路径等。人物的行进路径可以由图像处理设备120中的照相机间人物识别单元122来处理。照相机间人物识别单元122基于由各照相机处理的追踪结果、人物信息、视角和各照相机的物理配置等执行照相机间人物识别,并且计算目标人物的行进路径。虽然在图1中照相机间追踪处理由照相机100和110中的各自处理,但是可以基于从各个照相机获得的图像在图像处理设备120中执行被摄体检测和画面内追踪。控制上述处理的控制单元121存在于图像处理设备120中。图像处理设备120由诸如个人计算机(PC)或平板终端等的通用信息处理设备或诸如嵌入式装置等的专用信息处理设备实现。
网络140由诸如等的通信介质实现。然而,本发明不限于此,并且,可以通过能够传送信息的任何有线或无线介质实现网络。网络140也不限于专用网络,并且可以经由诸如因特网等的公共通信网络通过通信网络来实现。
(图像处理设备的硬件配置)
图2是表示本实施例的图像处理设备120的硬件配置的示例的框图。图像处理设备120例如由个人计算机(PC)、嵌入式系统、平板终端或智能手机等实现。
在图2中,CPU 990是中央处理单元,并且基于计算机程序通过与其它组件协作控制图像处理设备120的整体操作。ROM 991是只读存储器,并存储用于基本处理的基本程序和数据。RAM 992是随机存取存储器,并用作CPU 990的工作区域。
外部存储驱动器993实现对存储介质的访问,并且可以向主系统加载诸如USB存储器等的介质(记录介质)994中存储的计算机程序和数据。存储器995是用作诸如硬盘(HD)或固态驱动器(SSD)等的大容量存储器的装置。存储器995存储各种类型的计算机程序和数据。虽然在本实施例中存储装置130通过存储器995实现,但是它可以通过云或网络存储器实现。
操作单元996是从用户接受命令输入和指令并且对应于键盘、指示装置和触摸面板等的装置。输入装置123通过操作单元996实现。显示器997是显示从操作单元996输入的命令和从图像处理设备120输出的对于命令的响应等的显示装置。显示装置124通过显示器997实现。接口(I/F)998是中继与外部装置的数据交换的装置。系统总线999是负责图像处理设备120中的数据流的数据总线。
注意,能够实现与各上述装置的功能相对应的功能的软件可以被配置为各硬件装置的替代。
(监视区域地图)
图3是显示装置124上要显示的监视区域地图的示例。该地图示出监视区域的物理配置、照相机的配置以及被检测的人物的行进路径。地图200示出监视区域地图,并且在地图上显示了房间分割图,桌子配置和分区情况。监视区域地图可以保存于图像处理设备120中或保存于存储装置130的图像/结果保存单元中。监视区域中安装的照相机的配置和近似视角显示在地图上。在监视区域中使用六个照相机,并且照相机分别安装在由附图标记201~206表示的位置。另外,各照相机的近似视角已经由相应的虚线表示。在监视中检测到的人物的行进路径210、211和212也显示在地图上。基于在各照相机中处理的被摄体的检测、各追踪处理结果以及各照相机的物理配置、视角和人物信息,利用图像处理设备120中的照相机间人物识别单元122来计算和显示各行进路径。时间标签220、221、222和223已经添加到行进路径210。这些标签可以在要显示行进路径时自动地添加,或者可以在选择行进路径的情况下(后面描述)显示。由于各行进路径保持时间信息,因此可以通过区分所显示的行进路径的颜色或线型来区分过去行进路径和当前行进路径。注意,如果被摄体已经从预定时间被连续追踪到当前时间,则与该追踪结果对应的行进路径是当前行进路径。即,当前行进路径是与当前正拍摄的被摄体对应的行进路径,过去行进路径是与当前未拍摄的被摄体对应的行进路径。此外,由于各行进路径保持路径上的线和拍摄该线的各照相机的对应信息,因此可以彼此相关联地显示路径和照相机。例如,通过使用相同的颜色来显示用于在地图上显示照相机的颜色以及该照相机拍摄的路径的线颜色。以这种方式,行进路径、相应的照相机和时间信息可以被关联并且显示于显示装置124上。
例如,如果监视器认为图3的监视区域地图中的某个行进路径是可疑的,则监视器通过使用图像处理设备120的输入装置123指定地图上的行进路径。假设行进路径210为指定的行进路径,图像处理设备120接下来诸如图4所示的那样在显示装置124上显示地图以及相应人物的图像。
图4除了在图3中显示的监视区域的物理配置、照相机的配置以及各检测的人物的行进路径外,还显示行进路径210的过去图像和当前拍摄图像。在显示装置124上显示的图像300是通过照相机201拍摄的与行进路径210对应的人物的过去图像。该图像存储于存储装置130的存储装置中。为了阐明图像300已经被照相机201拍摄,图像和相应的照相机以虚线310的方式相关联并被显示。而且,框架304已被添加到图像中以澄清目标人物。此外,以信息330的方式,显示表示图像是过去图像的信息、时间信息、由照相机拍摄的位置的信息和照相机识别号码,以及关联和显示时间信息、照相机和行进路径的图像。
同样,图像301是对应于由照相机203拍摄的行进路径210的人物的过去图像。显示将图像301和照相机203关联的虚线311和在图像301中澄清目标人物的框架305。此外,如331所示,显示与照相机信息和图像的时间信息关联的信息。图像302是由照相机202拍摄的过去图像。显示关联过去图像302和照相机202的虚线312和澄清目标人物的框架306。此外,如332所示,显示时间信息和照相机信息。另外,在图4中,如果当前时间在监视区域中存在与行进路径210对应的目标人物,则不仅显示存储装置130中存储的过去图像,还显示由照相机拍摄的当前图像。例如,行进路径显示正显示当前存在的人物时是这种情况。图像303是由照相机205拍摄的当前图像。显示用于将照相机205和图像303相关联的虚线313和用于澄清目标人物的框架307。此外,如333所示,显示时间信息和照相机信息。
另外,图像303不仅可以显示为静止图像,也可以显示为运动图像,并且在当前时点监视区域中的照相机正对人物进行拍摄期间,执行运动图像显示。此外,例如,如果照相机205是具有平摇俯仰(pan-tilt)功能的照相机,则可以开始使用平摇仰功能的追踪。
已经描述了与地图一起显示来自拍摄与指定的行进路径210对应的人物的各照相机的图像的示例。要显示的各过去图像不需要仅为静止图像,而且还可以是运动图像或连续的静止图像。例如,当根据时间回放连续的静止图像时,在行进路径210上显示与回放时间同步的位置指示符320。另外,为了使用户能够更容易地注意到执行连续回放的图像窗口,如321所示,高亮显示图像窗口。如果位置指示符320存在于照相机201的拍摄视角的区域内,则如300所示的那样连续显示图像。在如300所示的那样已经连续显示图像中要显示的图像之后,在图像301的窗口中连续显示目标人物存在于照相机203的拍摄视角范围内的图像。此时,在与要显示的各图像同步的位置中显示位置指示符320。
如上所述,本实施例显示与至少一个行进路径重叠的地图信息、以及与对应于地图信息上显示的各行进路径(路径信息)的时间有关的信息和可以指定对应于各行进路径的各图像拍摄设备的信息中的至少一个。由此,用户可以一目了然地掌握各行进路径、时间和图像拍摄设备之间的对应关系。此外,通过根据地图信息上显示的行进路径的选择获得与选择的行进路径相对应的被摄体的拍摄图像,来执行显示拍摄图像的显示控制。由此,通过使监视操作和地图上的行进路径的显示协作使得例如可立即确认做出可疑移动(路径)的被摄体的图像,可有效地执行监视。此外,用户可以通过显示人物的位置指示符320、高亮显示人物的拍摄图像以及协同地显示拍摄图像中的目标人物的框架,很容易地掌握设置为被摄体的人物与各拍摄图像之间的对应关系。
(处理功能块)
图5是表示直到显示装置124上显示地图和人物的各行进路径为止的处理的功能配置的框图。
图5表示使用三个照相机的示例。图像获得单元401以预定帧频依次获得图像。各图像在随后传送到被摄体检测单元402的同时,传送到图像/结果保存单元430,并与对应的时间信息和照相机类型信息一起保存。在被摄体检测单元402中,通过背景减法来检测移动被摄体,或者通过人体检测来检测人物。这些检测到的被摄体传送到画面内追踪单元403,并且生成追踪信息。生成的追踪信息保存于图像/结果保存单元430中,并且还传送到照相机间人物识别单元440。诸如图1所示,上述的图像获得单元401、被摄体检测单元402和画面内追踪单元403可以在一个照相机中实现。此外,可以仅仅在照相机中执行图像获得,并且可以在照相机外部的设备(例如,图像处理设备120)中执行被摄体检测和画面内追踪处理。这里,作为一个示例,将在下面描述在画面内追踪处理之前在照相机中执行处理的方法。
以与上述相同的方式,在第二照相机中执行图像获得单元410、被摄体检测单元411和画面内追踪单元412的各个处理。在第三照相机中,分别由图像获得单元420、被摄体检测单元421和画面内追踪单元422执行处理。此外,在第二照相机和第三照相机各自的内部处理中,图像和追踪结果保存于存储装置130中的图像/结果保存单元中,并且各追踪结果被传送到照相机间人物识别单元440。
在照相机间人物识别单元440中,使用从各照相机接收的画面内追踪信息和图像/结果保存单元430中保存的追踪信息来使同一被摄体在照相机之间相关联。为了进行关联,使用时间信息和可从图像获得的诸如被摄体的面部或全身的特征等的信息来识别目标。在各个照相机之间存在距离的情况下,通过预测被摄体的移动来进行关联。结果,可以获得由多个照相机检测到的被摄体的行进路径。
各行进路径与时间信息和拍摄图像的照相机的信息关联。这些信息和通过照相机间人物识别获得的各行进路径与诸如目标人物的ID等的人物信息一起保存于图像/结果保存单元430中。另外,为了指示显示于显示装置124上的地图上的各行进路径,通过地图输出单元441对地图执行绘图显示处理。在地图显示中,由于各行进路径包括时间信息,因此可以区分并显示行进路径是过去的信息还是当前信息。此外,由于照相机识别信息也被保持,因此可以区分并显示哪些照相机已经拍摄了行进路径的部分。
如上所述,在本实施例中,从已经通过一个或多个图像拍摄设备拍摄到的图像中检测被摄体,并且在拍摄的图像中追踪检测到的被摄体。然后,在一个或多个图像拍摄设备之间执行被追踪被摄体的人物识别,以生成行进路径(路径信息)。由此,在不需要诸如预先注册被摄体图像等的预注册操作的情况下,可以通过将路径信息和被摄体相关联来生成路径信息。
另外,在本实施例中,在被追踪被摄体的位置不连续的情况下,通过基于图像拍摄设备的位置关系预测不连续部分的路径来生成路径信息。因此,即使在监视区域中存在监视照相机的盲点的位置并且被摄体已经移动到该位置的情况下,也可以以连续路径的形式生成路径信息。注意,可以基于从被摄体离开图像拍摄区域开始直至他/她已经重新进入图像拍摄区域的时间或被摄体离开图像拍摄区域的位置以及重新进入图像拍摄区域的位置,来进行路径信息的预测。还应注意,也可以通过显示预测路径信息以使其与通过图像拍摄设备的拍摄操作所获得的路径信息相区分,防止监视信息的错误分析。
(系统操作)
下面将参考各流程图描述系统操作。图6是表示从选择显示装置124上显示的行进路径开始直到显示过去的图像为止的操作过程的流程图。图6的各步骤在CPU 990的控制下执行。
在显示装置124中,已显示如图3所示的监视区域地图和检测到的被摄体的行进路径。在步骤S501中,用户使用输入装置123选择一个行进路径。根据该操作,图像处理设备120中的控制单元121执行诸如改变线颜色并使该线闪烁等的处理,使得可以很容易地识别选择的路径(步骤S502)。接下来,控制单元121读出与所选择的行进路径对应的人物信息,并指定相应的人物ID(步骤S503)。控制单元121基于行进路径信息从选择的路径上一个照相机所拍摄的图像计算目标人物被拍摄的时间段,并且从存储装置130的图像/结果保存单元中读出与该时间段对应的图像(步骤S504)。
接下来,控制单元还获得与图像同步化的元数据,并判断读出的图像中是否存在实际拍摄到目标被摄体的图像(步骤S505)。如果存在目标被摄体已经被拍摄到的图像(在步骤S505中为“是”),则控制单元选择目标已经被拍摄到的图像之一并在显示装置124上显示所选择的图像(步骤S506)。同时,控制单元在所选择的图像中所拍摄的目标被摄体周围显示框架,并执行显示操作,使得即使在图像中还拍摄了其它被摄体的情况下,用户也可以容易地识别目标被摄体(步骤S507)。随后,处理前进到步骤S508。
另一方面,在步骤S505的判断中,如果不存在目标被摄体被拍摄到的图像(在步骤S505中为“否”),诸如被摄体隐藏在另一被摄体或人物之后等的情况,则控制单元选择目标时间段的一个图像并在显示装置124上显示选择的图像(步骤S509)。此时,在目标被摄体可以存在的位置处显示虚线框,并且显示目标被摄体不能被识别(步骤S510)。随后,处理前进到步骤S508。
在步骤S508中,控制单元121执行显示,使得显示的图像和图像拍摄照相机之间的关联将很容易被用户识别。可以通过使用在地图上用线连接图像和照相机位置的方法或通过在图像附近显示时间信息、照相机位置信息和照相机识别信息等,来执行显示。
接下来,控制单元121判断在路径上的其它照相机中是否存在还没有显示图像的照相机。如果存在没有显示图像的照相机(在步骤S511中为“是”),则处理返回到步骤S504。作为对路径上的各照相机执行上述处理的结果,当不存在没有显示图像的照相机(在步骤S511中为“否”)时,处理结束。通过上述的操作连续地执行诸如图4所示的行进路径上的图像显示。
如上所述,在本实施例中,获得表示空间区域中的被摄体的位置变化的至少一条路径信息,并且使显示装置可选地显示该路径信息。然后,使显示装置显示其中至少一条路径信息已经重叠的地图信息,以及与对应于路径信息的时间相关的信息和可以指定对应于路径信息的各图像拍摄设备的信息的至少之一。结果,用户可以掌握路径信息与对应的时间或各图像拍摄设备之间的对应关系。这里,作为与对应于路径信息的时间相关的信息,可以针对在过去拍摄的路径显示指示图像拍摄时间的信息,并且可以针对当前拍摄的路径显示指示行进路径是对应于当前拍摄的被摄体的行进路径的信息。
此外,在本实施例中,根据一条路径信息的选择,获得与该路径信息对应的被摄体的拍摄图像,并且使显示装置显示获得的拍摄图像。由此,用户可以彼此协调地掌握人物的行进路径和监视图像,由此很容易地进行犯罪预防或营销信息的获得。这里,根据一条路径信息的选择,可以依次显示与选择的路径信息对应的多个图像,并且此时也可以依次显示与多个图像对应的路径信息上的位置。结果,可以有效地再现拍摄被摄体时的情况并将其呈现给用户。
此外,在本实施例中,当在于地图上显示被摄体的路径信息的同时显示与路径信息对应的拍摄图像时,与指示获得该拍摄图像的图像拍摄设备在地图上的位置的显示相关地显示拍摄图像。此外,还显示地图上的指示拍摄图像中的被摄体的位置的显示。此外,被拍摄图像中被摄体所占据的区域通过框架来包围而被高亮显示。此外,显示指示拍摄图像是过去拍摄的图像还是当前拍摄的图像的信息、图像拍摄时间和识别获得拍摄图像的照相机的信息中的至少一条。因此,用户可以一目了然地掌握路径信息、拍摄图像、获得拍摄图像的图像拍摄设备(照相机)与被摄体的位置之间的对应关系。
注意,当用户指定时间时,可以在地图上显示指示被摄体在该时间的位置的指示符,或者可以根据该指定与被摄体的位置相关联地显示在该时间拍摄的图像。结果,如果在特定时间发生事件等,则用户可以追溯至该时间,并且很容易地以追溯的方式执行该事件的监视操作。此外,上述示例描述了根据行进路径的选择显示已经在行进路径上移动的被摄体的拍摄图像的情况。然而,与此相反,可以根据拍摄图像中的被摄体的选择显示该被摄体移动的行进路径。此外,可以接受路径上的任意点的选择,并且可以根据该点的选择显示与该点对应的拍摄图像。提供这样的用户界面允许用户将行进路径与各监控图像相关联并且容易地进行监视图像的分析。
接下来将参照图7描述目标被摄体当前仍然存在于监视区域中的情况的操作过程。图7是表示在目标被摄体仍然存在于监视区域中的情况下执行当前时间的追踪处理的情况的操作过程的流程图。在CPU 990的控制下执行图7的各步骤。
图7的步骤S501~S511与图6的步骤S501~S511的处理相同,并将省略其详细描述。在步骤S511中,当针对路径上的所有照相机的静止图像显示处理结束时(在步骤S511中为“否”),控制单元121判断目标被摄体当前是否仍在监视区域中被拍摄(步骤S601)。通过参照路径末端的位置、时间和从位于路径末端附近的照相机传送的元数据并且判断是否正在拍摄目标被摄体,来进行该判断。如果目标被摄体没有正在被拍摄(在步骤S601中为“否”),则图7的操作过程结束。
如果目标被摄体正在被拍摄(在步骤S601中为“是”),则控制单元121从照相机接收拍摄目标被摄体的照相机图像,并且在显示装置124上的预定位置显示接收的照相机图像(图4中的图像303)。控制单元向目标被摄体添加框架,并执行目标被摄体的追踪处理(步骤S602)。当目标被摄体离开监视区域时,处理结束(步骤S603)。在目标被摄体存在于监视区域的情况下,控制单元执行照相机间人物识别处理,并继续目标被摄体的追踪处理。此外,如果正在拍摄目标被摄体的照相机是具有平摇俯仰功能的照相机,则可以根据控制单元121的指令进行平摇俯仰追踪。
如上所述,在本实施例中,在与行进路径对应的拍摄图像是当前拍摄的拍摄图像的情况下,可以通过使用平摇功能和俯仰功能中的至少一个功能来控制拍摄图像的图像拍摄设备,以追踪拍摄图像中的被摄体。因此,在发生诸如事故等的紧急事件的情况下,可以通过执行期望被摄体的实时追踪来采取必要的安全措施和对策。
上面已经描述了显示目标被摄体的过去静止图像的操作的示例。接下来,将参照图8描述显示运动图像(连续静止图像)的情况下的操作过程。图8是表示进行运动图像显示时的操作顺序的流程图。在CPU 990的控制下执行图8的各步骤。在静止图像显示的情况下,图8的步骤S701~S704的处理内容与图6的步骤S501~S504和图7的步骤S601~S604的处理内容相同。因此,将简化描述和操作过程,并且将省略详细描述。
首先,用户通过使用输入装置123选择行进路径(步骤S701)。接下来,控制单元121改变所选路径的线的颜色,并使所选路径闪烁(步骤S702)。控制单元指定与行进路径对应的人物ID(步骤S703)。针对行进路径上的各照相机,控制单元121从存储装置130中的图像/结果保存单元中读取属于被摄体存在的时间段的图像(步骤S704)。
接下来,控制单元在显示装置124上显示针对各照相机读出的该时间段的第一图像(步骤S705)。控制单元还在显示的图像中显示围绕目标被摄体的框架(步骤S706)。此时,如果目标被摄体隐藏在所显示的图像中,或者如果目标被摄体不存在于图像中,则在被预测为存在被摄体的位置处显示虚线框架。接下来,控制单元显示图像拍摄照相机和显示图像之间的对应关系(步骤S707)。随后,控制单元121连续地回放将成为为路径的开始的照相机图像(步骤S708)。另外,如图4的320所示,与连续回放图像同步的点在沿着路径移动的同时显示于路径上(步骤S709)。
在一台照相机的图像的连续回放已经结束之后,控制单元判断行进路径是否继续(步骤S710)。如果行进路径继续(在步骤S710中为“是”),则控制单元121执行下一个照相机的图像的连续回放(步骤S711)。此时,控制单元移动并显示路径上的与图像回放同步的点(步骤S712)。当行进路径继续时,控制单元121重复执行步骤S711和S712。当行进路径结束时(在步骤S710中为“否”),图8的处理结束。
如上所述,根据本实施例的配置,能够进行监视区域的图像监视和被摄体的行进路径的监视。此外,由于可以从行进路径显示目标被摄体的图像,因此可以提供更加用户友好的监视系统。
图9是示出监视区域不限于室内而设置在室外宽区域内的示例的示图。地图801是要在显示装置124上显示的监视区域的地图。站点802、公共设施803以及它们之间的街道的地图已经显示于地图上。四个安装照相机的位置及其各自的视角已在地图上指示。照相机810拍摄从站点出来的人物。照相机811拍摄交叉路口,并且照相机812拍摄进入公共设施的人物。照相机813拍摄窄的交叉路口。在图9中,显示被摄体的行进路径820、821和822。已经通过用时间和位置信息计算照相机间的人物的移动来执行照相机间人物识别处理,获得了这些行进路径中的每一个。例如,假设用户想要指定从车站通过狭窄街道来到公共设施的人物。作为监视器的用户可以使用图1的输入装置123以选择行进路径822。基于图6的操作过程,从存储装置130的图像/结果保存单元中读出目标被摄体的过去图像,并且如图9的830和831所示,显示图像。关于各个图像的被摄体显示框架840和841,并且进行设置以使得即使例如在各显示图像中拍摄到了多个人也可以识别目标人物。通过这些处理过程,作为监视器的用户可以指定与特定行进路径相对应的人物。
如上所述,根据本发明的各实施例,可以提供实现地图上的行进路径与多个照相机的图像监视操作之间的协作的图像处理系统。
其它实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
尽管已经参考典型实施例说明了本发明,但是应该理解,本发明不限于所公开的典型实施例。所附权利要求书的范围符合最宽的解释,以包含所有这类修改、等同结构和功能。

Claims (16)

1.一种信息处理设备,其使显示装置显示由一个以上图像拍摄设备拍摄的图像,所述信息处理设备包括:
第一获得装置,用于获得指示由所述一个以上图像拍摄设备拍摄的被摄体的位置变化的一个以上路径信息;以及
显示控制装置,用于使所述显示装置显示:与对应于所述路径信息的时间有关的信息和能够指定对应于所述路径信息的图像拍摄设备的信息中的至少一个、以及与所述一个以上路径信息重叠的地图信息。
2.根据权利要求1所述的信息处理设备,其中,还包括:
第二获得装置,用于根据所述一个以上路径信息中的一个路径信息的选择来获得出现了与该路径信息相对应的被摄体的拍摄图像,
其中,所述显示控制装置使所述显示装置显示由所述第二获得装置所获得的拍摄图像。
3.根据权利要求1所述的信息处理设备,其中,
所述显示控制装置使所述显示装置显示指示图像拍摄时间的信息,作为与对应于所述路径信息的时间有关的信息。
4.根据权利要求1所述的信息处理设备,其中,
所述显示控制装置使所述显示装置显示指示与当前正拍摄的被摄体相对应的行进路径的信息,作为与对应于所述路径信息的时间有关的信息。
5.根据权利要求2所述的信息处理设备,其中,
所述显示控制装置通过将所述第二获得装置所获得的拍摄图像与所述地图信息上的如下指示符相关联来使所述显示装置显示该拍摄图像,其中所述指示符指示拍摄该图像的图像拍摄设备的位置。
6.根据权利要求2所述的信息处理设备,其中,
所述显示控制装置使所述显示装置显示所述地图信息上的如下指示符,所述指示符指示所述第二获得装置所获得的拍摄图像中出现的所述被摄体的位置。
7.根据权利要求6所述的信息处理设备,其中,
所述显示控制装置使所述显示装置根据时间的指定来显示指示所述被摄体在该时间的位置的指示符。
8.根据权利要求2所述的信息处理设备,其中,
所述显示控制装置使所述显示装置高亮显示所述被摄体在所述第二获得装置所获得的拍摄图像中所占据的区域。
9.根据权利要求2所述的信息处理设备,其中,除了所述第二获得装置所获得的拍摄图像以外,所述显示控制装置使所述显示装置还显示以下信息中的至少一个:
识别拍摄该图像的照相机的信息,
图像拍摄时间,以及
指示所述拍摄图像是过去拍摄的图像还是当前正拍摄的图像的信息。
10.根据权利要求2所述的信息处理设备,其中,还包括:
控制装置,用于在所述第二获得装置所获得的拍摄图像是当前正拍摄的拍摄图像的情况下,控制正拍摄该图像的图像拍摄设备以使该图像拍摄设备通过平摇和俯仰中的至少一种来追踪所述拍摄图像中的被摄体。
11.根据权利要求1所述的信息处理设备,其中,还包括:
检测装置,用于从所述一个以上图像拍摄设备所拍摄的图像中检测被摄体;
追踪装置,用于在所拍摄的图像中追踪检测到的所述被摄体;以及
生成装置,用于通过针对所追踪的所述被摄体在所述一个以上图像拍摄设备之间执行人物识别来生成所述路径信息,
其中,所述第一获得装置获得所述生成装置所生成的路径信息。
12.根据权利要求11所述的信息处理设备,其中,
在所述追踪装置追踪的所述被摄体的位置不连续的情况下,所述生成装置通过基于所述一个以上图像拍摄设备的位置关系预测不连续的部分的路径来生成所述路径信息。
13.根据权利要求1所述的信息处理设备,其中,
所述显示控制装置使所述显示装置根据所述一个以上路径信息中的一个路径信息的选择来依次显示与所选择的路径信息相对应的多个图像。
14.根据权利要求13所述的信息处理设备,其中,
在要在所述显示装置上依次显示所述多个图像的情况下,与所述多个图像相对应的路径信息上的位置被依次显示在所述显示装置上。
15.一种信息处理方法,其使显示装置显示由一个以上图像拍摄设备拍摄的图像,所述信息处理方法包括:
获得指示由所述一个以上图像拍摄设备拍摄的被摄体的位置变化的一个以上路径信息;以及
使所述显示装置显示:与对应于所述路径信息的时间有关的信息和能够指定对应于所述路径信息的图像拍摄设备的信息中的至少一个、以及与所述一个以上路径信息重叠的地图信息。
16.一种计算机可读存储介质,其存储用于使计算机用作权利要求1所述的信息处理设备中的各装置的计算机程序。
CN201710629991.3A 2016-08-23 2017-07-28 信息处理装置、其方法和计算机可读存储介质 Active CN107766788B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016163038A JP6742195B2 (ja) 2016-08-23 2016-08-23 情報処理装置及びその方法、コンピュータプログラム
JP2016-163038 2016-08-23

Publications (2)

Publication Number Publication Date
CN107766788A true CN107766788A (zh) 2018-03-06
CN107766788B CN107766788B (zh) 2022-03-01

Family

ID=59713762

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710629991.3A Active CN107766788B (zh) 2016-08-23 2017-07-28 信息处理装置、其方法和计算机可读存储介质

Country Status (5)

Country Link
US (1) US10719946B2 (zh)
EP (1) EP3288258A1 (zh)
JP (1) JP6742195B2 (zh)
KR (1) KR102164863B1 (zh)
CN (1) CN107766788B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165303A (zh) * 2018-08-14 2019-01-08 广东长宝信息科技股份有限公司 一种移动终端设备自动生成多媒体信息的方法
CN111225183A (zh) * 2018-10-12 2020-06-02 Ckd株式会社 检查装置远程对应系统
CN111540026A (zh) * 2020-03-24 2020-08-14 北京三快在线科技有限公司 动线图的绘制方法、装置、电子设备及存储介质
CN114615916A (zh) * 2020-02-27 2022-06-10 松下知识产权经营株式会社 信息提示方法、信息提示装置和程序

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6969987B2 (ja) * 2017-11-15 2021-11-24 パナソニック株式会社 通信装置、通信システムおよび移動体追跡方法
JP6732826B2 (ja) * 2018-03-19 2020-07-29 株式会社チャオ カメラシステム
EP3770855A1 (en) * 2018-03-23 2021-01-27 NEC Corporation Information processing device, person search system, place estimation method, and non-temporary computer-readable medium in which program is stored
WO2019206105A1 (en) 2018-04-27 2019-10-31 Shanghai Truthvision Information Technology Co., Ltd. System and method for lightening control
CN109246389B (zh) * 2018-07-13 2021-01-01 高新兴科技集团股份有限公司 一种关联监控点的方法和设备
JP7254570B2 (ja) * 2019-03-14 2023-04-10 株式会社東芝 画像センサシステム、計算装置、センシング方法、およびプログラム
EP3817371A1 (en) 2019-10-28 2021-05-05 Axis AB Method and system for composing a video material
JP7098180B2 (ja) * 2020-04-15 2022-07-11 株式会社Ridge-i 情報処理装置、情報処理方法及び情報処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030053659A1 (en) * 2001-06-29 2003-03-20 Honeywell International Inc. Moving object assessment system and method
US20100033302A1 (en) * 2008-01-29 2010-02-11 Canon Kabushiki Kaisha Imaging processing system and method and management apparatus
US20110249861A1 (en) * 2010-04-13 2011-10-13 Sony Ericsson Mobile Communications Japan, Inc. Content information processing device, content information processing method, content information processing program, and personal digital assistant

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5220507A (en) * 1990-11-08 1993-06-15 Motorola, Inc. Land vehicle multiple navigation route apparatus
US5638280A (en) * 1994-03-30 1997-06-10 Sumitomo Electric Industries, Ltd. Vehicle navigation apparatus and method
JP3395737B2 (ja) * 1999-10-29 2003-04-14 株式会社デンソー ナビゲーション装置
GB0502371D0 (en) * 2005-02-04 2005-03-16 British Telecomm Identifying spurious regions in a video frame
GB0502369D0 (en) * 2005-02-04 2005-03-16 British Telecomm Classifying an object in a video frame
US7583815B2 (en) * 2005-04-05 2009-09-01 Objectvideo Inc. Wide-area site-based video surveillance system
JP4706535B2 (ja) * 2006-03-30 2011-06-22 株式会社日立製作所 複数カメラを用いた移動物体監視装置
JP2008118256A (ja) * 2006-11-01 2008-05-22 Mitsukuni Ito 認知症患者保護システム
JP4933354B2 (ja) * 2007-06-08 2012-05-16 キヤノン株式会社 情報処理装置、及び情報処理方法
JP4585580B2 (ja) 2008-04-24 2010-11-24 東芝テック株式会社 人物動線追跡システム
KR101695249B1 (ko) * 2012-05-22 2017-01-12 한화테크윈 주식회사 감시 영상 표시 방법 및 시스템
WO2014050432A1 (ja) * 2012-09-27 2014-04-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP6171374B2 (ja) * 2013-02-06 2017-08-02 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP5438861B1 (ja) * 2013-07-11 2014-03-12 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6468725B2 (ja) 2013-08-05 2019-02-13 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6393483B2 (ja) * 2014-02-13 2018-09-19 株式会社日立システムズ セキュリティエリア管理システム、セキュリティエリア管理方法
EP2988248B1 (en) 2014-07-22 2019-09-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, information processing apparatus, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030053659A1 (en) * 2001-06-29 2003-03-20 Honeywell International Inc. Moving object assessment system and method
US20100033302A1 (en) * 2008-01-29 2010-02-11 Canon Kabushiki Kaisha Imaging processing system and method and management apparatus
US20110249861A1 (en) * 2010-04-13 2011-10-13 Sony Ericsson Mobile Communications Japan, Inc. Content information processing device, content information processing method, content information processing program, and personal digital assistant

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165303A (zh) * 2018-08-14 2019-01-08 广东长宝信息科技股份有限公司 一种移动终端设备自动生成多媒体信息的方法
CN111225183A (zh) * 2018-10-12 2020-06-02 Ckd株式会社 检查装置远程对应系统
CN111225183B (zh) * 2018-10-12 2021-10-29 Ckd株式会社 检查装置远程对应系统
CN114615916A (zh) * 2020-02-27 2022-06-10 松下知识产权经营株式会社 信息提示方法、信息提示装置和程序
CN114615916B (zh) * 2020-02-27 2024-04-12 松下知识产权经营株式会社 信息提示方法、信息提示装置和存储介质
CN111540026A (zh) * 2020-03-24 2020-08-14 北京三快在线科技有限公司 动线图的绘制方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
KR20180022568A (ko) 2018-03-06
KR102164863B1 (ko) 2020-10-13
JP6742195B2 (ja) 2020-08-19
JP2018032950A (ja) 2018-03-01
CN107766788B (zh) 2022-03-01
EP3288258A1 (en) 2018-02-28
US10719946B2 (en) 2020-07-21
US20180061065A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
CN107766788A (zh) 信息处理装置、其方法和计算机可读存储介质
US9747502B2 (en) Systems and methods for automated cloud-based analytics for surveillance systems with unmanned aerial devices
US9514370B1 (en) Systems and methods for automated 3-dimensional (3D) cloud-based analytics for security surveillance in operation areas
CN107370983B (zh) 用于视频监控系统的行踪轨迹的获取方法和装置
US9405979B2 (en) Systems and methods for automated cloud-based analytics and 3-dimensional (3D) display for surveillance systems
US9516279B1 (en) Systems and methods for automated cloud-based 3-dimensional (3D) analytics for surveillance systems
JP5994397B2 (ja) 情報処理装置、情報処理方法およびプログラム
US8289390B2 (en) Method and apparatus for total situational awareness and monitoring
US10217003B2 (en) Systems and methods for automated analytics for security surveillance in operation areas
US9407879B2 (en) Systems and methods for automated cloud-based analytics and 3-dimensional (3D) playback for surveillance systems
US20160004914A1 (en) Intelligent video analysis system and method
US10043079B2 (en) Method and apparatus for providing multi-video summary
KR101645959B1 (ko) 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
KR102249498B1 (ko) 이벤트 검색 장치 및 시스템
CN109684494A (zh) 一种景区寻人方法、系统及云端服务器
US20190244033A1 (en) Systems and methods for automated analytics for security surveillance in operation areas
JP6396682B2 (ja) 監視カメラシステム
EP3432575A1 (en) Method for performing multi-camera automatic patrol control with aid of statistics data in a surveillance system, and associated apparatus
JP5151451B2 (ja) 人物特定システム、人物特定装置、人物特定方法および人物特定プログラム
US11196968B1 (en) System for generating drone video feed overlays based on property monitoring system data
KR101060414B1 (ko) 감시 시스템 및 그 감시 방법
CN111652173B (zh) 一种适合综合商场内人流管控的采集方法
JP2007102343A (ja) 関心度測定装置および方法並びに関心度算出プログラム
JP6713905B2 (ja) 映像監視システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant