WO2017134712A1 - 追跡支援装置、追跡支援システムおよび追跡支援方法 - Google Patents

追跡支援装置、追跡支援システムおよび追跡支援方法 Download PDF

Info

Publication number
WO2017134712A1
WO2017134712A1 PCT/JP2016/004898 JP2016004898W WO2017134712A1 WO 2017134712 A1 WO2017134712 A1 WO 2017134712A1 JP 2016004898 W JP2016004898 W JP 2016004898W WO 2017134712 A1 WO2017134712 A1 WO 2017134712A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
tracking
person
displayed
screen
Prior art date
Application number
PCT/JP2016/004898
Other languages
English (en)
French (fr)
Inventor
園子 平澤
藤松 健
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to GB1810666.6A priority Critical patent/GB2562641B/en
Priority to DE112016006156.0T priority patent/DE112016006156T5/de
Priority to RU2018127847A priority patent/RU2691057C1/ru
Priority to CN201680080381.6A priority patent/CN108605115B/zh
Priority to US16/074,255 priority patent/US11335173B2/en
Publication of WO2017134712A1 publication Critical patent/WO2017134712A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/1968Interfaces for setting up or customising the system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/915Television signal processing therefor for field- or frame-skip recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Definitions

  • the present disclosure relates to a tracking support device, a tracking support system, and a tracking that support a monitor's work for tracking a moving object to be tracked by displaying a video for each of a plurality of cameras stored in a video storage unit on a display device. It is about support method.
  • a monitoring system in which a plurality of cameras are installed in a monitoring area, and a monitoring screen for displaying images for each of the plurality of cameras is displayed on a monitor to allow a supervisor to monitor is widely used.
  • the supervisor by accumulating the video of the camera in the recorder, the supervisor can confirm what action the person who has performed a troubled act such as shoplifting performed in the surveillance area after the fact. Can do.
  • the monitor specifies the date and camera, searches for the video that shows the person to be tracked, and specifies the person to be tracked Then, a tracking target confirmation screen is displayed for confirming whether there is an error in the tracking information related to the designated person, and when it is confirmed that the tracking information is correct, the tracking target is identified based on the tracking information.
  • a technique of continuously playing back images of each camera in which a photographed person is photographed as time passes see Patent Document 1.
  • the tracking support device is a tracking support device that supports the work of a monitor who tracks a moving object to be tracked by displaying video for each of a plurality of cameras stored in a video storage unit on a display device.
  • a search condition setting unit for setting a search condition for searching for a moving object image to be tracked according to a user's operation input, and acquiring a video that matches the search condition from the video storage means, and searching for the tracking object
  • the screen is displayed on the display device, and the movement specified according to the operation input of the supervisor who specifies the moving body to be tracked by the operation of selecting the tracking mark displayed on the video in the tracking target search screen
  • the tracking target setting unit that sets the body as the tracking target and the tracking information acquired by the tracking process for the video stored in the video storage means may be the same as the mobile body set as the tracking target.
  • the video of the moving object with the highest performance is extracted for each camera, and the tracking target confirmation screen on which only those videos are displayed as the confirmation video is displayed on the display device, and the tracking target on the tracking target search screen
  • a video display period setting unit that sets a video display period in which a mobile object set as a tracking target appears in a video in response to a user operation input when a tracking mark is not displayed on the mobile object
  • a tracking information correction unit that corrects the tracking information so that the confirmation video is displayed on the tracking target confirmation screen.
  • a tracking mark when a tracking mark is not displayed on a tracking target moving object, that is, when a tracking target moving object is not tracked, a tracking mark is selected and a tracking target is specified.
  • the user can specify the video display period of the moving object to be tracked, so even if the tracking of the moving object to be tracked is not possible with a certain camera, the confirmation image of the camera is properly tracked It can be displayed on the screen.
  • FIG. 1 is an overall configuration diagram of a tracking support system according to the present embodiment.
  • FIG. 2 is a plan view showing the installation status of the camera 1 in the store.
  • FIG. 3 is a functional block diagram of the PC 3.
  • FIG. 4 is an explanatory diagram showing a person search screen displayed on the monitor 7.
  • FIG. 5 is a flowchart showing a procedure of processing performed in each part of the PC 3 in accordance with the operation of the supervisor performed on each screen.
  • FIG. 6 is a flowchart showing a procedure of processing performed in each unit of the PC 3 in accordance with the operation of the supervisor performed on each screen.
  • FIG. 7 is an explanatory diagram showing a person search screen displayed on the monitor 7.
  • FIG. 1 is an overall configuration diagram of a tracking support system according to the present embodiment.
  • FIG. 2 is a plan view showing the installation status of the camera 1 in the store.
  • FIG. 3 is a functional block diagram of the PC 3.
  • FIG. 4 is an explanatory diagram showing a person search
  • FIG. 8 is an explanatory diagram showing a timeline screen in a confirmation video display state displayed on the monitor 7.
  • FIG. 9 is an explanatory diagram showing a timeline screen in a continuous reproduction state displayed on the monitor 7.
  • FIG. 10 is an explanatory diagram showing a timeline screen in a candidate video display state displayed on the monitor 7.
  • FIG. 11 is an explanatory diagram showing a timeline screen when a video display period is designated on the person search screen.
  • FIG. 12 is an explanatory diagram showing a tracking result editing screen displayed on the monitor 7.
  • FIG. 13 is an explanatory diagram illustrating an example of a video transition state.
  • FIG. 14 is an explanatory diagram illustrating a situation during an editing operation on the tracking result editing screen.
  • FIG. 15 is an explanatory diagram illustrating an example of a video transition state.
  • FIG. 16 is an explanatory diagram illustrating a situation during an editing operation on the tracking result editing screen.
  • FIG. 17 is an explanatory diagram illustrating an example of a video transition state.
  • FIG. 18 is an explanatory diagram illustrating a situation during an editing operation on the tracking result editing screen.
  • the problems in the prior art will be briefly described.
  • the person to be tracked is selected by selecting the person frame displayed on the video. ing.
  • person detection may fail due to tracking within the camera, and no person frame will be displayed for persons who have failed person detection, so even if the person to be tracked is shown in the video, that person May not be designated as a tracking target.
  • the tracking target confirmation screen based on the in-camera tracking information acquired by in-camera tracking, it is possible to play back the video for the period from when the person targeted for tracking appears in the video until the person disappears from the video. , It is possible to check the behavior of the person in the shooting area of the camera of interest without omission. However, if there is an error in the tracking information in the camera, a part of the image of the person to be tracked may be missing or a video that does not show the person to be tracked may be displayed. The task of confirming a person's behavior cannot be performed smoothly.
  • Main object is to provide a tracking support device, a tracking support system, and a tracking support method.
  • the work of a monitor who tracks a moving body to be tracked by displaying video for each of a plurality of cameras stored in a video storage unit on a display device A tracking support device that supports a search condition setting unit that sets a search condition for searching for a moving object image to be tracked according to a user operation input, and a video that matches the search condition from the video storage unit
  • the tracking target search screen is displayed on the display device and the tracking object search screen is displayed on the video. Accordingly, the tracking target setting unit that sets the designated moving object as the tracking target and the tracking information acquired by the tracking process for the video stored in the video storage means are set as the tracking target.
  • a confirmation video presenting unit that extracts a video of a mobile body most likely to be the same as the mobile body for each camera and displays a tracking target confirmation screen on which only those videos are displayed as a confirmation video on the display device;
  • Video display period for setting the video display period in which the mobile object set as the tracking target appears in the video according to the user's operation input when no tracking mark is displayed on the tracking target mobile object on the tracking target search screen.
  • the configuration includes a setting unit and a tracking information correction unit that corrects tracking information so that a confirmation video is displayed on the tracking target confirmation screen based on the video display period.
  • the tracking mark is not displayed on the mobile object to be tracked, that is, when the mobile object to be tracked is not tracked, instead of selecting the tracking mark and specifying the mobile object to be tracked
  • the confirmation video of that camera is appropriately displayed on the tracking object confirmation screen Can be displayed.
  • the video display period setting unit displays a movable operation unit that represents a start time and an end time of the video display period on the tracking target search screen, and the video is displayed by shifting the movable operation unit.
  • a configuration is adopted in which the user performs an operation for adjusting the range of the display period.
  • the video display period can be quickly adjusted to an appropriate range.
  • the video display period setting unit displays the video of the camera on the tracking target search screen so that the display time can be adjusted, and the video in which the mobile object to be tracked first appears. Then, a configuration is adopted in which the user performs an operation of selecting a video immediately before the mobile object to be tracked disappears, and the start time and end time of the video display period are acquired.
  • the video display period can be accurately set within an appropriate range.
  • the fourth disclosure is a tracking support device that supports a monitor's work of tracking a moving object to be tracked by displaying video for each of a plurality of cameras stored in the video storage means on a display device. Based on the tracking information acquired by the tracking process for the video stored in the video storage means, the video of the mobile body that is most likely to be the same as the mobile body set as the tracking target is extracted for each camera.
  • a tracking video confirmation unit that displays the tracking target confirmation screen on which only those videos are displayed as a confirmation video on the display device, and tracking when there is an excess or deficiency in the confirmation video for each camera displayed on the tracking target confirmation screen
  • a configuration provided with a tracking information correction unit for correcting the tracking information so as to display a confirmation image in the tracking target confirmation screen based on the image display period.
  • the confirmation video of the camera can be appropriately displayed on the tracking target confirmation screen.
  • the video display period setting unit displays the tracking period acquired by the in-camera tracking process for the video for each camera as an initial video display period on the tracking result editing screen, and the tracking result editing screen
  • the user is allowed to perform an operation of adjusting the range of the video display period so that at least one of partial deletion and addition is performed with respect to the initial video display period.
  • the video display period in order to display the tracking period acquired by tracking in the camera as the initial video display period and to adjust the range of the video display period by partial deletion or addition to the initial video display period, the video display period Can be easily adjusted to an appropriate range.
  • the video display period setting unit displays a movable operation unit that represents a start time and an end time of the video display period on the tracking result editing screen, and moves the movable operation unit to display the video.
  • a configuration is adopted in which the user performs an operation for adjusting the range of the display period.
  • the video display period can be quickly adjusted to an appropriate range.
  • the video display period setting unit displays the video of the camera on the tracking result editing screen so that the display time can be adjusted, and the video in which the mobile object to be tracked first appears.
  • a configuration is adopted in which the user performs an operation of selecting at least one of the video immediately before the mobile object to be tracked disappears, and acquires at least one of the start time and the end time of the video display period.
  • the video display period can be accurately set within an appropriate range.
  • the video display period setting unit causes the user to perform an operation of selecting a tracking mark of a mobile object to be tracked that appears in the video on the tracking result editing screen, and the selected mobile object is selected.
  • the video display period is set so as to include the tracking period.
  • the mobile object to be tracked is tracked as another mobile object by selecting the tracking mark of that mobile object. Since the tracking period can be added to the video display period, the video display period can be easily adjusted to an appropriate range.
  • the ninth disclosure further displays a continuous reproduction screen in which videos for each camera related to a moving object set as a tracking target and a moving object associated with the moving object are arranged in order of shooting time. It is configured to include a video playback unit that performs continuous playback that is displayed on the apparatus and that displays video for each camera as a moving image sequentially over time on the continuous playback screen.
  • the observer can easily confirm what action the mobile object to be tracked has performed in the monitoring area. .
  • a tenth disclosure is a tracking support system that supports a monitor's work for tracking a moving object to be tracked by displaying video for each of a plurality of cameras stored in a video storage unit on a display device.
  • Each of the plurality of information processing devices according to a user's operation input, and a camera that captures the surveillance area, a display device that displays video for each camera, and a plurality of information processing devices.
  • the search condition setting unit for setting the search condition for searching for the video of the mobile object to be tracked, the video that matches the search condition from the video storage means, and the tracking target search screen is displayed on the display device,
  • the designated moving body is set as the tracking target according to the operation input of the monitor who designates the moving body to be tracked by the operation of selecting the tracking mark displayed on the video on the tracking target search screen.
  • the video of the mobile body most likely to be the same as the mobile body set as the tracking target is displayed for each camera.
  • the tracking target confirmation screen on which only those videos are displayed as the confirmation video is displayed on the display device and the tracking target search screen.
  • a video display period setting unit that sets a video display period in which a moving object set as a tracking target appears in the video according to a user operation input, and a confirmation video on the tracking target confirmation screen based on the video display period.
  • a tracking information correction unit that corrects the tracking information so as to be displayed.
  • the support process that reduces the burden on the observer is appropriately performed, and the tracking operation can be smoothly performed without losing sight of the person being tracked. Can proceed.
  • the eleventh disclosure is a tracking support system that supports a monitor's work of tracking a moving object to be tracked by displaying video for each of a plurality of cameras stored in a video storage unit on a display device. And a display device that displays video for each camera, and a plurality of information processing devices, and any one of the plurality of information processing devices is stored in the video storage means. Based on the tracking information acquired by the tracking processing for the video, the video of the mobile body that is most likely to be the same as the mobile body set as the tracking target is extracted for each camera, and only those videos are used as the confirmation video.
  • a confirmation video presentation unit that displays the displayed tracking target confirmation screen on the display device and a tracking result editing screen when the confirmation video for each camera displayed on the tracking target confirmation screen is excessive or insufficient.
  • a video display period setting unit for setting a video display period in which the moving body set as the tracking target appears in the video according to a user operation input on the tracking result editing screen, and a video display period.
  • a tracking information correction unit that corrects the tracking information so that the confirmation video is displayed on the tracking target confirmation screen.
  • an information processing apparatus performs processing for supporting a monitor's work for tracking a moving object to be tracked by displaying a video for each of a plurality of cameras stored in a video storage unit on a display device.
  • a tracking support method to be performed by the user in accordance with a user operation input, a search condition for searching for a moving object image to be tracked is set, and a video that matches the search condition is acquired from the video storage means.
  • the tracking target search screen is displayed on the display device, and the tracking target displayed on the video in the tracking target search screen is selected according to the operation input of the monitor that specifies the moving object to be tracked.
  • Video of each moving object is extracted for each camera, a tracking target confirmation screen in which only those images are displayed as confirmation video is displayed on the display device, and a tracking mark is displayed on the moving target to be tracked on the tracking target search screen.
  • a video display period in which the moving object set as the tracking target appears in the video according to the user's operation input, and display the confirmation video on the tracking target confirmation screen based on the video display period The tracking information is corrected.
  • the support process that reduces the burden on the observer is appropriately performed, and the tracking operation can be smoothly performed without losing sight of the person being tracked. Can proceed.
  • the thirteenth disclosure is an information processing device for displaying a video for each of a plurality of cameras stored in a video storage unit on a display device and supporting a monitor's work for tracking a moving object to be tracked.
  • the tracking support method to be performed by the mobile object that is most likely to be the same as the mobile object set as the tracking target based on the tracking information acquired by the tracking process on the video stored in the video storage means.
  • a tracking target confirmation screen in which only those images are displayed as confirmation images is displayed on the display device, and there is an excess or deficiency in the confirmation images for each camera displayed on the tracking target confirmation screen
  • the tracking result editing screen is displayed on the display device, and according to the user's operation input on the tracking result editing screen, the video display period in which the moving body set as the tracking target appears in the video is set, A configuration to correct the tracking information so as to display a confirmation image in the tracking target confirmation screen based on the image display period.
  • tracking and “tracking” are used. This is merely used for convenience of explanation, but “tracking” is mainly used. This is used when there is a strong connection with the action of the observer, and “tracking” is used when the connection with the processing mainly performed by the apparatus is strong.
  • FIG. 1 is an overall configuration diagram of the tracking support system according to the present embodiment.
  • This tracking support system is constructed for retail stores such as supermarkets and home centers, and includes a camera 1, a recorder (video storage means) 2, a PC (tracking support device) 3, and tracking in the camera. And a processing device 4.
  • the camera 1 is installed in a proper place in the store, the store (monitoring area) is shot by the camera 1, and the video in the store shot by the camera 1 is recorded on the recorder 2.
  • the PC 3 is connected with an input device 6 such as a mouse for a monitor (user) to perform various input operations, and a monitor (display device) 7 for displaying a monitoring screen.
  • This PC 3 is installed in a security room of the store, etc., and a supervisor (security guard) can view the video in the store taken by the camera 1 in real time on the monitor screen displayed on the monitor 7, In addition, it is possible to browse past videos in the store recorded by the recorder 2.
  • a monitor (not shown) is also connected to the PC 11 provided in the headquarters so that a store image captured by the camera 1 can be viewed in real time, and a past store image recorded by the recorder 2 can be viewed. The situation in the store can be checked at the headquarters.
  • the in-camera tracking processing device 4 tracks a person (moving body) detected from the video of the camera 1 and performs processing for generating in-camera tracking information for each person.
  • a known image recognition technique (such as a person detection technique and a person tracking technique) may be used for the in-camera tracking process.
  • the in-camera tracking processing device 4 always performs the in-camera tracking processing independently of the PC 3. However, the in-camera tracking processing device 4 may execute the tracking processing in response to an instruction from the PC 3. Good. Further, in the in-camera tracking processing device 4, it is desirable to perform tracking processing for all persons detected from the video. However, tracking is limited to a person designated as a tracking target and a person highly related to the tracking target. Processing may be performed.
  • FIG. 2 is a plan view showing the installation status of the camera 1 in the store.
  • a passage is provided between the product display spaces, and a plurality of cameras 1 are installed so as to mainly photograph the passage.
  • the camera that takes over the shooting of the person is limited by the form of the passage in the store and the shooting area of the camera 1, and in this embodiment, the camera that has the relationship of taking over the shooting of the person is a camera having a cooperative relationship. It is called.
  • Information relating to the cooperation relationship between the cameras is set in advance and held in the PC 3 as camera cooperation information.
  • the information regarding the cooperation relationship between the cameras is obtained in preparation for changing the number of cameras 1 and the installation location, and the installation information of each camera 1 is individually acquired by the PC 3 when the system is started up. Information may be updated.
  • FIG. 3 is a functional block diagram showing a schematic configuration of the PC 3.
  • the PC 3 includes a tracking information storage unit 21, an inter-camera tracking processing unit 22, an input information acquisition unit 23, a tracking target processing unit 24, a video presentation unit 25, an in-camera tracking information correction unit 26, and a video playback unit. 27 and a screen generation unit 28.
  • the in-camera tracking information generated by the in-camera tracking processing device 4 is stored.
  • the tracking information storage unit 21 stores the inter-camera tracking information generated by the inter-camera tracking processing unit 22.
  • the input information acquisition unit 23 performs a process of acquiring input information based on the input operation according to the input operation of the supervisor using the input device 6 such as a mouse.
  • the tracking target processing unit 24 includes a search condition setting unit 31, a tracking target setting unit 32, a video display period setting unit 33, and a tracking target addition setting unit 34.
  • the search condition setting unit 31 performs a process for setting a search condition for searching for an image in which a person to be tracked is shown, in accordance with an input operation by a supervisor.
  • a person search screen tilt target search screen, see FIG. 7 is displayed on the monitor 7, and on this person search screen, information regarding the shooting date and the camera 1 is input as a search condition.
  • a search condition from the video stored in the recorder 2 based on the search condition set by the search condition setting unit 31 and the in-camera tracking information stored in the tracking information storage unit 21 is displayed on the person search screen, and the person to be tracked is selected by selecting the person frame (tracking mark) on the person search screen. The process of setting the person to be tracked is performed.
  • the inter-camera tracking processing unit 22 includes a link score calculation unit 35, an initial tracking information generation unit 36, a candidate selection unit 37, and an inter-camera tracking information correction unit 38.
  • the link score calculation unit 35 acquires in-camera tracking information related to each camera 1 from the tracking information storage unit 21, and the persons detected and tracked in the in-camera tracking processing related to each camera 1 may be the same person.
  • a link score (evaluation value) representing the height is calculated. In this process, the link score is calculated based on the person detection time (frame shooting time), the person detection position, the person moving speed, the color information of the person image, and the like.
  • the initial tracking information generation unit 36 has the highest link score among the persons tracked by the in-camera tracking related to the camera 1 having the linkage relationship, starting from the person set as the tracking target by the tracking target setting unit 32. That is, a process is performed in which a person who is most likely to be the same person is sequentially selected for each camera 1 and initial tracking information in which those persons are associated with each other as the same person is generated.
  • the person with the highest link score is selected, and then the person with the highest link score is selected from the persons tracked by the in-camera tracking of the camera 1 that is linked to the camera 1 that photographed the selected person.
  • the selection of such a person is repeated for each camera 1 having a cooperative relationship.
  • the process of selecting such a person is performed both before and after the tracking target designation video, and when the highest link score falls below a predetermined threshold, the person to be tracked is selected. It is determined that the person does not exist in the monitoring area, and the selection of the person is finished.
  • the video presentation unit 25 includes a confirmation video presentation unit 39 and a candidate video presentation unit 40.
  • the confirmation video presenting unit 39 selects the video of the person with the highest link score, that is, the video most likely to include the person to be tracked.
  • a confirmation video is extracted for each camera 1 and the confirmation video is presented.
  • a confirmation video display state timeline screen in which the confirmation video is displayed in order of shooting time (tracking target confirmation screen, see FIG. 8). ) Is displayed on the monitor 7.
  • the candidate selection unit 37 of the inter-camera tracking processing unit 22 has an error in the confirmation video presented by the confirmation video presentation unit 39, that is, when the initial tracking information generated by the initial tracking information generation unit 36 has an error.
  • a process of selecting a predetermined number of persons having a lower link score as candidates from the persons tracked by in-camera tracking during the period corresponding to the confirmed video with the error, and having a lower link score than the person corresponding to the confirmed video with the error Is done.
  • the link score is equal to or greater than a predetermined threshold, and the tracking period of the person corresponding to the confirmation video selected as having an error (period tracked by in-camera tracking) is set as a reference.
  • a candidate person is selected for a person whose tracking period is included in the search period. Note that setting information relating to the threshold value of the link score and the time width for setting the search period is held in a setting information holding unit (not shown) of the PC 3.
  • the candidate video presentation unit 40 when there is an error in the confirmation video presented by the confirmation video presentation unit 39, there is a possibility that a video related to the candidate person selected by the candidate selection unit 37, that is, a person to be tracked is shown. Is extracted as a candidate video, and the candidate video is presented. Specifically, a candidate video display state timeline screen (candidate selection screen, 10) is displayed on the monitor 7, and a process for causing the monitor to select a candidate video in which the person to be tracked is displayed on the screen is performed.
  • the inter-camera tracking information correction unit 38 associates the person corresponding to the candidate video with the person to be tracked. Then, the tracking information related to the person to be tracked is corrected to generate corrected tracking information.
  • the inter-camera tracking information correction unit 38 as in the process of generating the initial tracking information, the person tracked by the in-camera tracking related to the camera 1 having the cooperative relationship is started from the person corresponding to the candidate video. Among them, the person having the highest link score, that is, the person who is most likely to be the same person is sequentially selected for each camera 1, and the correction tracking information that associates these persons as the same person is generated. Further, in this tracking information correction process, the person set in the tracking target setting unit 32, the person corresponding to the confirmation video for which the confirmation operation has been performed by the supervisor, and the candidate video replaced with the already-confirmed confirmation video are displayed. The corresponding person is excluded from the correction target.
  • the person search that displays the video stored in the recorder 2 A screen (tracking target search screen, see FIG. 7) is displayed on the monitor 7, and on the person search screen, the person to be tracked is designated from the video in the period corresponding to the erroneous confirmation video. Then, a process of additionally setting the designated person as a tracking target is performed.
  • the inter-camera tracking information correction unit 38 associates the person set as the tracking target by the tracking target addition setting unit 34 with the person set as the tracking target by the tracking target setting unit 32 and tracks the tracking information about the person set as the tracking target. Is corrected, and processing for generating correction tracking information is performed.
  • the video display period setting unit 33 of the tracking target processing unit 24 when a person frame is not displayed on the person to be tracked on the person search screen (tracking target search screen, see FIG. 7), according to the operation input of the supervisor. Then, processing for setting a video display period in which a person to be tracked appears in the video is performed.
  • the video display period setting unit 33 edits the tracking result when there is an excess or deficiency in the confirmation video for each camera 1 displayed on the timeline screen of the confirmation video display state (tracking target confirmation screen, see FIG. 8).
  • a tracking result editing screen (see FIG. 12) is displayed on the monitor 7 in accordance with the operation of the instructing supervisor, and a person to be tracked is imaged in response to a user operation input on the tracking result editing screen.
  • a process for setting a video display period appearing on the screen is performed.
  • the video display period setting unit 33 monitors the person search screen on which the video accumulated in the recorder 2 is displayed when there is no suitable candidate video among the candidate videos presented by the candidate video presentation unit 40. Then, on the person search screen, a process is performed in which the monitor designates a period during which the person to be tracked is shown in the video, and that period is set as the video display period.
  • the in-camera tracking information correction unit 26 performs a process of generating correction tracking information by performing correction by adding the video display period set by the video display period setting unit 33 to the tracking information related to the person to be tracked. . Accordingly, the in-camera tracking information includes the tracking period and the video display period.
  • the video display period is set in the video display period setting unit 33, and the confirmation video of the camera 1 adjacent to the camera 1 in which the video display period is set is a timeline.
  • a person search screen tracking target search screen, see FIG. 7 on which the video stored in the recorder 2 is displayed is displayed on the monitor 7.
  • a process is performed in which the person designated as the tracking target is designated from the video in the period corresponding to the confirmation video in the blank state, and the designated person is additionally set as the tracking target.
  • the video playback unit 27 performs a process of displaying the video of the camera 1 as a moving image on the screen displayed on the monitor 7.
  • a process for displaying a timeline screen in a continuous playback state (continuous playback screen, see FIG. 9) on the monitor 7 is performed.
  • continuous playback screen for each camera 1 in which a person to be tracked is shown.
  • Continuous playback is performed in which video is displayed as a moving image sequentially as time passes.
  • the screen generation unit 28 generates a screen to be displayed on the monitor 7. Specifically, the screen generation unit 28 generates a person search screen (tracking target search screen, see FIG. 7) in response to an instruction from the tracking target setting unit 32. Then, a confirmation video display state timeline screen (tracking target confirmation screen, see FIG. 8) is generated according to an instruction from the confirmation video presentation unit 39, and a candidate video display state is generated according to an instruction from the candidate video presentation unit 40. A timeline screen (candidate selection screen, see FIG. 10) is generated, and a timeline screen in a continuous playback state (continuous playback screen, see FIG. 9) is generated in response to an instruction from the video playback unit 27.
  • the PC 3 is realized by causing the processor (CPU) of the PC 3 to execute a tracking support program (instruction) stored in a memory such as an HDD.
  • a tracking support program instruction
  • These programs are pre-installed in the PC 3 as an information processing device and configured as a dedicated device, or recorded in an appropriate program recording medium as an application program that operates on a predetermined OS, and via a network, It may be provided to the user.
  • FIG. 4 is an explanatory diagram showing the transition state of the screen displayed on the monitor 7.
  • FIG. 5 and FIG. 6 are flowcharts showing the procedure of processing performed in each part of the PC 3 in accordance with the operation of the supervisor performed on each screen.
  • a person search screen (tracking target search screen, see FIG. 7) is displayed on the monitor 7 (ST101).
  • This person search screen specifies the date and time when the person to be tracked has performed a problematic act such as shoplifting, and assumes that the person to be tracked has performed the problematic action and that person has passed.
  • the camera 1 that captures the area to be recorded is specified, the video in which the person to be tracked is found, the person to be tracked is specified on the video, the date and the camera 1 are specified.
  • the person who selects the person frame displayed on the person and designates the person as the tracking target is operated by the supervisor (Yes in ST102).
  • the person search screen includes a person search screen by a single camera and a person search screen by a plurality of cameras.
  • the person search screen by a single camera displays a video of a single camera 1 as a tracking target.
  • a person search screen using a plurality of cameras is used to search for an image in which a person to be tracked is displayed by displaying images from a plurality of cameras 1.
  • the camera 1 is selected on the camera selection screen, the screen returns to the person search screen, and the video of the selected camera 1 is displayed on the person search screen.
  • the camera selection screen includes a single camera selection screen and a multiple camera selection screen.
  • the supervisor can select one camera 1 that displays an image on the person search screen.
  • the supervisor can select a plurality of cameras 1 that display images on the person search screen.
  • the tracking target setting unit 32 performs processing for setting the person designated by the monitor as the tracked target (ST103).
  • the initial tracking information generation unit 36 sequentially selects a person with the highest link score from the persons detected and tracked in the in-camera tracking process for each camera 1 for each camera, and generates initial tracking information. Performed (ST104).
  • the confirmation video presentation unit 39 based on the initial tracking information, a video that is most likely to be a person to be tracked is extracted as a confirmation video for each camera 1, and the confirmation video is displayed.
  • a process of displaying a timeline screen in the confirmation video display state (tracking target confirmation screen, see FIG. 8) on the monitor 7 is performed (ST105).
  • the operation for selecting the person frame cannot be performed (No in ST102). Instead, an operation for designating a period during which the person to be tracked appears in the video (video display period) is performed by the supervisor (Yes in ST106), and the video display period setting unit 33 sets the video display period. A setting process is performed (ST107). Then, the confirmation video presentation unit 39 performs a process of displaying on the monitor 7 a timeline screen (see FIG. 11) in a confirmation video display state in which a video corresponding to the video display period is displayed as the confirmation video (ST105).
  • the timeline screen in the confirmation video display state is to allow the monitor to check whether there is an error in the tracking information between cameras (initial tracking information) by the confirmation video. Select the person frame on the person search screen and select the tracking target.
  • a confirmation video for each of the cameras 1 before and after the camera 1 designating the person to be tracked is displayed by tracking between cameras.
  • an inappropriate confirmation video is found among multiple confirmation videos displayed on the timeline screen in the confirmation video display state, that is, the confirmation video is played even though the person to be tracked is shown in the confirmation video.
  • a video is displayed, a video showing only the person not tracked is displayed, a video showing the person targeted for tracking is started midway, or a video showing the person targeted for tracking is terminated midway. If the person to be tracked is not properly captured for the entire period from when the target person appears in the video until the person disappears from the video, select the confirmation video and edit the tracking result Is performed by the supervisor (Yes in ST110). Then, the video display period setting unit 33 performs processing for displaying the tracking result editing screen (see FIG. 12) on the monitor 7 (ST111).
  • the supervisor performs an editing operation to delete an unnecessary part of the video display period or add an insufficient part of the video display period.
  • the in-camera tracking information correction unit 26 performs a process of correcting the in-camera tracking information based on the input information by the editing operation, and further, if necessary, the inter-camera tracking information correction unit 38. Then, a process for correcting the inter-camera tracking information based on the in-camera tracking information is performed (ST112).
  • the confirmation video presenting unit 39 performs a process of displaying the timeline screen in the confirmation video display state on the monitor 7 (ST105).
  • a confirmation video with an error is found in multiple confirmation videos displayed on the timeline screen in the confirmation video display state, that is, whether any of the confirmation videos contains the person to be tracked Or, if the person to be tracked is shown but the person frame indicating the tracked object is displayed on a different person from the person to be tracked, select the confirmation video and instruct the candidate video to be displayed.
  • the operation to be performed is performed by the supervisor (Yes in ST113).
  • the candidate selection unit 37 performs a process of selecting a predetermined number of persons having a lower link score than the person corresponding to the confirmation video from the top, and the candidate video presentation unit 40 selects the video of the person selected by the candidate selection unit 37. Is extracted as a candidate video, and a process of causing the monitor 7 to display a timeline screen (candidate selection screen, see FIG. 10) in a candidate video display state in which the candidate videos are displayed side by side is performed (ST114).
  • a predetermined number of videos from the top are displayed as candidate videos, which are the next highest after the confirmation video that the person to be tracked is reflected.
  • the person with the highest link score and the person after the next rank may have been shot by the same camera 1, and the candidate video may be the same camera 1 as the confirmation video.
  • candidate videos displayed on the timeline screen in this candidate video display state there is an appropriate candidate video, that is, a candidate video in which a person to be tracked is found and a person frame is displayed on the person If it has been selected, an operation for selecting the candidate video is performed by the supervisor (Yes in ST115).
  • the tracking information correction unit 38 corrects the tracking information so that the person corresponding to the candidate video selected on the timeline screen in the candidate video display state is associated with the person first designated as the tracking target. Is performed (ST116). Then, the screen returns to the timeline screen in the confirmation video display state (ST105). In this timeline screen, the result of correcting the tracking information is reflected, that is, the confirmation video on the timeline screen is replaced with the candidate video and displayed.
  • this person search screen when a video showing the person to be tracked is found and a person frame is displayed on the person, that is, when tracking in the camera related to the person to be tracked is successful
  • the operation for selecting the person frame is performed by the supervisor (Yes in ST119).
  • the tracking information correction unit 38 performs a process of correcting the tracking information so that the person selected on the person search screen is associated with the person first designated as the tracking target (ST116).
  • the screen returns to the timeline screen in the confirmation video display state (ST105).
  • the result of correcting the tracking information is reflected. That is, the confirmation video on the timeline screen is the person specified on the person search screen.
  • the video is replaced with and displayed.
  • an operation for inputting the video display period in which the person to be tracked appears in the video or a candidate video is designated.
  • An operation or an operation of searching for and specifying a person to be tracked is performed by the supervisor, and these operations are repeated until there are no erroneous confirmation videos.
  • an operation for instructing continuous playback is performed by the supervisor (Yes in ST108), and the timeline screen in the continuous playback state is displayed on the monitor 7. (ST109).
  • FIG. 7 is an explanatory diagram showing a person search screen displayed on the monitor 7.
  • This person search screen specifies the date and time when the person you want to track has performed a problematic act such as shoplifting, searches for the video that contains the person to be tracked, and tracks it on that video
  • the target person is designated, and a search date and time designation unit 41, a search camera designation unit 42, a video display unit 43, a playback operation unit 44, a display time adjustment unit 45, and a video display period designation unit 46 are designated.
  • the supervisor designates the date and time that is the center of the period in which the person to be tracked is assumed to be captured.
  • search button (search instructing unit) 51 is operated by specifying the date and time in the search date and time specifying unit 41, the video of the specified date and time is displayed on the video display unit 43.
  • the supervisor selects the camera 1 according to the search mode (single camera mode and multiple camera mode).
  • the search mode single camera mode
  • a single camera 1 is designated and a video showing a person to be tracked is searched from the video of the single camera 1.
  • the multiple camera mode a plurality of cameras 1 are selected. By designating, a video in which a person to be tracked is captured is searched for from the video for each of the plurality of cameras 1.
  • the search camera designation unit 42 is provided with a search mode selection unit (radio button) 52, a camera selection unit 53, a camera selection button 54, and a map display button 55.
  • the search mode selection unit 52 selects a single camera mode or a multiple camera mode.
  • the camera selection unit 53 selects a single camera 1 from the pull-down menu.
  • a camera selection screen (not shown) is displayed, and a plurality of cameras 1 can be selected on this camera selection screen.
  • the camera selection screen is a list of cameras 1 installed in the store.
  • a camera position confirmation screen (not shown) is displayed.
  • the position of the camera 1 can be confirmed on the camera position confirmation screen.
  • the camera position confirmation screen is displayed by superimposing the camera icon indicating the position of the camera 1 on the map image indicating the layout in the store, and can confirm the position of the selected camera 1. Furthermore, it can change to another camera 1 by selecting a camera icon.
  • Information regarding the selection state of the search mode (single camera mode and multiple camera mode) and the selection state of the camera 1 is held in an information holding unit (not shown), The person search screen is displayed with the camera 1 as it is.
  • the search button 51 When the single camera mode is selected, the date / time and the camera 1 are designated, and the search button 51 is operated, a person search screen by a single camera shown in FIG. 7 is displayed. A video of the designated single camera 1 is displayed on the video display unit 43. On the other hand, when the multiple camera mode is selected, the date and camera 1 are specified, and the search button 51 is operated, a person search screen (not shown) by a plurality of cameras is displayed. The video display unit 43 displays the videos of the designated cameras 1 side by side.
  • the video display unit 43 displays the video of the camera 1.
  • a red person frame (tracking mark) 61 is displayed in the image area of the person detected from the video displayed here, that is, the person who is the subject of the tracking process in the camera.
  • An operation for selecting the frame 61 specifically, a left click operation with the pointer on the person frame 61, the person is set as a tracking target.
  • the name of the camera 1 and the date and time that is, the video shooting time are displayed.
  • the playback operation unit 44 performs operations related to playback of the video displayed on the video display unit 43.
  • the playback operation unit 44 is provided with playback, reverse playback, stop, fast forward, and rewind buttons 62. By operating these buttons 62, the video can be viewed efficiently. Thus, it is possible to efficiently find an image showing a person to be tracked.
  • the display time adjustment unit 45 adjusts the display time of the video displayed on the video display unit 43.
  • the display time adjustment unit 45 is a so-called seek bar, and a slider 63 is provided so as to be movable along the bar 64.
  • an operation (drag) for moving the slider 63 is performed using the input device 6 such as a mouse, an image at the time indicated by the slider 63 is displayed on the video display unit 43.
  • the bar 64 defines a display time adjustment range centered on the time designated by the search date and time designation unit 41.
  • the video display period designating unit 46 is used by the supervisor to input the period during which the person to be tracked is in the video as the video display period.
  • the video display period designating unit 46 is a so-called duration bar, and a bar (movable operation unit) 66 representing the video display period is displayed in a frame 65.
  • the video display period designating unit 46 selects a person frame 61 when a video showing a person to be tracked is displayed on the video display unit 43, but the person frame 61 is not displayed for the person. Instead, the supervisor designates the period during which the person to be tracked is in the video.
  • the adjustment range designation unit 47 designates the adjustment range (effective reproduction range) of the display time of the video displayed on the video display unit 43, that is, the movement range of the slider 63 defined by the bar 64 of the display time adjustment unit 45. Is.
  • the display time adjustment range can be selected from a predetermined time (for example, 5 minutes, 15 minutes, etc.) by a pull-down menu.
  • the selection cancel button 48 When the selection cancel button 48 is operated, the specified content of the video display period specifying unit 46 is discarded, and the video display period (start time and end time) can be specified again.
  • the setting completion button 49 When the setting completion button 49 is operated, a transition is made to the timeline screen (see FIG. 8) in the confirmation video display state.
  • FIG. 8 is an explanatory diagram showing a timeline screen in a confirmation video display state displayed on the monitor 7.
  • the timeline screen in the confirmation video display state displays the video of each camera 1 that is most likely to show the person specified as the tracking target on the person search screen as a confirmation video, and uses this confirmation video to track between cameras. This allows the monitor to check whether there is an error in the information (initial tracking information).
  • This timeline screen includes a video display unit 71, a reproduction operation unit 44, a display time adjustment unit 45, and a map display button. 72.
  • the playback operation unit 44 and the display time adjustment unit 45 are the same as those on the person search screen (see FIG. 7), but are used when displaying video as moving images on the timeline screen (see FIG. 9) in the continuous playback state. This will be described in detail later.
  • a camera position confirmation screen (not shown) is displayed.
  • the camera position can be confirmed on the camera position confirmation screen.
  • the camera position confirmation screen is displayed by superimposing a camera icon indicating the position of the camera 1 on a map image indicating the layout in the store, and confirming the position of the camera 1 that has captured the confirmation video. it can.
  • the video display unit 71 is provided with a confirmation video display unit 73 and a candidate video display unit 74.
  • the candidate video display unit 74 displays a video on the timeline screen (see FIG. 10) in the candidate video display state, which will be described in detail later.
  • a predetermined number of camera-specific video display units 81 are arranged in the horizontal direction in the confirmation video display unit 73, and the verification videos are displayed in the video display frame 82 of the camera-specific video display unit 81 in order of shooting time.
  • the confirmation video from the start of tracking after entering the monitoring area (inside the store) until the exit of the monitoring area is displayed side by side from the left end in order of oldest shooting time.
  • the camera-by-camera display unit 81 displays the shooting time of each confirmation image and the name of the camera 1 that has captured each confirmation image.
  • a confirmation image of the tracking start time at which the camera 1 starts tracking in the camera is displayed as a still image.
  • confirmation video a person frame is displayed on the person detected and tracked in the confirmation video, as in the person search screen (see FIG. 7).
  • the camera-specific image display unit 81 is provided with an enlargement button 83 and a candidate image display button 84.
  • an enlarged video display screen (not shown) for enlarging and displaying the confirmation video is displayed as a hop-up display in a separate window, and the confirmation video can be observed in detail on this screen.
  • the candidate video display button 84 is operated, a transition is made to the timeline screen (see FIG. 10) of the candidate video display state.
  • the confirmation video display unit 73 also displays a tracking target designation video, that is, a video in which a person is designated as a tracking target on the person search screen (see FIG. 7), and displays the tracking target designation video for each camera.
  • a tracking target designation video that is, a video in which a person is designated as a tracking target on the person search screen (see FIG. 7)
  • a mark 85 for identifying the tracking target designation video is displayed.
  • a frame image representing a tracking target designation video may be displayed on the video display frame 82 of the camera-specific video display unit 81. Further, a frame image representing a confirmed state may be displayed on the confirmed confirmation video.
  • the video display unit 71 is provided with a first scroll bar (scroll operation unit) 75.
  • the first scroll bar 75 slides and displays the confirmation video in the arrangement direction of the confirmation video, that is, in the horizontal direction when all the confirmation video does not fit in the confirmation video display part (confirmation video display area) 73.
  • the confirmation image can be slid in the horizontal direction, and by clicking on the arrow (left and right arrows) 75b, the confirmation image is displayed along with the knob 75a in one unit (confirmation image 1). Can only slide.
  • the confirmation video displayed on the confirmation video display unit 73 is designated as the tracking target by determining whether or not the confirmation video is the person designated as the tracking target.
  • the monitoring person can check whether there is an error in the inter-camera tracking information (initial tracking information) regarding the person who has performed. If there is an error in the tracking information between cameras, the person to be tracked is not shown in the confirmation video, or the person to be tracked is shown, but the person frame is different from the person to be tracked. Is displayed, and it is possible to determine whether there is an error in the inter-camera tracking information by viewing this confirmation video.
  • FIG. 9 is an explanatory diagram showing a timeline screen in a continuous reproduction state displayed on the monitor 7.
  • the timeline screen in the continuous playback state has substantially the same configuration as the timeline screen in the confirmation video display state (see FIG. 8), but is displayed on the confirmation video display unit 73 in the timeline screen in the continuous playback state.
  • the confirmation video is continuously displayed as a moving image as time passes.
  • a frame image 76 indicating that playback is in progress is displayed on the confirmation video being played back.
  • the moving range of the slider 63 that adjusts the display time of the confirmation video displayed on the confirmation video display unit 73, that is, the start point (left end) of the bar 64 that defines the adjustment range of the display time is The shooting time is the start time of the oldest confirmation video, and the end point (right end) of the bar 64 is the end time of the newest confirmation video.
  • the video display period in which the video of each camera 1 is displayed as a moving image is a period in which a person frame is displayed, that is, a period in which a person is detected and tracked in the camera tracking for each camera 1.
  • the video display period does not match between the previous and next videos, that is, if there is a time lag between the end time of the previous video and the start time of the subsequent video, the video display will not be interrupted.
  • a process of connecting the video display periods in time by extending the period back and forth is performed.
  • the video display periods overlap between the previous and next videos. In this case, the playback is performed in parallel on the previous and next videos. Thereby, at the time of continuous reproduction, one or two videos are always being reproduced.
  • the confirmation video is displayed side by side starting from the oldest shooting time, so the confirmation video is played back in order from the left during continuous playback. If the confirmation video does not fit in the confirmation video display unit 73, a process of automatically sliding the confirmation video at an appropriate timing is performed, so that all confirmation videos are continuously displayed without any special operation by the monitor. You can view the situation being played.
  • an enlarged image display screen (not shown) for displaying the enlarged confirmation image is displayed in a separate window, and the confirmation image is enlarged on this screen. It can be displayed as a video in the state.
  • the enlargement button 83 is operated during continuous reproduction, the enlarged display is enabled for all subsequent confirmation images so that the enlarged image is continuously reproduced in one or two separate windows. Good.
  • FIG. 10 is an explanatory diagram showing a timeline screen in a candidate video display state displayed on the monitor 7.
  • the timeline screen (candidate selection screen) in this candidate video display state confirms that there is a possibility that the person to be tracked is reflected if there is an error in the confirmation video displayed on the timeline screen in the confirmation video display state
  • the next highest video is displayed as a candidate video, and the supervisor is selected.
  • the timeline screen in the candidate video display state is substantially the same as the timeline screen in the confirmation video display state (see FIG. 8), but below the confirmation video selected as having an error in the candidate video display unit 74.
  • a predetermined number of camera-specific video display units 81 are arranged in a line in the vertical direction, and candidate videos are displayed in the video display frame 82 of the camera-specific video display unit 81 in order from the highest link score.
  • a frame image 77 indicating the selection state is displayed in a predetermined display color (for example, yellow) in the video display frame 82 of the confirmation video corresponding to the candidate video.
  • the video display unit 71 is provided with a second scroll bar (scroll operation unit) 78.
  • the second scroll bar 78 slides and displays the candidate videos in the arrangement direction of the candidate videos, that is, in the vertical direction when all the candidate videos do not fit in the candidate video display unit (candidate video display area) 74.
  • the knob 78a is dragged, the candidate video can be slid in the vertical direction, and by clicking an arrow (up and down arrow) 78b, the candidate video is moved together with the knob 78a in one direction (candidate video 1). Can only slide.
  • an enlarged video display screen (not shown) for displaying the candidate video in an enlarged manner is displayed in a hop-up manner in a separate window.
  • the candidate video can be observed in detail.
  • the candidate video display state timeline screen there is an appropriate candidate video among the candidate videos displayed on the candidate video display unit 74, that is, a candidate video in which a person to be tracked is found, and When a person frame is displayed for the person, an operation (left click) for selecting the candidate video is performed by the supervisor.
  • the inter-camera tracking information correction unit 38 associates the person corresponding to the candidate video selected on the timeline screen in the candidate video display state with the person designated as the tracking target on the person search screen (see FIG. 7).
  • the tracking information is corrected.
  • a timeline screen in the confirmation video display state is displayed on the monitor 7 in a state where the result of correcting the tracking information is reflected.
  • the timeline screen in the confirmation video display state reflects the result of correcting the tracking information, that is, the confirmation video selected as having an error in the timeline screen in the confirmation video display state is the candidate video display state.
  • the video is replaced with the candidate video selected on the timeline screen.
  • the confirmation video before and after the confirmation video with the error may be changed with the candidate video. That is, the inter-camera tracking information correction unit 38 performs processing for sequentially selecting the person with the highest link score for each camera 1 starting from the person corresponding to the candidate video, and the person selected here is confirmed. If the person is different from the person corresponding to the video, the person is exchanged and the confirmation video is changed accordingly.
  • the tracking information is corrected by the inter-camera tracking information correcting unit 38, the person set by the tracking target setting unit 32, the person corresponding to the confirmation video on which the confirmation operation has been performed by the supervisor, and an error have already occurred. Since the person corresponding to the candidate video replaced with a certain confirmation video is excluded from the target, the confirmation video regarding those persons is not changed.
  • an appropriate candidate video is selected on the timeline screen in the candidate video display state, but a person frame on the candidate video may be selected. In this way, it is possible to avoid the tracking information being corrected by an incorrect person.
  • the date and time when the person to be tracked performs a problematic action such as shoplifting is specified, and the place where the person to be tracked performs the problematic action is imaged.
  • the person to be tracked can be specified on the image.
  • the target person may not be tracked. In this case, since the person frame 61 is not displayed for the person to be tracked, the tracking target cannot be specified by selecting the person frame 61.
  • a period during which the person to be tracked is shown in the video, that is, after the person to be tracked appears in the video, the person is taken from the video.
  • the period until the disappearance can be designated by the supervisor as the video display period of the corresponding camera 1.
  • the designation of the video display period is performed by the video display period designation unit 46 on the person search screen.
  • a bar 66 representing the video display period is displayed in the frame 65, and the video display period can be adjusted with this bar 66.
  • the video display period is defined by the start time and end time, and the positions of the left end and right end of the bar 66 are the start time and end time of the video display period, respectively.
  • the user moves the pointer to the left end of the bar 66 indicating the start time and performs a drag operation.
  • the user moves the pointer to the right end of the bar 66 indicating the end time and performs a drag operation.
  • the pointer changes to a double-pointed trim pointer.
  • the supervisor designates the time when the person to be tracked first appears in the video or an appropriate time in the vicinity thereof as the start time of the video display period. do it. Further, the time immediately before the person to be tracked disappears from the video or an appropriate time in the vicinity thereof may be designated as the end time of the video display period.
  • the start time and end time of the video display period can be specified by selecting the video at the start time and end time. That is, the playback operation unit 44 and the display time adjustment unit 45 are operated to display the video at the corresponding time (start time or end time) on the video display unit 43. Then, an operation of selecting a video on the video display unit 43 is performed. Specifically, the left click operation is performed by aligning the pointer with the video on the video display unit 43. Thereby, the shooting time of the video displayed on the video display unit 43 is designated as the start time or the end time.
  • FIG. 11 is an explanatory diagram showing a timeline screen when a video display period is designated on the person search screen.
  • confirmation images for each camera 1 are usually displayed in order of shooting time based on the tracking information between cameras.
  • an operation for specifying a person to be tracked by selecting a person frame 61 Instead, when the video display period is specified, there is no tracking information in the camera of the person to be tracked, so the tracking score is the link score of the tracking information between cameras, and the tracking target is selected from the persons tracked in the video of the adjacent camera. I can't identify the person who made it. Therefore, on the timeline screen when the video display period is specified on the person search screen, only one confirmation video of the camera 1 specifying the video display period is displayed, and the video display frames 82 of the front and rear cameras 1 are in a blank state. (Image is not displayed). Therefore, an operation is performed in which the supervisor manually selects a person to be tracked by the adjacent cameras 1 before and after.
  • the video of the adjacent camera 1 is displayed on the person search screen in the period immediately before the designated video display period.
  • the video of the adjacent camera 1 is displayed on the person search screen in a period immediately after the designated video display period. If the person frame 61 is displayed on the person search screen for the person to be tracked, the person frame 61 may be selected and the person to be tracked may be specified.
  • the timeline screen is displayed.
  • a person who is most likely to be the same person as the person to be tracked is sequentially selected for each camera 1, and if tracking is possible with the video of the previous camera 1, On the line screen, the confirmation video of the previous camera 1 is displayed.
  • the confirmation video of the subsequent camera 1 is displayed on the timeline screen.
  • the person to be tracked is shown in the video with the cameras 1 before and after the camera 1 for which the video display period is first designated, if the person frame 61 is not displayed on the person, the person frame The person to be tracked cannot be specified by selecting 61. In this case, the video display period may be designated again for the camera 1. Then, a person search screen related to the adjacent camera 1 is displayed, a person to be tracked by selecting the person frame 61 or a video display period is specified, and the person to be tracked by selecting the person frame 61 is selected. When the designation can be made, a confirmation video of the camera 1 before or after the camera 1 is displayed on the timeline screen.
  • the video display period related to the camera 1 is set.
  • the camera 1 becomes the starting point of the timeline screen, the video of the adjacent camera 1 is determined, and the video of each camera 1 that is continuous in time series can be displayed on the timeline screen.
  • the video of the tracking period acquired by in-camera tracking is played.
  • in-camera tracking for the person to be tracked is not successful over the entire appearance period from when the person to be tracked appears in the video until the person disappears from the video,
  • the tracking period acquired by in-camera tracking is incomplete, and the confirmation video on the timeline screen becomes over and under.
  • a video without a person to be tracked is displayed, a video that shows the person to be tracked ends in the middle, a video that shows the person to be tracked starts in the middle, and There is a problem that the video in which the person is shown is played in a state where it is not continuous.
  • the confirmation video is not properly reproduced, that is, the entire appearance period from when the person to be tracked appears in the video until the person disappears from the video 4 is displayed, and the tracking result editing screen shown in FIG. 4 is displayed, and the video display period is adjusted to an appropriate range, that is, a range that roughly matches the appearance period on the tracking result editing screen. It can be performed.
  • FIG. 12 is an explanatory diagram showing a tracking result editing screen displayed on the monitor 7.
  • the tracking result editing screen when there is an excess or deficiency in the confirmation video displayed on the timeline screen, the supervisor performs an editing operation so that the video display period of the confirmation video is an appropriate period.
  • the tracking result editing screen includes a video display unit 91, an initial video display period display unit 92, a display time adjustment unit 45, a video display period specification unit 93, a playback operation unit 44, an adjustment range specification unit 47, A return button 95, a cancel button 96, and a confirm button 97 are provided.
  • the video display unit 91 displays the video of the camera 1 selected on the timeline screen. Also, in the vicinity of the video display unit 91, the name and installation location of the camera 1 that shot the video and the date and time, that is, the video shooting time are displayed.
  • the initial video display period display unit 92 displays an unedited video display period, that is, a tracking period acquired by tracking the person to be tracked in the camera.
  • the initial video display period display unit 92 is a so-called duration bar, and a bar 66 representing an initial video display period (tracking period) is displayed in a frame 65.
  • the positions of the left end and the right end are the start time and end time of the video display period, respectively.
  • the bar 66 is displayed in red.
  • the display time adjustment unit 45 adjusts the display time of the video displayed on the video display unit 91.
  • the display time adjustment unit 45 is a so-called seek bar, and a slider 63 is provided so as to be movable along the bar 64.
  • an operation (drag) for moving the slider 63 is performed using the input device 6 such as a mouse, the video at the time pointed to by the slider 63 is displayed on the video display unit 91.
  • the video display period designating section 93 displays the video display period input by the supervisor's editing operation. Similar to the initial video display period display unit 92, the video display period designation unit 93 is a so-called duration bar, and a bar (movable operation unit) 66 representing the video display period is displayed in a frame 65. In the bar 66, the positions of the left end and the right end are the start time and end time of the video display period, respectively. In the editable state, the positions of the left end and the right end of the bar 66 can be moved by a drag operation.
  • the display color of the bar 66 of the video display period designating section 93 changes depending on the state.
  • the bar 66 is displayed in red as in the initial video display period display section 92.
  • the editable state is set, the bar 66 changes to yellow.
  • the person frame 61 displayed on the video display unit 91 is selected and the tracking period of the person frame 61 is added to the video display period, the added portion is displayed in blue.
  • the playback operation unit 44 performs operations related to playback of the video displayed on the video display unit 91.
  • the playback operation unit 44 is provided with playback, reverse playback, stop, fast forward, and rewind buttons 62. By operating these buttons 62, the video can be viewed efficiently. It is possible to efficiently grasp the period during which the person to be tracked is shown in the video.
  • the adjustment range designation unit 47 designates the adjustment range (effective reproduction range) of the display time of the video displayed on the video display unit 91, that is, the movement range of the slider 63 defined by the bar 64 of the display time adjustment unit 45. Is.
  • the display time adjustment range can be selected from a predetermined time (for example, 5 minutes, 15 minutes, etc.) by a pull-down menu.
  • the return button 95 When the return button 95 is operated, the last operation input edited on the tracking result editing screen is discarded, and the previous state is restored.
  • the cancel button 96 When the cancel button 96 is operated, all edit contents relating to the video display period input by the edit operation are discarded, and the screen returns to the timeline screen.
  • the confirm button 97 When the confirm button 97 is operated, the video display period input by the editing operation can be confirmed.
  • FIG. 13 is an explanatory diagram illustrating an example of a video transition state.
  • FIG. 14 is an explanatory diagram illustrating a situation during an editing operation on the tracking result editing screen.
  • the tracking period (initial video display period) acquired by in-camera tracking includes an unnecessary period during which another person was tracked.
  • the video after the selected person disappears from the video is displayed.
  • an unnecessary portion of the video display period is displayed on the tracking result editing screen.
  • the editing operation to be deleted can be performed.
  • the start time and end time of the video display period that is, the positions of the left end and the right end of the bar 66 displayed on the video display period specifying unit 93 are adjusted.
  • “Partial Edit” is selected from the pop-up menu displayed by right-clicking on the bar 66 to make the bar 66 editable. At this time, the bar 66 changes to yellow indicating the editable state as a whole.
  • the user moves the pointer to the left end of the bar 66 indicating the start time and performs a drag operation.
  • the user moves the pointer to the right end of the bar 66 indicating the end time and performs a drag operation.
  • the pointer changes to a trim pointer 98 having a double arrow shape.
  • the video display period is determined in a state where unnecessary portions where the person to be tracked is not shown in the video are deleted.
  • FIG. 15 is an explanatory diagram illustrating an example of a video transition state.
  • FIG. 16 is an explanatory diagram illustrating a situation during an editing operation on the tracking result editing screen.
  • a person to be tracked when a person to be tracked appears in the video, the person is appropriately tracked as the target to be tracked, and in the video at times T1 and T2, a red person frame is displayed on the person to be tracked. After that, tracking fails and the tracking person is switched. Thereafter, the person who is not the tracking target is tracked as the tracking target, and the person who is the tracking target is tracked as another person. A green person frame indicating that the target person is not a tracking target is displayed, and a red person frame indicating that the target person is not a tracking target is displayed.
  • the tracking period acquired by in-camera tracking is incomplete with a shortage on the future side, and on the timeline screen, the video showing the person to be tracked is interrupted during video playback It becomes a state.
  • the tracking fails and the tracking person is replaced. If tracking is performed properly, the tracking period (initial video display period) acquired by tracking in the camera will be incomplete with insufficient parts on the past side. A video showing the selected person is displayed from the middle.
  • the person frame 61 displayed on the person to be tracked is selected in the video during the period when the person to be tracked was tracked as another person.
  • a green person frame 61 is displayed on the person to be tracked, so the green person frame 61 is selected.
  • a left click operation is performed with the pointer on the person frame 61.
  • the green person frame 61 displayed on the person to be tracked changes to blue representing the selected state.
  • the tracking period of the selected person frame 61 is added to the bar 66 of the video display period specifying unit 93. At this time, the additional portion is displayed in blue.
  • the color of the person frame 61 changes to blue, and the video display period can be determined.
  • the video display period is determined in a state including a period in which the person to be tracked is tracked as another person.
  • the person to be tracked may be tracked as a plurality of different persons.
  • the green person frame displayed on the person to be tracked may be sequentially selected, and the tracking periods of the selected plurality of person frames are added to the bar 66 of the video display period specifying unit 93.
  • the tracking period added to the video display period includes the tracking period of another person who is not the tracking target, and the tracking period of the other person is not necessary, so this unnecessary part needs to be deleted.
  • an additional portion displayed in blue in the bar 66 of the video display period specifying portion 93 is selected and “Partial Edit” is selected. Specifically, “partial edit” is selected from the pop-up menu displayed by right-clicking on the additional portion displayed in blue. Then, the additional part of the bar 66 changes to yellow indicating an editable state, and the start time and end time of the display period are adjusted by a drag operation, as in the example shown in FIG.
  • the person in that person frame will be tracked
  • the tracking information in the camera of the person to be tracked is corrected so as to change to a person.
  • the inter-camera tracking with the adjacent camera 1 is performed again, and the inter-camera tracking information is also corrected.
  • tracking between cameras is performed again by the future camera 1, and when a person frame is selected on the past side, Perform camera-to-camera tracking again with camera 1.
  • FIG. 17 is an explanatory diagram illustrating an example of a video transition state.
  • FIG. 18 is an explanatory diagram illustrating a situation during an editing operation on the tracking result editing screen.
  • the person detection of the person to be tracked in tracking in the camera has failed from the beginning, and no person frame is displayed on the person to be tracked in the images at times T1 and T2. Then, tracking in the camera of the person to be tracked is started from the middle, and thereafter the person to be tracked is appropriately tracked until the person to be tracked disappears from the video. In the video at times T3 and T4, A red person frame is displayed on the person to be tracked.
  • the tracking period (initial video display period) obtained by in-camera tracking is incomplete with a shortage in the past, and on the timeline screen, the person to be tracked during video playback An image showing is displayed from the middle.
  • the tracking period (initial video display period) acquired by tracking in the camera is In the timeline screen, when the video is played back, the video showing the person to be tracked is interrupted in the middle.
  • the insufficient part of the video display period is displayed on the tracking result editing screen. Editing operations to be added can be performed.
  • the time when the person to be tracked first appears in the video or an appropriate time in the vicinity thereof is designated as the start time of the video display period. If there is a shortage on the future side of the tracking period, the time immediately before the person to be tracked disappears from the video or an appropriate time in the vicinity thereof is designated as the end time of the video display period.
  • the playback operation unit 44 and the display time adjustment unit 45 are operated to display the video at the corresponding time (start time or end time) on the video display unit 91. Then, an operation of selecting a video on the video display unit 91 is performed. Specifically, a left-click operation is performed with the pointer on the video on the video display unit 91.
  • the start time or the end time is input, and an insufficient portion of the video display period is added to the video display period designating section 93. That is, when there is an insufficient part on the past side of the tracking period, a period from the start time to the initial video display period (tracking period) is added to the video display period. In addition, when there is a shortage on the future side of the tracking period, a period from the initial video display period to the end time is added to the video display period. At this time, the additional part of the video display period is displayed in yellow.
  • the start time and the end time can be input by the video display period specifying unit 93. That is, an operation for designating a corresponding time within the frame 65 of the video display period designating section 93 is performed. Specifically, the left click operation is performed by putting the pointer on the corresponding time portion in the frame 65. Thereby, the start time and the end time are input, and an insufficient part is added to the video display period of the video display period specifying unit 93.
  • the range of the video display period is fixed when the pointer is placed on the video on the video display unit 91 and left-clicked, and is added again when the range of the video display period is adjusted again.
  • the yellow bar 66 it is possible to enter an editable state by selecting partial editing by right-clicking.
  • the start time and the end time are input by the operation of selecting the video of the start time and the end time displayed on the video display unit 91 and the operation of specifying the start time and the end time by the video display period specifying unit 93.
  • the start time and the end time of the video display period may be adjusted by a drag operation as in the example shown in FIG. Good.
  • the edit contents related to the video display period represented by the bar 66 in the video display period designating unit 93 can be all discarded as necessary.
  • “Delete All” is selected from the pop-up menu displayed by right-clicking on the bar 66 of the video display period specifying section 93.
  • a pop-up menu is displayed by right-clicking on the person frame displayed on the video display unit 91. Use to select “Delete All”.
  • all deletion (partial all deletion) is executed which discards all edit contents in the video display period related to the addition.
  • all the editing contents related to the video display period are discarded, the user can return to the timeline screen by operating the cancel button, and redo the editing related to the video display period.
  • the confirmation button 97 When the confirmation button 97 is operated by performing this editing operation, the timeline screen (tracking) of the confirmation video display state is displayed. Return to the target confirmation screen (see FIG. 8). On this timeline screen, the video is appropriately reproduced in a state where the editing result on the tracking result editing screen is reflected. That is, the video is reproduced over the entire appearance period from when the person to be tracked appears in the video until the person disappears from the video.
  • the embodiment has been described as an example of the technique disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, and the like have been performed.
  • a retail store such as a supermarket
  • the present invention can be applied to a store having a business form other than a retail store such as a restaurant such as a family restaurant. It can be applied to facilities other than other stores.
  • a moving object other than a person, for example, a vehicle such as a car or a bicycle can be tracked.
  • a timeline screen in which videos for each camera 1 are arranged and displayed in order of shooting time is displayed. You may make it display the map screen which has arrange
  • FIG. The tracking target search screen can also be displayed on the map screen.
  • a rectangular person frame is displayed as a tracking mark indicating that a person is being tracked.
  • the tracking mark is not limited to such a form, and various The thing of the form of can be employ
  • the person corresponding to the confirmation video presented by the confirmation video presentation unit 39 based on the tracking information related to the person to be tracked corresponds to the candidate video presented by the candidate video presentation unit 40.
  • the tracking information is corrected by the in-camera tracking information correction unit 26 and the inter-camera tracking information correction unit 38 so as to replace the person or the person designated by the supervisor on the video. It also includes simply deleting erroneous tracking information. In other words, if there is an error in the confirmation video but no suitable alternative video is found, the person corresponding to the confirmation video with the error is deleted from the tracking information.
  • FIGS. 1 and 3 an example in which the in-camera tracking process is performed by the in-camera tracking processing apparatus 4 and the inter-camera tracking process and the tracking support process are performed by the PC 3 will be described.
  • a configuration in which the in-camera tracking process is also performed by the PC 3 may be employed.
  • a configuration in which the camera tracking processing unit is provided in the camera 1 is also possible.
  • all or part of the inter-camera tracking processing unit 22 can be configured by a tracking processing device different from the PC 3.
  • the camera 1 is a box-type camera with a limited viewing angle.
  • the present invention is not limited to this, and an omnidirectional camera capable of shooting a wide range is used. You can also.
  • the in-camera tracking process and the tracking support process are performed by an apparatus provided in the store, but these necessary processes are provided in the headquarters as shown in FIG.
  • the PC 11 or the cloud computer 12 constituting the cloud computing system may perform the process.
  • the necessary processing is shared by a plurality of information processing apparatuses, and information is transferred between the plurality of information processing apparatuses via a communication medium such as an IP network or a LAN, or a storage medium such as a hard disk or a memory card. It may be.
  • the tracking support system is configured by a plurality of information processing apparatuses that share necessary processing.
  • a portable terminal such as a smartphone 13 or a tablet terminal 14 connected to the cloud computer 12 via a network. It is preferable that the information can be displayed, so that necessary information can be confirmed at an arbitrary place such as a place to go besides the store or the headquarters.
  • the recorder 2 that stores the video of the camera 1 is installed in the store.
  • the processing necessary for tracking support is performed by the PC 11 or the cloud computer 12 installed in the headquarters. May transmit the video of the camera 1 to the headquarters or the operating facility of the cloud computing system, and store the video of the camera 1 in a device installed there.
  • the tracking support device, tracking support system, and tracking support method according to the present disclosure appropriately perform support processing that reduces the burden on the monitor regardless of the result of tracking in the camera, and lose track of the person being tracked.
  • the tracking work can be carried out smoothly, and the work of the supervisor who tracks the moving object to be tracked can be displayed by displaying the images for each of the plurality of cameras stored in the video storage means on the display device. This is useful as a tracking support device, a tracking support system, a tracking support method, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができるようにする。ユーザの操作で検索条件を設定する検索条件設定部(31)と、検索条件に適合する映像を表示する追跡対象検索画面において追尾マークを選択する監視者の操作で指定された人物を追跡対象に設定する追跡対象設定部(32)と、追跡対象とした人物と同一である可能性が最も高い人物のカメラごとの映像のみが確認映像として表示された追跡対象確認画面を表示させる確認映像提示部(39)と、追跡対象検索画面において追跡対象に追尾マークが表示されない場合に、ユーザの操作で映像表示期間を設定する映像表示期間設定部(33)と、映像表示期間に基づいて追跡対象確認画面において確認映像を表示させるように追尾情報を修正するカメラ内追尾情報修正部(26)と、を備えたものとする。

Description

追跡支援装置、追跡支援システムおよび追跡支援方法
 本開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置、追跡支援システムおよび追跡支援方法に関するものである。
 監視エリア内に複数のカメラを設置し、この複数のカメラごとの映像を表示する監視画面をモニタに表示して、監視者に監視させる監視システムが広く普及している。このような監視システムでは、カメラの映像をレコーダに蓄積することで、万引きなどの問題のある行為を行った人物が監視エリア内でどのような行動を行ったかを監視者が事後に確認することができる。
 このように監視者が監視画面を見ながら人物の行動を追跡する場合、人物が監視エリア内を移動するのに応じて、その人物を撮影するカメラが次々と切り替わるため、カメラごとの映像を順次確認する必要がある。このとき、監視者が逐一カメラを選択しながら映像を確認するようにすると、非常に手間のかかる作業となることから、追跡対象とした人物が写るカメラごとの映像を時間の経過にしたがって順次表示されるようにすると、人物の行動を追跡する作業を効率よく行うことができる。
 このような人物の行動を追跡する作業を効率よく行う技術とし、従来、監視者が日時およびカメラを指定して、追跡対象となる人物が写った映像を探し出して、追跡対象となる人物を指定し、この指定された人物に関する追尾情報に誤りがないかを監視者に確認させる追跡対象確認画面を表示させ、追尾情報に誤りがないことが確認されると、追尾情報に基づいて追跡対象とした人物が写るカメラごとの映像を時間の経過にしたがって連続再生する技術が知られている(特許文献1参照)。
特許第5506990号公報
 本開示の追跡支援装置は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、ユーザの操作入力に応じて、追跡対象となる移動体の映像を探し出すための検索条件を設定する検索条件設定部と、映像蓄積手段より検索条件に適合する映像を取得して追跡対象検索画面を表示装置に表示させて、その追跡対象検索画面において映像上に表示された追尾マークを選択する操作により追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象検索画面において追跡対象とする移動体に追尾マークが表示されない場合に、ユーザの操作入力に応じて、追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、映像表示期間に基づいて追跡対象確認画面において確認映像を表示させるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 本開示によれば、追跡対象とする移動体に追尾マークが表示されない、すなわち、追跡対象とする移動体の追尾ができていない場合に、追尾マークを選択して追跡対象とする移動体を指定する代わりに、追跡対象とする移動体の映像表示期間をユーザに指定させるため、あるカメラで追跡対象とする移動体の追尾ができていない場合でも、そのカメラの確認映像を適切に追跡対象確認画面に表示させることができる。これにより、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができる。
図1は、本実施形態に係る追跡支援システムの全体構成図である。 図2は、店舗におけるカメラ1の設置状況を示す平面図である。 図3は、PC3の機能ブロック図である。 図4は、モニタ7に表示される人物検索画面を示す説明図である。 図5は、各画面で行われる監視者の操作に応じてPC3の各部で行われる処理の手順を示すフロー図である。 図6は、各画面で行われる監視者の操作に応じてPC3の各部で行われる処理の手順を示すフロー図である。 図7は、モニタ7に表示される人物検索画面を示す説明図である。 図8は、モニタ7に表示される確認映像表示状態のタイムライン画面を示す説明図である。 図9は、モニタ7に表示される連続再生状態のタイムライン画面を示す説明図である。 図10は、モニタ7に表示される候補映像表示状態のタイムライン画面を示す説明図である。 図11は、人物検索画面で映像表示期間を指定したときのタイムライン画面を示す説明図である。 図12は、モニタ7に表示される追尾結果編集画面を示す説明図である。 図13は、映像の遷移状況の一例を示す説明図である。 図14は、追尾結果編集画面における編集操作時の状況を示す説明図である。 図15は、映像の遷移状況の一例を示す説明図である。 図16は、追尾結果編集画面における編集操作時の状況を示す説明図である。 図17は、映像の遷移状況の一例を示す説明図である。 図18は、追尾結果編集画面における編集操作時の状況を示す説明図である。
 実施の形態の説明に先立ち、従来の技術における問題点を簡単に説明する。さて、前記従来の技術では、注目する日時およびカメラの映像で追跡対象とする人物を探し出す人物検索において、映像に表示させた人物枠を選択することで、追跡対象とする人物を指定するようにしている。ところが、混雑した環境などではカメラ内追尾で人物検知が失敗することがあり、人物検知が失敗した人物には人物枠が表示されないため、追跡対象とする人物が映像に写っていても、その人物を追跡対象として指定することができない場合がある。この場合、追跡対象確認画面に遷移することができないため、カメラを変更したり日時を変更したりして、追跡対象とする人物に人物枠が表示された映像を探し出すしかないため、手間を要する作業が必要になる。
 また、追跡対象確認画面では、カメラ内追尾で取得したカメラ内追尾情報に基づいて、追跡対象とした人物が映像に現れてからその人物が映像からいなくなるまでの期間の映像を再生することで、注目するカメラの撮影エリアにおける人物の行動を漏れなく確認することができる。ところが、カメラ内追尾情報に誤りがあると、追跡対象とした人物の映像が一部欠落したり、追跡対象とした人物が写っていない映像が表示されたりする不具合が発生し、追跡対象とした人物の行動を確認する作業を円滑に行うことができなくなる。
 そこで、本開示は、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができるような追跡支援装置、追跡支援システムおよび追跡支援方法を提供することを主な目的とする。
 前記課題を解決するためになされた第1の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、ユーザの操作入力に応じて、追跡対象となる移動体の映像を探し出すための検索条件を設定する検索条件設定部と、映像蓄積手段より検索条件に適合する映像を取得して追跡対象検索画面を表示装置に表示させて、その追跡対象検索画面において映像上に表示された追尾マークを選択する操作により追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象検索画面において追跡対象とする移動体に追尾マークが表示されない場合に、ユーザの操作入力に応じて、追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、映像表示期間に基づいて追跡対象確認画面において確認映像を表示させるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 これによると、追跡対象とする移動体に追尾マークが表示されない、すなわち、追跡対象とする移動体の追尾ができていない場合に、追尾マークを選択して追跡対象とする移動体を指定する代わりに、追跡対象とする移動体の映像表示期間をユーザに指定させるため、あるカメラで追跡対象とする移動体の追尾ができていない場合でも、そのカメラの確認映像を適切に追跡対象確認画面に表示させることができる。これにより、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができる。
 また、第2の開示は、映像表示期間設定部は、追跡対象検索画面に、映像表示期間の開始時刻および終了時刻をそれぞれ表す可動操作部を表示して、その可動操作部をずらすことで映像表示期間の範囲を調整する操作をユーザに行わせる構成とする。
 これによると、映像表示期間の開始時刻および終了時刻をそれぞれ表す可動部をずらす操作を行えばよいため、映像表示期間を適切な範囲に迅速に調整することができる。
 また、第3の開示は、映像表示期間設定部は、追跡対象検索画面において、カメラの映像を、その表示時刻を調整可能に表示して、追跡対象とする移動体が最初に出現した映像と、追跡対象とする移動体が消失する直前の映像とを選択する操作をユーザに行わせて、映像表示期間の開始時刻および終了時刻を取得する構成とする。
 これによると、映像表示期間の開始時刻および終了時刻にそれぞれ対応する映像を選択するため、映像表示期間を適切な範囲に正確に設定することができる。
 また、第4の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象確認画面に表示されるカメラごとの確認映像に過不足がある場合に、追尾結果編集画面を表示装置に表示させて、追尾結果編集画面上でのユーザの操作入力に応じて、追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、映像表示期間に基づいて追跡対象確認画面において確認映像を表示させるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 これによると、確認映像に過不足がある、すなわち、カメラ内追尾情報に誤りがある場合に、追跡対象とする移動体の映像表示期間をユーザに指定させるため、あるカメラで追跡対象とする移動体の追尾が適切にできていない場合でも、そのカメラの確認映像を適切に追跡対象確認画面に表示させることができる。これにより、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができる。
 また、第5の開示は、映像表示期間設定部は、カメラごとの映像に対するカメラ内追尾処理により取得した追尾期間を初期の映像表示期間として追尾結果編集画面に表示して、その追尾結果編集画面において、初期の映像表示期間に対して部分的な削除および追加の少なくともいずれが行われるように、映像表示期間の範囲を調整する操作をユーザに行わせる構成とする。
 これによると、カメラ内追尾により取得した追尾期間を初期の映像表示期間として表示して、その初期の映像表示期間に対する部分的な削除や追加で映像表示期間の範囲を調整するため、映像表示期間を適切な範囲に容易に調整することができる。
 また、第6の開示は、映像表示期間設定部は、追尾結果編集画面に、映像表示期間の開始時刻および終了時刻をそれぞれ表す可動操作部を表示して、その可動操作部をずらすことで映像表示期間の範囲を調整する操作をユーザに行わせる構成とする。
 これによると、映像表示期間の開始時刻および終了時刻をそれぞれ表す可動部をずらす操作を行えばよいため、映像表示期間を適切な範囲に迅速に調整することができる。
 また、第7の開示は、映像表示期間設定部は、追尾結果編集画面において、カメラの映像を、その表示時刻を調整可能に表示して、追跡対象とした移動体が最初に出現した映像と、追跡対象とした移動体が消失する直前の映像との少なくともいずれかを選択する操作をユーザに行わせて、映像表示期間の開始時刻および終了時刻の少なくともいずれかを取得する構成とする。
 これによると、映像表示期間の開始時刻および終了時刻にそれぞれ対応する映像を選択するため、映像表示期間を適切な範囲に正確に設定することができる。
 また、第8の開示は、映像表示期間設定部は、追尾結果編集画面において映像に現れる追跡対象となる移動体の追尾マークを選択する操作をユーザに行わせて、その選択された移動体の追尾期間を含むように映像表示期間を設定する構成とする。
 これによると、追跡対象とした移動体が別の移動体として追尾されていた場合に、その移動体の追尾マークを選択することで、追跡対象とした移動体が別の移動体として追尾されていた追尾期間を映像表示期間に追加することができるため、映像表示期間を適切な範囲に容易に調整することができる。
 また、第9の開示は、さらに、追跡対象に設定された移動体、およびその移動体と同一として対応づけられた移動体に関するカメラごとの映像が撮影時刻順に並べて表示された連続再生画面を表示装置に表示させ、この連続再生画面において、カメラごとの映像を、時間の経過にしたがって順次動画で表示させる連続再生を行う映像再生部を備えた構成とする。
 これによると、追跡対象とした移動体を連続して追跡することができるため、追跡対象とした移動体が監視エリア内でどのような行動を行ったかを監視者が簡単に確認することができる。
 また、第10の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、監視エリアを撮影するカメラと、このカメラごとの映像を表示する表示装置と、複数の情報処理装置と、を有し、複数の情報処理装置のいずれかが、ユーザの操作入力に応じて、追跡対象となる移動体の映像を探し出すための検索条件を設定する検索条件設定部と、映像蓄積手段より検索条件に適合する映像を取得して追跡対象検索画面を表示装置に表示させて、その追跡対象検索画面において映像上に表示された追尾マークを選択する操作により追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象検索画面において追跡対象とする移動体に追尾マークが表示されない場合に、ユーザの操作入力に応じて、追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、映像表示期間に基づいて追跡対象確認画面において確認映像を表示させるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 これによると、第1の開示と同様に、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができる。
 また、第11の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、監視エリアを撮影するカメラと、このカメラごとの映像を表示する表示装置と、複数の情報処理装置と、を有し、複数の情報処理装置のいずれかが、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象確認画面に表示されるカメラごとの確認映像に過不足がある場合に、追尾結果編集画面を表示装置に表示させて、追尾結果編集画面上でのユーザの操作入力に応じて、追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、映像表示期間に基づいて追跡対象確認画面において確認映像を表示させるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 これによると、第4の開示と同様に、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができる。
 また、第12の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する処理を情報処理装置に行わせる追跡支援方法であって、ユーザの操作入力に応じて、追跡対象となる移動体の映像を探し出すための検索条件を設定し、映像蓄積手段より検索条件に適合する映像を取得して追跡対象検索画面を表示装置に表示させて、その追跡対象検索画面において映像上に表示された追尾マークを選択する操作により追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定し、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させ、追跡対象検索画面において追跡対象とする移動体に追尾マークが表示されない場合に、ユーザの操作入力に応じて、追跡対象に設定された移動体が映像に出現する映像表示期間を設定し、映像表示期間に基づいて追跡対象確認画面において確認映像を表示させるように追尾情報を修正する構成とする。
 これによると、第1の開示と同様に、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができる。
 また、第13の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する処理を情報処理装置に行わせる追跡支援方法であって、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させ、追跡対象確認画面に表示されるカメラごとの確認映像に過不足がある場合に、追尾結果編集画面を表示装置に表示させて、追尾結果編集画面上でのユーザの操作入力に応じて、追跡対象に設定された移動体が映像に出現する映像表示期間を設定し、映像表示期間に基づいて追跡対象確認画面において確認映像を表示させるように追尾情報を修正する構成とする。
 これによると、第4の開示と同様に、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができる。
 以下、本開示の実施の形態を、図面を参照しながら説明する。なお、本実施形態の説明では、「追跡」および「追尾」という同様の意味を持つ用語を使用しており、これは、単に説明の便宜上使い分けているに過ぎないが、「追跡」は、主として監視者の行為と関わりが強い場合に用いており、「追尾」は、主として装置で行われる処理と関わりが強い場合に用いている。
 図1は、本実施形態に係る追跡支援システムの全体構成図である。この追跡支援システムは、スーパーマーケットやホームセンターなどの小売店舗などを対象にして構築されるものであり、カメラ1と、レコーダ(映像蓄積手段)2と、PC(追跡支援装置)3と、カメラ内追尾処理装置4と、を備えている。
 カメラ1は店舗内の適所に設置され、カメラ1により店舗内(監視エリア)が撮影され、このカメラ1で撮影された店舗内の映像がレコーダ2に録画される。
 PC3には、監視者(ユーザ)が種々の入力操作を行うマウスなどの入力デバイス6と、監視画面を表示するモニタ(表示装置)7とが接続されている。このPC3は、店舗の警備室などに設置され、監視者(警備員)が、モニタ7に表示される監視画面で、カメラ1で撮影された店舗内の映像をリアルタイムで閲覧することができ、また、レコーダ2に録画された過去の店舗内の映像を閲覧することができる。
 なお、本部に設けられたPC11にも図示しないモニタが接続され、カメラ1で撮影された店舗内の映像をリアルタイムで閲覧し、また、レコーダ2に録画された過去の店舗内の映像を閲覧して、本部で店舗内の状況を確認することができる。
 カメラ内追尾処理装置4では、カメラ1の映像から検出された人物(移動体)を追尾して、人物ごとにカメラ内追尾情報を生成する処理が行われる。このカメラ内追尾処理には、公知の画像認識技術(人物検出技術および人物追跡技術など)を利用すればよい。
 なお、本実施形態では、カメラ内追尾処理装置4が、PC3とは独立して、カメラ内追尾処理を常時行うようにしているが、PC3からの指示に応じて追尾処理を実行するものとしてもよい。また、カメラ内追尾処理装置4では、映像から検出された全ての人物を対象にして追尾処理を行うことが望ましいが、追跡対象に指定された人物およびこれと関連度の高い人物に絞って追尾処理を行うようにしてもよい。
 次に、カメラ1の店舗での設置状況について説明する。図2は、店舗におけるカメラ1の設置状況を示す平面図である。
 店舗内(監視エリア)には、商品陳列スペースの間に通路が設けられており、この通路を主に撮影するように複数のカメラ1が設置されている。
 店舗内の通路を人物が移動すると、カメラ1のいずれか1つあるいは複数で人物が撮影され、人物が移動するのに応じて、人物の撮影が次のカメラ1に引き継がれる。このとき、人物の撮影を引き継ぐカメラは、店舗内の通路の形態およびカメラ1の撮影エリアにより限定され、この人物の撮影が引き継がれる関係にあるカメラを、本実施形態では、連携関係を有するカメラと呼称する。このカメラの連携関係に関する情報は予め設定されて、カメラ連携情報としてPC3に保持されている。なお、カメラの連携関係に関する情報は、カメラ1の台数や設置場所などの変更に備え、システムの起動時などに各カメラ1の設置情報などをPC3により個別に取得し、各カメラの連携関係に関する情報を更新するようにしてもよい。
 次に、PC3の概略構成について説明する。図3は、PC3の概略構成を示す機能ブロック図である。
 PC3は、追尾情報蓄積部21と、カメラ間追尾処理部22と、入力情報取得部23と、追跡対象処理部24と、映像提示部25と、カメラ内追尾情報修正部26と、映像再生部27と、画面生成部28と、を備えている。
 追尾情報蓄積部21では、カメラ内追尾処理装置4で生成したカメラ内追尾情報が蓄積される。また、追尾情報蓄積部21では、カメラ間追尾処理部22で生成したカメラ間追尾情報が蓄積される。
 入力情報取得部23では、マウスなどの入力デバイス6を用いた監視者の入力操作に応じて、その入力操作に基づく入力情報を取得する処理が行われる。
 追跡対象処理部24は、検索条件設定部31と、追跡対象設定部32と、映像表示期間設定部33と、追跡対象追加設定部34と、を備えている。
 検索条件設定部31では、監視者の入力操作に応じて、追跡対象となる人物が写った映像を探し出すための検索条件を設定する処理が行われる。本実施形態では、人物検索画面(追跡対象検索画面、図7参照)をモニタ7に表示させて、この人物検索画面で、検索条件として、撮影日時およびカメラ1に関する情報を監視者に入力させる。
 追跡対象設定部32では、検索条件設定部31で設定された検索条件と、追尾情報蓄積部21に蓄積されたカメラ内追尾情報とに基づいて、レコーダ2に蓄積された映像の中から検索条件に適合する日時およびカメラ1の映像を人物検索画面に表示させて、その人物検索画面において人物枠(追尾マーク)を選択することで追跡対象となる人物を監視者に指定させて、その指定された人物を追跡対象に設定する処理が行われる。
 カメラ間追尾処理部22は、リンクスコア算出部35と、初期追尾情報生成部36と、候補選択部37と、カメラ間追尾情報修正部38と、を備えている。
 リンクスコア算出部35では、追尾情報蓄積部21から各カメラ1に関するカメラ内追尾情報を取得して、各カメラ1に関するカメラ内追尾処理で検出追尾された人物同士で、同一人物である可能性の高さを表すリンクスコア(評価値)を算出する。この処理では、人物の検出時刻(フレームの撮影時刻)、人物の検出位置、人物の移動速度、人物像の色情報などに基づいてリンクスコアを算出する。
 初期追尾情報生成部36では、追跡対象設定部32で追跡対象に設定された人物を起点にして、連携関係にあるカメラ1に関するカメラ内追尾で追尾された人物の中から、リンクスコアが最も高い、すなわち、同一人物である可能性が最も高い人物をカメラ1ごとに順次選択して、それらの人物を同一人物として対応づけた初期追尾情報を生成する処理が行われる。
 具体的には、まず、人物検索画面で人物を追跡対象に指定したときの映像(追跡対象指定映像)を撮影したカメラ1と連携関係にあるカメラ1のカメラ内追尾で追尾された人物の中からリンクスコアが最も高い人物を選択し、次に、その選択された人物を撮影したカメラ1と連携関係にあるカメラ1のカメラ内追尾で追尾された人物の中からリンクスコアが最も高い人物を選択し、このような人物の選択を連携関係にあるカメラ1ごとに繰り返す。このような人物を選択する処理は、追跡対象指定映像より時間的に前および後の双方で行われ、最も高いリンクスコアが所定のしきい値以下になった時点で、追跡対象とした人物が監視エリア内に存在しないものと判断して、人物の選択を終了する。
 映像提示部25は、確認映像提示部39と、候補映像提示部40と、を備えている。
 確認映像提示部39では、初期追尾情報生成部36で生成した初期追尾情報に基づいて、リンクスコアが最も高い人物の映像、すなわち、追跡対象とした人物が写っている可能性が最も高い映像を確認映像としてカメラ1ごとに抽出して、その確認映像を提示する、具体的には、確認映像が撮影時刻順に並べて表示された確認映像表示状態のタイムライン画面(追跡対象確認画面、図8参照)をモニタ7に表示させる処理が行われる。
 カメラ間追尾処理部22の候補選択部37では、確認映像提示部39により提示された確認映像に誤りがある、すなわち、初期追尾情報生成部36で生成した初期追尾情報に誤りがある場合に、その誤りがある確認映像に対応する期間においてカメラ内追尾で追尾された人物の中から、誤りがある確認映像に対応する人物よりリンクスコアが低い人物を候補人物として高い方から所定数選択する処理が行われる。
 このとき、リンクスコアが所定のしきい値以上となり、かつ、誤りがあるものとして選択された確認映像に対応する人物の追尾期間(カメラ内追尾で追尾された期間)を基準にして設定された検索期間内に追尾期間が含まれる人物を対象にして候補人物が選択される。なお、リンクスコアのしきい値、および検索期間を設定する際の時間幅に関する設定情報が、PC3の設定情報保持部(図示せず)に保持されている。
 候補映像提示部40では、確認映像提示部39により提示された確認映像に誤りがある場合に、候補選択部37で選択した候補人物に関する映像、すなわち、追跡対象とした人物が写っている可能性が確認映像の次に高い映像を候補映像として抽出して、その候補映像を提示する、具体的には、所定数の候補映像が表示された候補映像表示状態のタイムライン画面(候補選択画面、図10参照)をモニタ7に表示させて、その画面上で追跡対象とした人物が写った候補映像を監視者に選択させる処理が行われる。
 カメラ間追尾情報修正部38では、候補映像提示部40により提示された候補映像の中に適切な候補映像がある場合に、その候補映像に対応する人物を追跡対象とした人物と対応づけるように、追跡対象とした人物に関する追尾情報を修正して、修正追尾情報を生成する処理が行われる。
 このとき、カメラ間追尾情報修正部38では、初期追尾情報を生成する処理と同様に、候補映像に対応する人物を起点にして、連携関係にあるカメラ1に関するカメラ内追尾で追尾された人物の中から、リンクスコアが最も高い、すなわち、同一人物である可能性が最も高い人物をカメラ1ごとに順次選択して、それらの人物を同一人物として対応づけた修正追尾情報を生成する。また、この追尾情報修正処理では、追跡対象設定部32で設定した人物、監視者により確定の操作が行われた確認映像に対応する人物、および既に誤りがある確認映像と入れ替えられた候補映像に対応する人物が、修正対象から除外される。
 追跡対象処理部24の追跡対象追加設定部34では、候補映像提示部40により提示された候補映像の中に適切な候補映像がない場合に、レコーダ2に蓄積された映像を表示させた人物検索画面(追跡対象検索画面、図7参照)をモニタ7に表示させて、その人物検索画面において、誤りがある確認映像に対応する期間における映像の中から追跡対象とした人物を監視者に指定させて、その指定された人物を追跡対象に追加設定する処理が行われる。
 カメラ間追尾情報修正部38では、追跡対象追加設定部34で追跡対象に設定された人物を、追跡対象設定部32で追跡対象に設定した人物と対応づけて、追跡対象とした人物に関する追尾情報を修正して、修正追尾情報を生成する処理が行われる。
 追跡対象処理部24の映像表示期間設定部33では、人物検索画面(追跡対象検索画面、図7参照)において追跡対象とする人物に人物枠が表示されない場合に、監視者の操作入力に応じて、追跡対象とした人物が映像に出現する映像表示期間を設定する処理が行われる。
 また、映像表示期間設定部33では、確認映像表示状態のタイムライン画面(追跡対象確認画面、図8参照)に表示されるカメラ1ごとの確認映像に過不足がある場合に、追尾結果編集を指示する監視者の操作に応じて、追尾結果編集画面(図12参照)をモニタ7に表示させて、この追尾結果編集画面上でのユーザの操作入力に応じて、追跡対象とした人物が映像に出現する映像表示期間を設定する処理が行われる。
 また、映像表示期間設定部33では、候補映像提示部40により提示された候補映像の中に適切な候補映像がない場合に、レコーダ2に蓄積された映像を表示させた人物検索画面をモニタ7に表示させて、その人物検索画面において、追跡対象とした人物が映像に写っている期間を監視者に指定させて、その期間を映像表示期間として設定する処理が行われる。
 カメラ内追尾情報修正部26では、映像表示期間設定部33で設定された映像表示期間を、追跡対象とした人物に関する追尾情報に付加する修正を行って、修正追尾情報を生成する処理が行われる。したがって、カメラ内追尾情報は追尾期間と映像表示期間とを含むものとなる。
 追跡対象処理部24の追跡対象追加設定部34では、映像表示期間設定部33において映像表示期間が設定されて、その映像表示期間が設定されたカメラ1に隣接するカメラ1の確認映像がタイムライン画面においてブランク状態(映像が表示されない状態)となった場合に、レコーダ2に蓄積された映像を表示させた人物検索画面(追跡対象検索画面、図7参照)をモニタ7に表示させて、その人物検索画面において、ブランク状態の確認映像に対応する期間における映像の中から追跡対象とした人物を監視者に指定させて、その指定された人物を追跡対象に追加設定する処理が行われる。
 映像再生部27では、モニタ7に表示される画面上でカメラ1の映像を動画で表示させる処理が行われる。本実施形態では、連続再生状態のタイムライン画面(連続再生画面、図9参照)をモニタ7に表示させる処理が行われ、このタイムライン画面では、追跡対象となる人物が写ったカメラ1ごとの映像を、時間の経過にしたがって順次動画で表示させる連続再生が行われる。
 画面生成部28は、モニタ7に表示させる画面を生成するものであり、具体的には、追跡対象設定部32からの指示に応じて人物検索画面(追跡対象検索画面、図7参照)を生成し、確認映像提示部39からの指示に応じて確認映像表示状態のタイムライン画面(追跡対象確認画面、図8参照)を生成し、候補映像提示部40からの指示に応じて候補映像表示状態のタイムライン画面(候補選択画面、図10参照)を生成し、映像再生部27からの指示に応じて連続再生状態のタイムライン画面(連続再生画面、図9参照)を生成する。
 なお、図3に示したPC3の各部は、PC3のプロセッサ(CPU)にHDD等のメモリに保存した追跡支援用のプログラム(インストラクション)を実行させることで実現される。これらのプログラムは、情報処理装置としてのPC3に予め導入して専用の装置として構成する他、所定のOS上で動作するアプリケーションプログラムとして適宜なプログラム記録媒体に記録して、またネットワークを介して、ユーザに提供されるようにしてもよい。
 次に、モニタ7に表示される各画面、および各画面で行われる監視者の操作に応じてPC3の各部で行われる処理について説明する。図4は、モニタ7に表示される画面の遷移状況を示す説明図である。図5および図6は、各画面で行われる監視者の操作に応じてPC3の各部で行われる処理の手順を示すフロー図である。
 まず、PC3において追跡支援処理を開始する操作を行うと、人物検索画面(追跡対象検索画面、図7参照)がモニタ7に表示される(ST101)。
 この人物検索画面は、追跡対象とする人物が万引きなどの問題のある行為を行った日時を指定するとともに、追跡したい人物が問題のある行為を行った場所や、その人物が通ったものと想定されるエリアを撮影するカメラ1を指定して、追跡対象とする人物が写った映像を探し出して、その映像上で追跡対象とする人物を指定するものであり、日時およびカメラ1を指定して表示された映像に追跡対象とする人物が写っていると、その人物に表示された人物枠を選択して、その人物を追跡対象に指定する操作が監視者により行われる(ST102でYes)。
 なお、人物検索画面には、単一カメラによる人物検索画面と複数カメラによる人物検索画面とがあり、単一カメラによる人物検索画面は、単一のカメラ1の映像を表示させて追跡対象とする人物が写った映像を探し出すものであり、複数カメラによる人物検索画面は、複数のカメラ1の映像を表示させて追跡対象とする人物が写った映像を探し出すものである。
 人物検索画面で、カメラ選択の操作を行うと、カメラ選択画面(図示せず)に遷移する。このカメラ選択画面でカメラ1を選択すると、人物検索画面に戻り、その人物検索画面に選択されたカメラ1の映像が表示される。
 なお、カメラ選択画面には、単一カメラ選択画面と複数カメラ選択画面とがある。単一カメラ選択画面では、人物検索画面に映像を表示させるカメラ1を監視者が1つ選択することができる。複数カメラ選択画面では、人物検索画面に映像を表示させるカメラ1を監視者が複数選択することができる。
 人物検索画面で、監視者が追跡対象とする人物を指定すると、追跡対象設定部32において、監視者が指定した人物を追跡対象に設定する処理が行われる(ST103)。ついで、初期追尾情報生成部36において、各カメラ1に関するカメラ内追尾処理で検出追尾された人物の中からリンクスコアが最も高い人物をカメラごとに順次選択して、初期追尾情報を生成する処理が行われる(ST104)。そして、確認映像提示部39において、初期追尾情報に基づいて、追跡対象とした人物が写っている可能性が最も高い映像を確認映像としてカメラ1ごとに抽出して、その確認映像が表示された確認映像表示状態のタイムライン画面(追跡対象確認画面、図8参照)をモニタ7に表示させる処理が行われる(ST105)。
 一方、人物検索画面において、日時およびカメラ1を指定して表示された映像に追跡対象とする人物が写っていない場合には、人物枠を選択する操作を行うことができず(ST102でNo)、その代わりに、追跡対象とする人物が映像に現れている期間(映像表示期間)を指定する操作が監視者により行われ(ST106でYes)、映像表示期間設定部33において、映像表示期間を設定する処理が行われる(ST107)。そして、確認映像提示部39において、映像表示期間に対応する映像が確認映像として表示された確認映像表示状態のタイムライン画面(図11参照)をモニタ7に表示させる処理が行われる(ST105)。
 確認映像表示状態のタイムライン画面は、確認映像によってカメラ間追尾情報(初期追尾情報)に誤りがないかを監視者に確認させるものであり、人物検索画面で人物枠を選択して追跡対象とする人物を指定する操作が監視者により行われた場合には、カメラ間追尾により、追跡対象とする人物を指定したカメラ1の前後のカメラ1ごとの確認映像が表示される。
 この確認映像表示状態のタイムライン画面に表示された全ての確認映像に誤りがない、すなわち、全ての確認映像に追跡対象とした人物が写っており、かつ、その人物に人物枠が表示されている場合には、連続再生を指示する操作が監視者により行われて(ST108でYes)、連続再生状態のタイムライン画面(連続再生画面、図11参照)に遷移する(ST109)。
 この連続再生状態のタイムライン画面では、追跡対象が写ったカメラ1ごとの映像を、時間の経過にしたがって順次表示させる連続再生が行われる。
 一方、確認映像表示状態のタイムライン画面に表示された複数の確認映像の中に適切でない確認映像が見つかった場合、すなわち、確認映像に追跡対象とした人物が写っているものの、確認映像を再生した際に、追跡対象でない人物のみが写る映像が表示されたり、追跡対象とした人物が写る映像が途中から開始されたり、追跡対象とした人物が写る映像が途中で終了したりして、追跡対象とした人物が映像に現れてからその人物が映像からいなくなるまでの期間の全体に渡って追跡対象とした人物が適切に写っていない場合には、その確認映像を選択して追尾結果編集を指示する操作が監視者により行われる(ST110でYes)。そして、映像表示期間設定部33において、追尾結果編集画面(図12参照)をモニタ7に表示させる処理が行われる(ST111)。
 この追尾結果編集画面では、映像表示期間の不要部分を削除したり、映像表示期間の不足部分を追加したりする編集操作が監視者により行われる。この編集操作が終了すると、カメラ内追尾情報修正部26において、編集操作による入力情報に基づいて、カメラ内追尾情報を修正する処理が行われ、さらに必要に応じて、カメラ間追尾情報修正部38において、カメラ内追尾情報に基づいてカメラ間追尾情報を修正する処理が行われる(ST112)。そして、確認映像提示部39において、確認映像表示状態のタイムライン画面をモニタ7に表示させる処理が行われる(ST105)。
 一方、確認映像表示状態のタイムライン画面に表示された複数の確認映像の中に誤りがある確認映像が見つかった場合、すなわち、いずれかの確認映像に、追跡対象とした人物が写っていないか、あるいは追跡対象とした人物が写っているものの、追跡対象を示す人物枠が追跡対象とした人物と異なる人物に表示されている場合には、その確認映像を選択して候補映像の表示を指示する操作が監視者により行われる(ST113でYes)。
 すると、候補選択部37において、確認映像に対応する人物よりリンクスコアが低い人物を上位から所定数選択する処理が行われ、候補映像提示部40において、候補選択部37で選択された人物の映像を候補映像として抽出して、その候補映像が並べて表示された候補映像表示状態のタイムライン画面(候補選択画面、図10参照)をモニタ7に表示させる処理が行われる(ST114)。
 この候補映像表示状態のタイムライン画面では、追跡対象とした人物が写っている可能性が確認映像の次に高い映像が候補映像として上位のものから所定数だけ表示される。なお、リンクスコアが最も高い人物と次順位以降の人物とが同一のカメラ1で撮影されている場合もあり、候補映像は、確認映像と同じカメラ1である場合もある。
 この候補映像表示状態のタイムライン画面に表示された候補映像の中に、適切な候補映像がある、すなわち、追跡対象とした人物が写った候補映像が見つかり、かつ、その人物に人物枠が表示されている場合には、その候補映像を選択する操作が監視者により行われる(ST115でYes)。
 すると、カメラ間追尾情報修正部38において、候補映像表示状態のタイムライン画面で選択された候補映像に対応する人物を、最初に追跡対象に指定した人物と対応づけるように追尾情報を修正する処理が行われる(ST116)。そして、確認映像表示状態のタイムライン画面に戻り(ST105)、このタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、タイムライン画面の確認映像が候補映像に置き換えられて表示される。
 一方、候補映像表示状態のタイムライン画面に表示された候補映像の中に、適切な候補映像がない、すなわち、追跡対象とした人物が写った候補映像が見つからないか、または、追跡対象とした人物が写った候補映像が見つかったが、その人物に人物枠が表示されていない場合には、人物手動検索を選択する操作が監視者により行われて(ST117でYes)、人物検索画面(追跡対象検索画面、図7参照)に遷移する(ST118)。この人物検索画面では、日時およびカメラ1を指定して追跡対象とした人物が写った映像を探し出す作業が監視者により行われる。
 この人物検索画面で、追跡対象とした人物が写った映像が見つかり、かつ、その人物に人物枠が表示されている場合、すなわち、追跡対象とした人物に関するカメラ内追尾が成功している場合には、その人物枠を選択する操作が監視者により行われる(ST119でYes)。すると、カメラ間追尾情報修正部38において、人物検索画面で選択された人物を最初に追跡対象に指定した人物と対応づけるように追尾情報を修正する処理が行われる(ST116)。そして、確認映像表示状態のタイムライン画面に戻り(ST105)、このタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、タイムライン画面の確認映像が、人物検索画面で指定した人物の映像に置き換えられて表示される。
 一方、人物検索画面で、追跡対象とした人物が写った映像が見つかったが、その人物に人物枠が表示されていない、すなわち、追跡対象とした人物に関するカメラ内追尾が失敗している場合には、この人物検索画面で、追跡対象とした人物が映像に写っている期間を映像表示期間として指定する操作が監視者により行われる(ST120でYes)。すると、映像表示期間設定部33において、映像表示期間を設定する処理が行われ、ついで、カメラ間追尾情報修正部38において、追跡対象とした人物に関する追尾情報に映像表示期間を付加する修正が行われる(ST121)。そして、確認映像表示状態のタイムライン画面に戻り(ST105)、このタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、タイムライン画面の確認映像が、人物検索画面で指定した映像表示期間の映像に置き換えられて表示される。
 以上のように、確認映像表示状態のタイムライン画面に表示される確認映像に不都合がある場合には、追跡対象とした人物が映像に写る映像表示期間を入力する操作や、候補映像を指定する操作や、追跡対象とした人物を探し出して指定する操作が、監視者により行われ、これらの操作が、誤りがある確認映像がなくなるまで繰り返される。そして、全ての確認映像に誤りがないことが確認されると、連続再生を指示する操作が監視者により行われて(ST108でYes)、連続再生状態のタイムライン画面がモニタ7に表示される(ST109)。
 なお、人物検索画面において人物の選択の代わりに映像表示期間を指定し、また、追尾結果編集画面において映像表示期間を指定することで、追跡対象とした人物のカメラ間追尾が途切れた状態となるが、人物検索画面や追尾結果編集画面で指定した映像表示期間がカメラ間追尾情報の欠落部分を補間する状態となるため、連続再生状態のタイムライン画面で連続再生を行う際に、追跡対象とした人物の映像を途切れることなく再生することができる。
 以下に、図4に示した各画面について詳しく説明する。
 まず、図4に示した人物検索画面(追跡対象検索画面)について説明する。図7は、モニタ7に表示される人物検索画面を示す説明図である。
 この人物検索画面(追跡対象検索画面)は、追跡したい人物が万引きなどの問題のある行為を行った日時を指定して、追跡対象とする人物が写った映像を探し出して、その映像上で追跡対象とする人物を指定するものであり、検索日時指定部41と、検索カメラ指定部42と、映像表示部43と、再生操作部44と、表示時刻調整部45と、映像表示期間指定部46と、調整範囲指定部47と、選択解除ボタン48と、設定完了ボタン49と、が設けられている。
 検索日時指定部41では、追跡対象とする人物が写っているものと想定される期間の中心となる日時を監視者が指定する。この検索日時指定部41で日時を指定して検索ボタン(検索指示部)51を操作すると、指定した日時の映像が映像表示部43に表示される。
 検索カメラ指定部42では、検索モード(単一カメラモードおよび複数カメラモード)に応じてカメラ1を監視者が選択する。単一カメラモードは、単一のカメラ1を指定して、その単一のカメラ1の映像から追跡対象とする人物が写った映像を探し出すものであり、複数カメラモードは、複数のカメラ1を指定して、その複数のカメラ1ごとの映像から追跡対象とする人物が写った映像を探し出すものである。
 この検索カメラ指定部42には、検索モード選択部(ラジオボタン)52と、カメラ選択部53と、カメラ選択ボタン54と、マップ表示ボタン55と、が設けられている。
 検索モード選択部52では、単一カメラモードおよび複数カメラモードのいずれかの検索モードを選択する。カメラ選択部53では、プルダウンメニューにより単一のカメラ1を選択する。
 カメラ選択ボタン54を操作すると、カメラ選択画面(図示せず)が表示され、このカメラ選択画面で複数のカメラ1を選択することができる。なお、カメラ選択画面は、店舗に設置されたカメラ1を一覧表示したものである。
 マップ表示ボタン55を操作すると、カメラ位置確認画面(図示せず)が表示される。このカメラ位置確認画面によりカメラ1の位置を確認することができる。なお、カメラ位置確認画面は、店舗内のレイアウトを示す地図画像上にカメラ1の位置を示すカメラアイコンを重畳して表示したものであり、選択されたカメラ1の位置を確認することができ、さらに、カメラアイコンを選択することで別のカメラ1に変更することもできる。
 なお、検索モード(単一カメラモードおよび複数カメラモード)の選択状態およびカメラ1の選択状態に関する情報は、図示しない情報保持部に保持され、次回起動時に、前回終了時に選択されていた検索モードおよびカメラ1のままで人物検索画面が表示される。
 単一カメラモードを選択して、日時およびカメラ1を指定して、検索ボタン51を操作すると、図7に示す単一カメラによる人物検索画面が表示され、この単一カメラによる人物検索画面では、映像表示部43に、指定された単一のカメラ1の映像が表示される。一方、複数カメラモードを選択して、日時およびカメラ1を指定して、検索ボタン51を操作すると、複数カメラによる人物検索画面(図示せず)が表示され、この複数カメラによる人物検索画面では、映像表示部43に、指定された複数のカメラ1の映像が並べて表示される。
 映像表示部43には、カメラ1の映像が表示される。この映像表示部43では、ここに表示された映像から検出された人物、すなわち、カメラ内追尾処理の対象となった人物の画像領域に赤色の人物枠(追尾マーク)61が表示され、この人物枠61を選択する操作、具体的には人物枠61上にポインタを合わせて左クリック操作を行うことで、その人物が追跡対象に設定される。また、映像表示部43の近傍には、カメラ1の名称と、日時すなわち映像の撮影時刻と、が表示される。
 再生操作部44は、映像表示部43に表示される映像の再生に関する操作を行うものである。この再生操作部44には、再生、逆再生、停止、早送り、および巻き戻しの各ボタン62が設けられており、これらのボタン62を操作することで、映像を効率的に閲覧することができ、追跡対象とする人物が写る映像を効率よく見つけ出すことができる。
 表示時刻調整部45は、映像表示部43に表示される映像の表示時刻を調整するものである。この表示時刻調整部45は、いわゆるシークバーであり、スライダ63がバー64に沿って移動可能に設けられている。マウスなどの入力デバイス6を用いてスライダ63をずらす操作(ドラッグ)を行うと、そのスライダ63が指し示す時刻の映像が映像表示部43に表示される。なお、バー64は、検索日時指定部41で指定された時刻を中心とした表示時刻の調整範囲を規定する。
 映像表示期間指定部46は、追跡対象とした人物が映像に写っている期間を映像表示期間として監視者が操作入力するものである。この映像表示期間指定部46は、いわゆるデュレーションバーであり、枠65内に映像表示期間を表すバー(可動操作部)66が表示されている。この映像表示期間指定部46は、映像表示部43に追跡対象とする人物が写った映像が表示されているが、その人物に人物枠61が表示されていない場合に、人物枠61の選択に代えて、追跡対象とする人物が映像に写っている期間を監視者が指定するものである。
 調整範囲指定部47は、映像表示部43に表示される映像の表示時刻の調整範囲(有効再生範囲)、すなわち、表示時刻調整部45のバー64で規定されるスライダ63の移動範囲を指定するものである。この調整範囲指定部47では、表示時刻の調整範囲をプルダウンメニューにより所定の時間(例えば、5分、15分など)の中から選択することができる。
 選択解除ボタン48を操作すると、映像表示期間指定部46の指定内容が破棄され、映像表示期間(開始時刻および終了時刻)の指定をやり直すことができる。設定完了ボタン49を操作すると、確認映像表示状態のタイムライン画面(図8参照)に遷移する。
 次に、図4に示した確認映像表示状態のタイムライン画面(追跡対象確認画面)について説明する。図8は、モニタ7に表示される確認映像表示状態のタイムライン画面を示す説明図である。
 図7に示した人物検索画面において、監視者が、映像表示部43で人物枠61を選択して追跡対象とする人物を指定した上で、設定完了ボタン49を操作すると、図8に示す確認映像表示状態のタイムライン画面に遷移する。
 この確認映像表示状態のタイムライン画面は、人物検索画面で追跡対象に指定した人物が写っている可能性が最も高い各カメラ1の映像を確認映像として表示して、この確認映像によってカメラ間追尾情報(初期追尾情報)に誤りがないかを監視者に確認させるものであり、このタイムライン画面には、映像表示部71と、再生操作部44と、表示時刻調整部45と、マップ表示ボタン72と、が設けられている。
 再生操作部44および表示時刻調整部45は、人物検索画面(図7参照)と同様であるが、連続再生状態のタイムライン画面(図9参照)において映像を動画で表示させる際に使用されるものであり、後に詳しく説明する。
 マップ表示ボタン72を操作すると、カメラ位置確認画面(図示せず)が表示される。このカメラ位置確認画面によりカメラの位置を確認することができる。なお、カメラ位置確認画面は、店舗内のレイアウトを示す地図画像上にカメラ1の位置を示すカメラアイコンを重畳して表示したものであり、確認映像を撮影したカメラ1の位置を確認することができる。
 なお、人物検索画面(図7参照)において、監視者が、映像表示期間指定部46で映像表示期間を指定した上で、設定完了ボタン49を操作した場合にも、確認映像表示状態のタイムライン画面に遷移するが、このときのタイムライン画面(図11参照)については後に詳しく説明する。
 映像表示部71には、確認映像表示部73と、候補映像表示部74と、が設けられている。なお、候補映像表示部74は、候補映像表示状態のタイムライン画面(図10参照)において映像が表示されるものであり、後に詳しく説明する。
 確認映像表示部73には、所定数のカメラ別映像表示部81が横方向に並べて設けられ、このカメラ別映像表示部81の映像表示枠82に、確認映像が撮影時刻順に並べて表示されており、監視エリア(店舗内)に進入して追尾が開始されてから、監視エリアを退出するまでの確認映像が、撮影時刻が古い順に左端から並べて表示されている。また、カメラ別映像表示部81には、各確認映像の撮影時刻、および各確認映像を撮影したカメラ1の名称が表示されている。タイムライン画面を開いた際の初期状態では、カメラ1でカメラ内追尾が開始された追尾開始時刻の確認映像が静止画で表示される。確認映像に誤りがない場合には、再生操作部44の操作にしたがって連続再生へと移行させることができる。なお、確認映像には、人物検索画面(図7参照)と同様に、その確認映像で検出追尾された人物に人物枠が表示される。
 カメラ別映像表示部81には、拡大ボタン83と、候補映像表示ボタン84と、が設けられている。拡大ボタン83を操作すると、確認映像を拡大して表示する拡大映像表示画面(図示せず)が別ウィンドウでホップアップ表示され、この画面で確認映像を詳細に観察することができる。候補映像表示ボタン84を操作すると、候補映像表示状態のタイムライン画面(図10参照)に遷移する。
 また、確認映像表示部73では、追跡対象指定映像、すなわち、人物検索画面(図7参照)で人物を追跡対象に指定した映像も表示され、この追跡対象指定映像を表示するカメラ別映像表示部81には、候補映像表示ボタン84の代わりに、追跡対象指定映像を識別するためのマーク85が表示される。なお、カメラ別映像表示部81の映像表示枠82に、追跡対象指定映像であることを表す枠画像が表示されるようにしてもよい。また、確定された確認映像に、確定状態を表す枠画像が表示されるようにしてもよい。
 また、映像表示部71には、第1のスクロールバー(スクロール操作部)75が設けられている。この第1のスクロールバー75は、全ての確認映像が確認映像表示部(確認映像の表示領域)73に収まりきらない場合に、確認映像の配列方向、すなわち横方向に確認映像をスライドさせて表示するものであり、ノブ75aをドラッグすると横方向に確認映像をスライドさせることができ、アロー(左右の矢印)75bをクリックすることで、その方向に確認映像をノブ75aとともに一単位(確認映像1つ分)だけスライドさせることができる。
 このように構成された確認映像表示状態のタイムライン画面では、確認映像表示部73に表示された確認映像が、追跡対象に指定した人物のものか否かを判断することで、追跡対象に指定した人物に関するカメラ間追尾情報(初期追尾情報)に誤りがないかを監視者が確認することができる。カメラ間追尾情報に誤りがある場合には、確認映像に、追跡対象とした人物が写っていないか、あるいは追跡対象とした人物が写っているものの、追跡対象とした人物と異なる人物に人物枠が表示されており、この確認映像を見ることで、カメラ間追尾情報に誤りがあるか否かを判断することができる。
 ここで、確認映像表示部73に表示された全ての確認映像に誤りがない、すなわち、全ての確認映像に追跡対象とした人物が写っており、かつ、その人物に人物枠が表示されている場合には、連続再生を指示する操作、すなわち、再生操作部44の再生のボタン62を操作する。すると、図9に示す連続再生状態のタイムライン画面に遷移する。
 次に、図4に示した連続再生状態のタイムライン画面(連続再生画面)について説明する。図9は、モニタ7に表示される連続再生状態のタイムライン画面を示す説明図である。
 この連続再生状態のタイムライン画面は、確認映像表示状態のタイムライン画面(図8参照)と略同様の構成であるが、この連続再生状態のタイムライン画面では、確認映像表示部73に表示された確認映像を、時間の経過にしたがって順次動画で表示させる連続再生が行われる。再生中の確認映像には、再生中であることを示す枠画像76が表示される。
 なお、再生操作部44において、確認映像表示部73に表示される確認映像の表示時刻を調整するスライダ63の移動範囲、すなわち、表示時刻の調整範囲を規定するバー64の始点(左端)は、撮影時刻が最も古い確認映像の開始時刻となり、バー64の終点(右端)は、撮影時刻が最も新しい確認映像の終了時刻となる。
 ここで、各カメラ1の映像が動画で表示される映像表示期間は、人物枠が表示されている期間、すなわち、各カメラ1に関するカメラ内追尾で人物が検出追尾されている期間となる。また、前後の映像で映像表示期間が整合しない、すなわち、前の映像の終了時刻と後の映像の開始時刻との間にタイムラグがある場合には、映像の再生が途切れないように、映像表示期間を前後に延長して映像表示期間を時間的につなぎ合わせる処理を行う。また、前後の映像で映像表示期間が重複している場合もあり、この場合には、前後の映像で並行して再生が行われる。これにより、連続再生時には、必ず1つまたは2つの映像が再生されている状態となる。
 なお、この連続再生状態のタイムライン画面では、撮影時刻が古いものから順に確認映像が左から並べて表示されているため、連続再生時には確認映像が左から順に再生されるが、全ての確認映像が確認映像表示部73に収まりきらない場合には、確認映像を適宜なタイミングで自動でスライドさせる処理が行われ、これにより監視者が特別な操作を行うことなく、全ての確認映像が連続して再生される状況を閲覧することができる。
 また、カメラ別映像表示部81の拡大ボタン83を操作すると、確認映像を拡大して表示する拡大映像表示画面(図示せず)が別ウィンドウでホップアップ表示され、この画面において確認映像を拡大した状態で動画で表示させることができる。なお、連続再生中に拡大ボタン83を操作した場合に、以降の全ての確認映像に対して、拡大表示を有効状態とし、1つまたは2つの別ウィンドウにて拡大映像が連続再生されるようにすると良い。
 次に、図4に示した候補映像表示状態のタイムライン画面(候補選択画面)について説明する。図10は、モニタ7に表示される候補映像表示状態のタイムライン画面を示す説明図である。
 確認映像表示状態のタイムライン画面(図8参照)に表示された複数の確認映像の中に誤りがある確認映像が見つかった場合、すなわち、いずれかの確認映像に、追跡対象とした人物が写っていないか、あるいは追跡対象とした人物が写っているものの、追跡対象を示す人物枠が追跡対象とした人物と異なる人物に表示されている場合には、その確認映像に対応する候補映像表示ボタン84を監視者が操作することで、図10に示す候補映像表示状態のタイムライン画面に遷移する。
 この候補映像表示状態のタイムライン画面(候補選択画面)は、確認映像表示状態のタイムライン画面に表示された確認映像に誤りがある場合に、追跡対象とした人物が写っている可能性が確認映像の次に高い映像を候補映像として表示して監視者に選択させるものである。
 この候補映像表示状態のタイムライン画面は、確認映像表示状態のタイムライン画面(図8参照)と略同様であるが、候補映像表示部74において、誤りがあるものとして選択された確認映像の下に、所定数のカメラ別映像表示部81が縦方向に一列に並べて設けられ、このカメラ別映像表示部81の映像表示枠82に、候補映像がリンクスコアが高い順に上から並べて表示されている。なお、この候補映像表示状態のタイムライン画面では、候補映像に対応する確認映像の映像表示枠82に、選択状態を示す枠画像77が所定の表示色(例えば黄色)で表示される。
 また、映像表示部71には、第2のスクロールバー(スクロール操作部)78が設けられている。この第2のスクロールバー78は、全ての候補映像が候補映像表示部(候補映像の表示領域)74に収まりきらない場合に、候補映像の配列方向、すなわち縦方向に候補映像をスライドさせて表示するものであり、ノブ78aをドラッグすると縦方向に候補映像をスライドさせることができ、アロー(上下の矢印)78bをクリックすることで、その方向に候補映像をノブ78aとともに一単位(候補映像1つ分)だけスライドさせることができる。
 なお、候補映像表示部74におけるカメラ別映像表示部81の拡大ボタン83を操作すると、候補映像を拡大して表示する拡大映像表示画面(図示せず)が別ウィンドウでホップアップ表示され、この画面で候補映像を詳細に観察することができる。
 この候補映像表示状態のタイムライン画面において、候補映像表示部74に表示された候補映像の中に、適切な候補映像がある、すなわち、追跡対象とした人物が写った候補映像が見つかり、かつ、その人物に人物枠が表示されている場合には、その候補映像を選択する操作(左クリック)が監視者により行われる。
 すると、カメラ間追尾情報修正部38において、候補映像表示状態のタイムライン画面で選択された候補映像に対応する人物を、人物検索画面(図7参照)で追跡対象に指定した人物と対応づけるように追尾情報を修正する処理が行われる。そして、この追尾情報を修正した結果を反映させた状態で、確認映像表示状態のタイムライン画面(図8参照)がモニタ7に表示される。
 この確認映像表示状態のタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、確認映像表示状態のタイムライン画面で誤りがあるものとして選択された確認映像が、候補映像表示状態のタイムライン画面で選択された候補映像に置き換えられて表示される。また、誤りがある確認映像を候補映像と入れ替えたことに伴って、その前後の確認映像が変更される場合もある。すなわち、カメラ間追尾情報修正部38では、候補映像に対応する人物を起点にして、リンクスコアが最も高い人物をカメラ1ごとに順次選択する処理が行われ、ここで選択された人物が、確認映像に対応する人物と異なる場合には、人物の入れ替えが発生し、これに応じて確認映像が変更される。また、カメラ間追尾情報修正部38において追尾情報を修正する際には、追跡対象設定部32で設定した人物、監視者により確定の操作が行われた確認映像に対応する人物、および既に誤りがある確認映像と入れ替えられた候補映像に対応する人物は対象から除外されるため、それらの人物に関する確認映像は変更されない。
 なお、本実施形態では、候補映像表示状態のタイムライン画面で適切な候補映像を選択するようにしたが、候補映像上の人物枠を選択するようにしてもよい。このようにすると、誤った人物で追尾情報が修正されることを避けることができる。
 次に、図7に示した人物検索画面において追跡対象とする人物に人物枠61が表示されない場合について説明する。
 本実施形態では、図7に示した人物検索画面において、追跡したい人物が万引きなどの問題のある行為を行った日時を指定すると共に、追跡したい人物が問題のある行為を行った場所を撮像するカメラ1を選択して、追跡対象とする人物が写った映像を探し出して、その映像上で追跡対象とする人物を指定することができるが、このような注目した日時およびカメラ1の映像で追跡対象とする人物の追尾ができていない場合がある。この場合、追跡対象とする人物には人物枠61が表示されないため、人物枠61の選択で追跡対象を指定することができない。
 このような場合、本実施形態では、人物枠61の選択の代わりに、追跡対象とする人物が映像に写っている期間、すなわち、追跡対象とした人物が映像に現れてからその人物が映像からいなくなるまでの期間を、該当するカメラ1の映像表示期間として監視者が指定することができる。この映像表示期間の指定は、人物検索画面の映像表示期間指定部46で行われる。
 人物検索画面の映像表示期間指定部46では、枠65内に映像表示期間を表すバー66が表示されており、このバー66で映像表示期間を調整することができる。映像表示期間は開始時刻および終了時刻により規定され、バー66の左端および右端の位置がそれぞれ映像表示期間の開始時刻および終了時刻となる。
 映像表示期間の開始時刻を調整するには、開始時刻を表すバー66の左端にポインタを合わせてドラッグ操作を行う。映像表示期間の終了時刻を調整するには、終了時刻を表すバー66の右端にポインタを合わせてドラッグ操作を行う。なお、バー66の左端または右端にポインタを合わせると、ポインタが両矢印形状のトリムポインタに変化する。このとき、監視者は、映像表示部43に表示された映像を見ながら、追跡対象とした人物が映像に最初に現れた時刻またはその近傍の適切な時刻を、映像表示期間の開始時刻として指定すればよい。また、追跡対象とした人物が映像からいなくなる直前の時刻またはその近傍の適切な時刻を、映像表示期間の終了時刻として指定すればよい。
 また、開始時刻および終了時刻の映像を選択することでも、映像表示期間の開始時刻および終了時刻を指定することができる。すなわち、再生操作部44や表示時刻調整部45を操作して、該当する時刻(開始時刻または終了時刻)の映像を映像表示部43に表示させる。そして、映像表示部43の映像を選択する操作を行う。具体的には、映像表示部43の映像にポインタを合わせて左クリック操作を行う。これにより、映像表示部43に表示されている映像の撮影時刻が開始時刻または終了時刻に指定される。
 このようにして映像表示期間の開始時刻および終了時刻を指定して、設定完了ボタン49を操作すると、タイムライン画面(図11参照)に遷移する。
 次に、図7に示した人物検索画面で映像表示期間を指定したときのタイムライン画面について説明する。図11は、人物検索画面で映像表示期間を指定したときのタイムライン画面を示す説明図である。
 タイムライン画面では、通常、カメラ間追尾情報に基づいてカメラ1ごとの確認映像が撮影時刻順に並べて表示されるが、人物検索画面において、人物枠61の選択により追跡対象となる人物を指定する操作に代えて、映像表示期間を指定した場合、追跡対象となる人物のカメラ内追尾情報がないため、カメラ間追尾情報のリンクスコアで、隣接するカメラの映像で追尾された人物の中から追跡対象とした人物を特定することができない。このため、人物検索画面で映像表示期間を指定したときのタイムライン画面では、映像表示期間を指定したカメラ1の確認映像が1つだけ表示され、前後のカメラ1の映像表示枠82はブランク状態(映像が表示されない状態)となる。そこで、隣接する前後のカメラ1で追跡対象となる人物を監視者が手動で選択する操作を行う。
 この場合、前後のカメラ1を選択した上で「人物手動検索」を選択する操作を行う。具体的には、ブランク状態の映像表示枠82上にポインタを合わせて右クリックを行うことで表示されるメニューで「人物手動検索」を選択する。すると、図7に示した人物検索画面が表示される。
 このとき、最初に映像表示期間を指定したカメラ1より前のカメラ1を選択した場合には、人物検索画面に、指定した映像表示期間の直前の期間で、隣接するカメラ1の映像が表示される。最初に映像表示期間を指定したカメラ1より後のカメラ1を選択した場合には、人物検索画面に、指定した映像表示期間の直後の期間で、隣接するカメラ1の映像が表示される。そして、この人物検索画面に、追跡対象とした人物に人物枠61が表示されていれば、その人物枠61を選択して追跡対象とする人物を指定すればよい。
 このように人物枠61を選択して追跡対象とする人物を指定して設定完了ボタン49を操作すると、タイムライン画面に遷移する。ここで、カメラ間追尾により、追跡対象とした人物と同一人物である可能性が最も高い人物がカメラ1ごとに順次選択され、前のカメラ1の映像で追尾ができている場合には、タイムライン画面では、それ以前のカメラ1の確認映像が表示され、また、後のカメラ1で追尾ができている場合には、タイムライン画面では、それ以後のカメラ1の確認映像が表示される。
 また、最初に映像表示期間を指定したカメラ1の前後のカメラ1で、映像に追跡対象とした人物が写っている場合でも、その人物に人物枠61が表示されていない場合には、人物枠61の選択により追跡対象とする人物を指定することができない。この場合、再度、そのカメラ1に関して映像表示期間を指定すればよい。そして、隣接するカメラ1に関する人物検索画面を表示させて、人物枠61の選択による追跡対象とする人物の指定、または映像表示期間の指定を行い、人物枠61の選択による追跡対象とする人物の指定を行うことができた場合には、そのカメラ1より前または後のカメラ1の確認映像がタイムライン画面に表示される。
 このように、本実施形態では、注目する日時およびカメラ1の映像で、人物枠61の選択による追跡対象とする人物の指定を行うことができなかった場合でも、そのカメラ1に関する映像表示期間を指定することにより、そのカメラ1がタイムライン画面の起点となって、隣接するカメラ1の映像が決定され、時系列的に連続するカメラ1ごとの映像をタイムライン画面に表示させることができる。これにより、各カメラ1の映像を順に確認しながら追跡対象とする人物の指定を行うのに比較して、ユーザの作業負担を軽減することができる。
 次に、タイムライン画面において確認映像が適切に再生されない場合について説明する。
 タイムライン画面では、カメラ内追尾で取得した追尾期間の映像が再生される。このとき、追跡対象とした人物を対象としたカメラ内追尾が、追跡対象とした人物が映像に現れてからその人物が映像からいなくなるまでの出現期間の全体に渡って成功していないと、カメラ内追尾で取得した追尾期間が不完全となり、タイムライン画面の確認映像に過不足が発生する。すなわち、追跡対象とした人物がいない映像が表示され、また、追跡対象とした人物が写る映像が途中で終了し、また、追跡対象とした人物が写る映像が途中から開始され、また、追跡対象とした人物が写る映像が連続していない状態で再生されるという不具合が発生する。
 そこで、本実施形態では、カメラ内追尾情報に誤りがあり、確認映像が適切に再生されない、すなわち、追跡対象とした人物が映像に現れてからその人物が映像からいなくなるまでの出現期間の全体に渡って再生されない場合に、図4に示した追尾結果編集画面を表示させて、この追尾結果編集画面で映像表示期間を適切な範囲、すなわち、出現期間に概ね一致する範囲に調整する編集操作を行うことができる。
 次に、図4に示した追尾結果編集画面について説明する。図12は、モニタ7に表示される追尾結果編集画面を示す説明図である。
 図8に示した確認映像表示状態のタイムライン画面において、映像表示期間の編集を行いたいカメラ1の確認映像を選択して「追尾結果編集」を選択する、具体的には、確認映像上で右クリックを行うことで表示されるメニューで「追尾結果編集」を選択すると、図12に示す追尾結果編集画面がポップアップ表示される。
 この追尾結果編集画面は、タイムライン画面に表示される確認映像に過不足がある場合に、確認映像の映像表示期間が適切な期間となるように監視者が編集操作を行うものであり、この追尾結果編集画面には、映像表示部91と、初期映像表示期間表示部92と、表示時刻調整部45と、映像表示期間指定部93と、再生操作部44と、調整範囲指定部47と、戻るボタン95と、キャンセルボタン96と、確定ボタン97と、が設けられている。
 映像表示部91には、タイムライン画面で選択されたカメラ1の映像が表示される。また、映像表示部91の近傍には、映像を撮影したカメラ1の名称や設置場所と、日時すなわち映像の撮影時刻と、が表示される。
 初期映像表示期間表示部92は、未編集の映像表示期間、すなわち、追跡対象とした人物のカメラ内追尾で取得した追尾期間を表示するものである。この初期映像表示期間表示部92は、いわゆるデュレーションバーであり、枠65内に初期の映像表示期間(追尾期間)を表すバー66が表示されている。このバー66では、左端および右端の位置がそれぞれ映像表示期間の開始時刻および終了時刻となる。バー66は赤色で表示される。
 表示時刻調整部45は、映像表示部91に表示される映像の表示時刻を調整するものである。この表示時刻調整部45は、いわゆるシークバーであり、スライダ63がバー64に沿って移動可能に設けられている。マウスなどの入力デバイス6を用いてスライダ63をずらす操作(ドラッグ)を行うと、そのスライダ63が指し示す時刻の映像が映像表示部91に表示される。
 映像表示期間指定部93は、監視者の編集操作により入力された映像表示期間を表示するものである。この映像表示期間指定部93は、初期映像表示期間表示部92と同様に、いわゆるデュレーションバーであり、枠65内に映像表示期間を表すバー(可動操作部)66が表示されている。バー66では、左端および右端の位置がそれぞれ映像表示期間の開始時刻および終了時刻となる。編集可能状態では、バー66の左端および右端の位置をドラッグ操作により移動させることができる。
 映像表示期間指定部93のバー66は、状態に応じて表示色が変化する。編集前の状態では、初期映像表示期間表示部92と同様に、バー66が赤色で表示される。編集可能状態とするとバー66が黄色に変化する。また、映像表示部91に表示された人物枠61を選択してその人物枠61の追尾期間を映像表示期間に追加した場合には、その追加部分が青色で表示される。
 再生操作部44は、映像表示部91に表示される映像の再生に関する操作を行うものである。この再生操作部44には、再生、逆再生、停止、早送り、および巻き戻しの各ボタン62が設けられており、これらのボタン62を操作することで、映像を効率的に閲覧することができ、追跡対象とした人物が映像に写っている期間を効率よく把握することができる。
 調整範囲指定部47は、映像表示部91に表示される映像の表示時刻の調整範囲(有効再生範囲)、すなわち、表示時刻調整部45のバー64で規定されるスライダ63の移動範囲を指定するものである。この調整範囲指定部47では、表示時刻の調整範囲をプルダウンメニューにより所定の時間(例えば、5分、15分など)の中から選択することができる。
 戻るボタン95を操作すると、この追尾結果編集画面において編集を行なった最後の操作入力を破棄し、1つ前の状態に戻る。キャンセルボタン96を操作すると、編集操作で入力された映像表示期間に関する編集内容を全て破棄して、タイムライン画面に戻る。確定ボタン97を操作すると、編集操作で入力された映像表示期間を確定させることができる。
 以下に、この追尾結果編集画面において編集操作により映像表示期間を適切な範囲に調整する例について説明する。
 まず、初期の映像表示期間(追尾期間)の不要部分を削除する場合について説明する。図13は、映像の遷移状況の一例を示す説明図である。図14は、追尾結果編集画面における編集操作時の状況を示す説明図である。
 図13に示す例では、追跡対象とした人物が映像に現れると追跡対象として適切に追尾され、時刻T1,T2の映像では、追跡対象とした人物に赤色の人物枠が表示されている。そして、追尾が失敗して追尾人物の入れ替わりが発生し、以降、追跡対象でない人物を追跡対象として追尾すると共に、追跡対象とした人物を別人として追尾され、時刻T3の映像では、追跡対象とした人物に追跡対象でないことを示す緑色の人物枠が表示され、追跡対象でない人物に追跡対象であることを示す赤色の人物枠が表示されている。その後、追跡対象とした人物が映像からいなくなるが、誤って追跡対象とした人物は映像に残り、時刻T4の映像では、追跡対象でない人物のみが現れている。
 このような場合、カメラ内追尾で取得した追尾期間(初期の映像表示期間)は、別人を追尾していた不要な期間が含まれたものとなり、タイムライン画面では、映像の再生時に、追跡対象とした人物が映像からいなくなった後の映像が表示される。
 また、追跡対象でない人物を追跡対象として追尾した後に、追尾人物の入れ替わりが発生して、以降、追跡対象とした人物が適切に追尾されていた場合にも、カメラ内追尾で取得した追尾期間は、別人を追尾していた不要な期間が含まれるものとなり、タイムライン画面では、映像の再生時に、追跡対象とした人物が写っていない不要な映像が最初に表示される。
 このように、カメラ内追尾で取得した追尾期間の最初や最後に不要部分がある場合には、本実施形態では、図14に示すように、追尾結果編集画面において、映像表示期間の不要部分を削除する編集操作を行うことができる。
 この編集操作では、映像表示期間の開始時刻および終了時刻、すなわち映像表示期間指定部93に表示されるバー66の左端および右端の位置を調整する。
 具体的には、まず、バー66上で右クリックを行うことで表示されるポップアップメニューで「部分編集」を選択してバー66を編集可能状態にする。このとき、バー66は全体的に編集可能状態を表す黄色に変化する。
 次に、映像表示期間の開始時刻を調整する場合には、開始時刻を表すバー66の左端にポインタを合わせてドラッグ操作を行う。映像表示期間の終了時刻を調整するには、終了時刻を表すバー66の右端にポインタを合わせてドラッグ操作を行う。なお、バー66の左端または右端にポインタを合わせると、ポインタが両矢印形状のトリムポインタ98に変化する。
 そして、バー66上にポインタを合わせて左クリック操作を行う。これにより、映像表示期間が、追跡対象とした人物が映像に写らない不要部分を削除した状態で確定される。
 なお、ここではドラッグ操作で映像表示期間の不要部分を削除する例を示したが、ドラッグ操作で映像表示期間の不足部分を追加することも可能である。
 次に、追跡対象とした人物が別人として追尾されていた追尾期間を映像表示期間に追加する場合について説明する。図15は、映像の遷移状況の一例を示す説明図である。図16は、追尾結果編集画面における編集操作時の状況を示す説明図である。
 図15に示す例では、追跡対象とした人物が映像に現れると追跡対象として適切に追尾され、時刻T1,T2の映像では、追跡対象とした人物に赤色の人物枠が表示されている。その後、追尾が失敗して追尾人物の入れ替わりが発生し、以降、追跡対象でない人物が追跡対象として追尾されると共に、追跡対象とした人物が別人として追尾され、時刻T3,T4の映像では、追跡対象とした人物に追跡対象でないことを示す緑色の人物枠が表示され、追跡対象ではない人物に追跡対象であることを示す赤色の人物枠が表示されている。
 このような場合、カメラ内追尾で取得した追尾期間は、未来側に不足部分がある不完全なものとなり、タイムライン画面では、映像の再生時に、追跡対象とした人物が写る映像が途中で途切れた状態となる。
 また、追跡対象でない人物を追跡対象として追尾すると共に、追跡対象とした人物を別人として追尾した後に、追尾が失敗して追尾人物の入れ替わりが発生し、以降、追跡対象とした人物を追跡対象として適切に追尾していた場合、カメラ内追尾で取得した追尾期間(初期の映像表示期間)は、過去側に不足部分がある不完全なものとなり、タイムライン画面では、映像の再生時に、追跡対象とした人物が写る映像が途中から表示される。
 このように、カメラ内追尾で取得した追尾期間の過去側や未来側に不足部分があり、追跡対象とした人物が別人として追尾されていた場合、本実施形態では、図16に示すように、追尾結果編集画面において、追跡対象とした人物が別人として追尾されていた追尾期間を映像表示期間に追加する編集操作を行うことができる。
 この編集操作では、追跡対象とした人物が別人として追尾されていた期間の映像において、追跡対象となる人物に表示されている人物枠61を選択する。このとき、追跡対象とした人物は別人として追尾されているため、追跡対象とした人物には緑色の人物枠61が表示されるため、その緑色の人物枠61を選択する。具体的には、まず、人物枠61上にポインタを合わせて左クリック操作を行う。
 すると、映像表示部91において、追跡対象となる人物に表示されていた緑色の人物枠61が選択状態を表す青色に変化する。また、映像表示期間指定部93のバー66に、選択された人物枠61の追尾期間が追加される。このとき、追加部分が青色で表示される。
 このように追跡対象となる人物に表示されていた緑色の人物枠61を選択する操作を行なうことで、人物枠61の色が青色に変化し、映像表示期間を確定させることができる。これにより、映像表示期間が、追跡対象とした人物が別人として追尾されていた期間を含む状態で確定される。
 ここで、追跡対象となる人物が複数の別人として追尾される場合がある。この場合、追跡対象となる人物に表示されている緑色の人物枠を順次選択すればよく、選択された複数の人物枠の追尾期間が映像表示期間指定部93のバー66に追加される。
 ところで、追跡対象となる人物を途中から別人として追尾し、その後、さらに追尾人物の入れ替わりが発生して、追跡対象ではない人物を同一人物として追尾する場合がある。この場合、映像表示期間に追加した追尾期間に追跡対象ではない別人の追尾期間が含まれ、この別人の追尾期間は不要であるため、この不要部分を削除する必要がある。
 この場合、映像表示期間指定部93のバー66内の青色で表示された追加部分を選択して「部分編集」を選択する。具体的には、青色で表示された追加部分上で右クリックを行うことで表示されるポップアップメニューで「部分編集」を選択する。すると、バー66の追加部分が編集可能状態を表す黄色に変化し、図14に示した例と同様に、ドラッグ操作により表示期間の開始時刻および終了時刻を調整する。
 ところで、このように追跡対象とした人物が別人として追尾されていたときの人物枠を選択して、その人物枠の追尾期間を映像表示期間に追加すると、その人物枠の人物を追跡対象とした人物に変更するように、追跡対象となる人物のカメラ内追尾情報を修正する。そして、隣接するカメラ1との間のカメラ間追尾をやり直して、カメラ間追尾情報も修正する。このとき、図16に示した例のように、未来側で人物枠が選択されると、未来側のカメラ1でカメラ間追尾をやり直し、過去側で人物枠が選択されると、過去側のカメラ1でカメラ間追尾をやり直す。
 次に、映像表示期間の不足部分を追加する場合について説明する。図17は、映像の遷移状況の一例を示す説明図である。図18は、追尾結果編集画面における編集操作時の状況を示す説明図である。
 図17に示す例では、カメラ内追尾において追跡対象とした人物の人物検知が最初から失敗して、時刻T1,T2の映像では、追跡対象とした人物に人物枠が表示されていない。そして、追跡対象とした人物のカメラ内追尾が途中から開始され、以降、追跡対象とした人物が映像からいなくなるまで、追跡対象とした人物が適切に追尾され、時刻T3,T4の映像では、追跡対象とした人物に赤色の人物枠が表示されている。
 このような場合、カメラ内追尾で取得した追尾期間(初期の映像表示期間)は、過去側に不足部分がある不完全なものとなり、タイムライン画面では、映像の再生時に、追跡対象とした人物が写る映像が途中から表示される。
 また、追跡対象とした人物のカメラ内追尾が途中で失敗して、追跡対象とした人物のカメラ内追尾が途中で終了した場合、カメラ内追尾で取得した追尾期間(初期の映像表示期間)は、未来側に不足部分がある不完全なものとなり、タイムライン画面では、映像の再生時に、追跡対象とした人物が写る映像が途中で途切れた状態となる。
 このように、カメラ内追尾で取得した追尾期間の過去側や未来側に不足部分がある場合、本実施形態では、図18に示すように、追尾結果編集画面において、映像表示期間の不足部分を追加する編集操作を行うことができる。
 この編集操作では、追尾期間の過去側に不足部分がある場合には、追跡対象とした人物が映像に最初に現れた時刻またはその近傍の適切な時刻を、映像表示期間の開始時刻として指定する。また、追尾期間の未来側に不足部分がある場合には、追跡対象とした人物が映像からいなくなる直前の時刻またはその近傍の適切な時刻を、映像表示期間の終了時刻として指定する。
 具体的には、まず、再生操作部44や表示時刻調整部45を操作して、該当する時刻(開始時刻または終了時刻)の映像を映像表示部91に表示させる。そして、映像表示部91の映像を選択する操作を行う。具体的には、映像表示部91の映像上にポインタを合わせて左クリック操作を行う。
 これにより、開始時刻または終了時刻が入力され、映像表示期間指定部93に、映像表示期間の不足部分が追加される。すなわち、追尾期間の過去側に不足部分がある場合には、開始時刻から初期の映像表示期間(追尾期間)までの期間が映像表示期間に追加される。また、追尾期間の未来側に不足部分がある場合には、初期の映像表示期間から終了時刻までの期間が映像表示期間に追加される。このとき、映像表示期間の追加部分は黄色で表示される。
 また、映像表示期間指定部93で開始時刻や終了時刻を入力することもできる。すなわち、映像表示期間指定部93の枠65内で該当する時刻を指定する操作を行う。具体的には、枠65内の該当する時刻の部分にポインタを合わせて左クリック操作を行う。これにより、開始時刻や終了時刻が入力され、映像表示期間指定部93の映像表示期間に不足部分が追加される。
 なお、映像表示期間の範囲は、映像表示部91の映像上にポインタを合わせて左クリック操作した時点で確定しており、再度、映像表示期間の範囲を調整する場合には、再度、追加された黄色のバー66上で、右クリックにて部分編集を選択することで、編集可能状態とすることができる。
 このように、映像表示部91に表示させた開始時刻や終了時刻の映像を選択する操作や、映像表示期間指定部93で開始時刻や終了時刻を指定する操作により、開始時刻や終了時刻を入力することができるが、時刻の微調整などの目的で必要であれば、さらに、図14に示した例と同様に、ドラッグ操作により映像表示期間の開始時刻および終了時刻を調整するようにしてもよい。
 以上のように、本実施形態では、前記のように、ドラッグ操作による映像表示期間の開始時刻および終了時刻の調整(不要部分の削除や不足部分の追加)や、人物枠の選択による追尾期間の映像表示期間への追加や、映像の選択による映像表示期間の開始時刻および終了時刻の指定などの各種の編集操作を行うことができ、これらの編集操作は、前記に例示した方法に限定されるものではなく、映像の状況に応じて各種の編集操作を適宜に組み合わせて行うこともできる。
 また、映像表示期間指定部93においてバー66で表される映像表示期間に関する編集内容は、必要に応じて、全て破棄することができる。
 具体的には、映像表示期間指定部93のバー66上で右クリックを行うことで表示されるポップアップメニューで「全削除」を選択する。また、映像表示部91で人物枠を選択してその追尾期間を映像表示期間に追加した場合には、映像表示部91に表示された人物枠上で右クリックを行うことで表示されるポップアップメニューで「全削除」を選択する。
 すなわち、この「全削除」を選択された場合には、追加にかかる映像表示期間の編集内容を全て破棄する全削除(部分全削除)が実行される。そして、映像表示期間に関する編集内容を全て破棄する場合には、キャンセルボタンを操作することにより、タイムライン画面に戻り、映像表示期間に関する編集をやり直すことができる。
 このように、追尾結果編集画面において映像表示期間を適切な期間に修正する編集操作を行うことができ、この編集操作を行って確定ボタン97を操作すると、確認映像表示状態のタイムライン画面(追跡対象確認画面、図8参照)に戻る。このタイムライン画面では、追尾結果編集画面における編集結果が反映された状態で映像が適切に再生される。すなわち、追跡対象とした人物が映像に現れてからその人物が映像からいなくなるまでの出現期間の全体に渡って映像が再生される。
 以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
 例えば、前記の実施形態では、スーパーマーケットなどの小売店舗の例について説明したが、ファミリーレストランなどの飲食店など、小売店舗以外の業務形態の店舗に適用することも可能であり、さらに、事業所などの店舗以外の施設にも適用することができる。
 また、前記の実施形態では、移動体として人物を追跡する例について説明したが、人物以外の移動体、例えば自動車や自転車などの車両を追跡する構成も可能である。
 また、前記の実施形態では、追跡対象確認画面および候補選択画面として、カメラ1ごとの映像を撮影時刻順に並べて表示したタイムライン画面を表示するようにしたが、このタイムライン画面の代わりに、店舗内のレイアウトを示す地図画像上に、カメラ1ごとの映像をそれぞれ表示する複数の映像表示枠を、カメラ1の撮影領域に概ね対応する位置に配置したマップ画面を表示するようにしてもよい。また、追跡対象検索画面もマップ画面で表示することも可能である。
 また、前記の実施形態では、人物が追尾されていることを表す追尾マークとして矩形の人物枠を表示するようにしたが、追尾マークはこのような形態のものに限定されるものではなく、種々の形態のものを採用することができる。
 また、前記の実施形態では、追跡対象とした人物に関する追尾情報に基づいて確認映像提示部39により提示された確認映像に対応する人物を、候補映像提示部40により提示された候補映像に対応する人物や、監視者が映像上で指定した人物に置き換えるように追跡情報の修正が、カメラ内追尾情報修正部26やカメラ間追尾情報修正部38で行われるが、この追跡情報の修正には、誤った追跡情報を単に削除することも含まれる。すなわち、確認映像に誤りがあるものの、それに代わる適切な映像が見つからない場合には、誤りがある確認映像に対応する人物を追跡情報から削除する。
 また、前記の実施形態では、図1および図3に示したように、カメラ内追尾処理をカメラ内追尾処理装置4に行わせ、カメラ間追尾処理および追跡支援処理をPC3に行わせる例について説明したが、カメラ内追尾処理もPC3に行わせる構成としてもよい。また、カメラ内追尾処理部をカメラ1に設ける構成も可能である。また、カメラ間追尾処理部22の全部または一部をPC3とは別の追尾処理装置で構成することも可能である。
 また、前記の実施形態では、図2に示したように、カメラ1を、視野角の限定される箱型カメラとしたが、これに限らず、広範囲の撮影が可能な全方位カメラを用いることもできる。
 また、本実施形態では、カメラ内追尾処理および追跡支援処理を、店舗に設けられた装置に行わせるようにしたが、これらの必要な処理を、図1に示したように、本部に設けられたPC11や、クラウドコンピューティングシステムを構成するクラウドコンピュータ12に行わせるようにしてもよい。また、必要な処理を複数の情報処理装置で分担し、IPネットワークやLANなどの通信媒体、またはハードディスクやメモリカードなどの記憶媒体を介して、複数の情報処理装置の間で情報を受け渡すようにしてもよい。この場合、必要な処理を分担する複数の情報処理装置で追跡支援システムが構成される。
 特に、クラウドコンピュータ12を含むシステム構成では、店舗や本部に設けられたPC3,11の他に、クラウドコンピュータ12にネットワーク接続されたスマートフォン13やタブレット端末14などの携帯型端末で、必要な情報を表示させることができるようにするとよく、これにより店舗や本部の他に外出先などの任意の場所で必要な情報を確認することができる。
 また、前記の実施形態では、カメラ1の映像を蓄積するレコーダ2を店舗に設置するようにしたが、追跡支援に必要な処理を、本部に設置されたPC11やクラウドコンピュータ12に行わせる場合には、カメラ1の映像を、本部や、クラウドコンピューティングシステムの運営施設などに送信して、そこに設置された装置にカメラ1の映像を蓄積するようにしてもよい。
 本開示に係る追跡支援装置、追跡支援システムおよび追跡支援方法は、カメラ内追尾がいかなる結果になっても、監視者の負担を軽減する支援処理を適切に行って、追跡中の人物を見失うことなく円滑に追跡作業を進めることができる効果を有し、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置、追跡支援システムおよび追跡支援方法などとして有用である。
1 カメラ
2 レコーダ(映像蓄積手段)
3 PC(追跡支援装置)
4 カメラ内追尾処理装置
6 入力デバイス
7 モニタ
11 PC
12 クラウドコンピュータ
13 スマートフォン
14 タブレット端末
21 追尾情報蓄積部
22 カメラ間追尾処理部
23 入力情報取得部
24 追跡対象処理部
25 映像提示部
26 カメラ内追尾情報修正部
27 映像再生部
28 画面生成部
31 検索条件設定部
32 追跡対象設定部
33 映像表示期間設定部
34 追跡対象追加設定部
35 リンクスコア算出部
36 初期追尾情報生成部
37 候補選択部
38 カメラ間追尾情報修正部
39 確認映像提示部
40 候補映像提示部
46 映像表示期間指定部
93 映像表示期間指定部
66 バー(可動操作部)

Claims (13)

  1.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、
     ユーザの操作入力に応じて、追跡対象となる移動体の映像を探し出すための検索条件を設定する検索条件設定部と、
     前記映像蓄積手段より前記検索条件に適合する映像を取得して追跡対象検索画面を前記表示装置に表示させて、その追跡対象検索画面において映像上に表示された追尾マークを選択する操作により追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を前記追跡対象に設定する追跡対象設定部と、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させる確認映像提示部と、
     前記追跡対象検索画面において追跡対象とする移動体に前記追尾マークが表示されない場合に、ユーザの操作入力に応じて、前記追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、
     前記映像表示期間に基づいて前記追跡対象確認画面において前記確認映像を表示させるように前記追尾情報を修正する追尾情報修正部と、
    を備えたことを特徴とする追跡支援装置。
  2.  前記映像表示期間設定部は、前記追跡対象検索画面に、前記映像表示期間の開始時刻および終了時刻をそれぞれ表す可動操作部を表示して、その可動操作部をずらすことで前記映像表示期間の範囲を調整する操作をユーザに行わせることを特徴とする請求項1に記載の追跡支援装置。
  3.  前記映像表示期間設定部は、前記追跡対象検索画面において、前記カメラの映像を、その表示時刻を調整可能に表示して、追跡対象とする移動体が最初に出現した映像と、追跡対象とする移動体が消失する直前の映像とを選択する操作をユーザに行わせて、前記映像表示期間の開始時刻および終了時刻を取得することを特徴とする請求項1に記載の追跡支援装置。
  4.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させる確認映像提示部と、
     前記追跡対象確認画面に表示される前記カメラごとの前記確認映像に過不足がある場合に、追尾結果編集画面を前記表示装置に表示させて、前記追尾結果編集画面上でのユーザの操作入力に応じて、前記追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、
     前記映像表示期間に基づいて前記追跡対象確認画面において前記確認映像を表示させるように前記追尾情報を修正する追尾情報修正部と、
    を備えたことを特徴とする追跡支援装置。
  5.  前記映像表示期間設定部は、前記カメラごとの映像に対するカメラ内追尾処理により取得した追尾期間を初期の映像表示期間として前記追尾結果編集画面に表示して、その追尾結果編集画面において、前記初期の映像表示期間に対して部分的な削除および追加の少なくともいずれが行われるように、前記映像表示期間の範囲を調整する操作をユーザに行わせることを特徴とする請求項4に記載の追跡支援装置。
  6.  前記映像表示期間設定部は、前記追尾結果編集画面に、前記映像表示期間の開始時刻および終了時刻をそれぞれ表す可動操作部を表示して、その可動操作部をずらすことで前記映像表示期間の範囲を調整する操作をユーザに行わせることを特徴とする請求項4に記載の追跡支援装置。
  7.  前記映像表示期間設定部は、前記追尾結果編集画面において、前記カメラの映像を、その表示時刻を調整可能に表示して、追跡対象とした移動体が最初に出現した映像と、追跡対象とした移動体が消失する直前の映像との少なくともいずれかを選択する操作をユーザに行わせて、前記映像表示期間の開始時刻および終了時刻の少なくともいずれかを取得することを特徴とする請求項4に記載の追跡支援装置。
  8.  前記映像表示期間設定部は、前記追尾結果編集画面において映像に現れる追跡対象となる移動体の追尾マークを選択する操作をユーザに行わせて、その選択された移動体の追尾期間を含むように前記映像表示期間を設定することを特徴とする請求項4に記載の追跡支援装置。
  9.  さらに、前記追跡対象に設定された移動体、およびその移動体と同一として対応づけられた移動体に関する前記カメラごとの映像が撮影時刻順に並べて表示された連続再生画面を前記表示装置に表示させ、この連続再生画面において、前記カメラごとの映像を、時間の経過にしたがって順次動画で表示させる連続再生を行う映像再生部を備えたことを特徴とする請求項1から請求項8のいずれかに記載の追跡支援装置。
  10.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、
     監視エリアを撮影する前記カメラと、
     このカメラごとの映像を表示する前記表示装置と、
     複数の情報処理装置と、
    を有し、
     前記複数の情報処理装置のいずれかが、
     ユーザの操作入力に応じて、追跡対象となる移動体の映像を探し出すための検索条件を設定する検索条件設定部と、
     前記映像蓄積手段より前記検索条件に適合する映像を取得して追跡対象検索画面を前記表示装置に表示させて、その追跡対象検索画面において映像上に表示された追尾マークを選択する操作により追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を前記追跡対象に設定する追跡対象設定部と、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させる確認映像提示部と、
     前記追跡対象検索画面において追跡対象とする移動体に前記追尾マークが表示されない場合に、ユーザの操作入力に応じて、前記追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、
     前記映像表示期間に基づいて前記追跡対象確認画面において前記確認映像を表示させるように前記追尾情報を修正する追尾情報修正部と、
    を備えたことを特徴とする追跡支援システム。
  11.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、
     監視エリアを撮影する前記カメラと、
     このカメラごとの映像を表示する前記表示装置と、
     複数の情報処理装置と、
    を有し、
     前記複数の情報処理装置のいずれかが、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させる確認映像提示部と、
     前記追跡対象確認画面に表示される前記カメラごとの前記確認映像に過不足がある場合に、追尾結果編集画面を前記表示装置に表示させて、前記追尾結果編集画面上でのユーザの操作入力に応じて、前記追跡対象に設定された移動体が映像に出現する映像表示期間を設定する映像表示期間設定部と、
     前記映像表示期間に基づいて前記追跡対象確認画面において前記確認映像を表示させるように前記追尾情報を修正する追尾情報修正部と、
    を備えたことを特徴とする追跡支援システム。
  12.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する処理を情報処理装置に行わせる追跡支援方法であって、
     ユーザの操作入力に応じて、追跡対象となる移動体の映像を探し出すための検索条件を設定し、
     前記映像蓄積手段より前記検索条件に適合する映像を取得して追跡対象検索画面を前記表示装置に表示させて、その追跡対象検索画面において映像上に表示された追尾マークを選択する操作により追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を前記追跡対象に設定し、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させ、
     前記追跡対象検索画面において追跡対象とする移動体に前記追尾マークが表示されない場合に、ユーザの操作入力に応じて、前記追跡対象に設定された移動体が映像に出現する映像表示期間を設定し、
     前記映像表示期間に基づいて前記追跡対象確認画面において前記確認映像を表示させるように前記追尾情報を修正することを特徴とする追跡支援方法。
  13.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する処理を情報処理装置に行わせる追跡支援方法であって、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させ、
     前記追跡対象確認画面に表示される前記カメラごとの前記確認映像に過不足がある場合に、追尾結果編集画面を前記表示装置に表示させて、前記追尾結果編集画面上でのユーザの操作入力に応じて、前記追跡対象に設定された移動体が映像に出現する映像表示期間を設定し、
     前記映像表示期間に基づいて前記追跡対象確認画面において前記確認映像を表示させるように前記追尾情報を修正することを特徴とする追跡支援方法。
PCT/JP2016/004898 2016-02-05 2016-11-16 追跡支援装置、追跡支援システムおよび追跡支援方法 WO2017134712A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
GB1810666.6A GB2562641B (en) 2016-02-05 2016-11-16 Tracking assistance device, tracking assistance system, and tracking assistance method
DE112016006156.0T DE112016006156T5 (de) 2016-02-05 2016-11-16 Verfolgungsunterstützungsvorrichtung, verfolgungsunterstützungssystem und verfolgungsunterstützungsverfahren
RU2018127847A RU2691057C1 (ru) 2016-02-05 2016-11-16 Устройство помощи в слежении, система помощи в слежении и способ помощи в слежении
CN201680080381.6A CN108605115B (zh) 2016-02-05 2016-11-16 跟踪辅助装置、跟踪辅助系统以及跟踪辅助方法
US16/074,255 US11335173B2 (en) 2016-02-05 2016-11-16 Tracking assistance device, tracking assistance system, and tracking assistance method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016020891A JP6284086B2 (ja) 2016-02-05 2016-02-05 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2016-020891 2016-02-05

Publications (1)

Publication Number Publication Date
WO2017134712A1 true WO2017134712A1 (ja) 2017-08-10

Family

ID=59499448

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/004898 WO2017134712A1 (ja) 2016-02-05 2016-11-16 追跡支援装置、追跡支援システムおよび追跡支援方法

Country Status (7)

Country Link
US (1) US11335173B2 (ja)
JP (1) JP6284086B2 (ja)
CN (1) CN108605115B (ja)
DE (1) DE112016006156T5 (ja)
GB (1) GB2562641B (ja)
RU (1) RU2691057C1 (ja)
WO (1) WO2017134712A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113229961A (zh) * 2017-09-04 2021-08-10 梶田大树 照相机系统
CN110866428B (zh) * 2018-08-28 2023-12-15 杭州海康威视数字技术股份有限公司 目标跟踪方法、装置、电子设备及存储介质
SG10201807678WA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd A method for identifying potential associates of at least one target person, and an identification device
JP7018001B2 (ja) * 2018-09-20 2022-02-09 株式会社日立製作所 情報処理システム、情報処理システムを制御する方法及びプログラム
CN109831622B (zh) * 2019-01-03 2021-06-22 华为技术有限公司 一种拍摄方法及电子设备
US11379683B2 (en) * 2019-02-28 2022-07-05 Stats Llc System and method for generating trackable video frames from broadcast video
KR102114687B1 (ko) * 2019-05-10 2020-05-25 정원주 오브젝트 트랙킹 방법 및 장치
US20230056155A1 (en) * 2020-01-31 2023-02-23 Nec Corporation Information processing apparatus, information processing method, and storage medium
JP2022011666A (ja) * 2020-06-30 2022-01-17 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN116915959B (zh) * 2023-09-06 2023-11-28 南京比特兔机器人科技有限公司 监控数据处理方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161562A (ja) * 2009-01-07 2010-07-22 Canon Inc 画像処理装置、その制御方法、プログラム及び記録媒体
JP2011170711A (ja) * 2010-02-19 2011-09-01 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法
JP2013247508A (ja) * 2012-05-25 2013-12-09 Canon Inc 自動追尾カメラの制御装置及び該制御装置を有する自動追尾カメラ
JP2015019250A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2015019249A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5131882A (ja) 1974-09-12 1976-03-18 Matsushita Electric Works Ltd Sashikomisetsuzokuki
JPS556990A (en) 1979-04-27 1980-01-18 Houjiyou Tsushin Kk Transmission system
JP2000069346A (ja) * 1998-06-12 2000-03-03 Canon Inc カメラ制御装置、方法、カメラ、追尾カメラシステム及びコンピュ―タ読み取り可能な記憶媒体
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
JP2003006654A (ja) * 2001-06-20 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> 動画像における移動体の特徴量抽出方法と自動追跡方法及びそれらの装置、並びに、それらの方法の実行プログラムとこの実行プログラムを記録した記録媒体
JP4808139B2 (ja) * 2006-11-30 2011-11-02 セコム株式会社 監視システム
JP2010183253A (ja) * 2009-02-04 2010-08-19 Nikon Corp 情報表示装置および情報表示プログラム
JP5528151B2 (ja) 2010-02-19 2014-06-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
JP2011199526A (ja) * 2010-03-18 2011-10-06 Fujifilm Corp 被写体の追尾装置およびその動作制御方法
JP5613016B2 (ja) * 2010-10-29 2014-10-22 株式会社キーエンス 動画追尾装置、動画追尾方法および動画追尾プログラム
JP5653174B2 (ja) * 2010-10-29 2015-01-14 株式会社キーエンス 動画追尾装置、動画追尾方法および動画追尾プログラム
JP2012247508A (ja) * 2011-05-25 2012-12-13 Dainippon Printing Co Ltd パターン位相差フィルムの作製方法、パターン位相差フィルム作製用金型の作製方法
RU2600540C2 (ru) * 2012-01-17 2016-10-20 Сони Корпорейшн Устройство и способ обработки информации, и программа
JP5962916B2 (ja) 2012-11-14 2016-08-03 パナソニックIpマネジメント株式会社 映像監視システム
JP5506989B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5834249B2 (ja) * 2013-11-20 2015-12-16 パナソニックIpマネジメント株式会社 人物移動分析装置、人物移動分析システムおよび人物移動分析方法
JP5999394B2 (ja) 2015-02-20 2016-09-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
WO2016139906A1 (ja) 2015-03-04 2016-09-09 パナソニックIpマネジメント株式会社 人物追跡方法および人物追跡装置
JP6399356B2 (ja) 2015-05-26 2018-10-03 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161562A (ja) * 2009-01-07 2010-07-22 Canon Inc 画像処理装置、その制御方法、プログラム及び記録媒体
JP2011170711A (ja) * 2010-02-19 2011-09-01 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法
JP2013247508A (ja) * 2012-05-25 2013-12-09 Canon Inc 自動追尾カメラの制御装置及び該制御装置を有する自動追尾カメラ
JP2015019250A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2015019249A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Also Published As

Publication number Publication date
CN108605115B (zh) 2020-08-28
GB201810666D0 (en) 2018-08-15
JP6284086B2 (ja) 2018-02-28
US20210174652A1 (en) 2021-06-10
GB2562641B (en) 2021-07-28
GB2562641A (en) 2018-11-21
RU2691057C1 (ru) 2019-06-10
GB2562641A8 (en) 2018-12-26
DE112016006156T5 (de) 2018-09-20
CN108605115A (zh) 2018-09-28
JP2017139701A (ja) 2017-08-10
US11335173B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
JP6284086B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5999394B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6206857B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5506990B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5438861B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
US8204312B2 (en) Moving image editing apparatus
JP6214762B2 (ja) 画像検索システム、検索画面表示方法
JP4185376B2 (ja) 画像処理システム
JP4175622B2 (ja) 画像表示システム
JP6576704B2 (ja) 動画再生装置及び動画再生方法
JP6847168B2 (ja) 動画再生装置及び動画再生方法
JP6089865B2 (ja) 情報処理装置、情報処理装置における表示方法及びプログラム
JP2017069992A (ja) 情報処理装置、情報処理装置における表示方法及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 112016006156

Country of ref document: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16889203

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 201810666

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20161116

WWE Wipo information: entry into national phase

Ref document number: 1810666.6

Country of ref document: GB

122 Ep: pct application non-entry in european phase

Ref document number: 16889203

Country of ref document: EP

Kind code of ref document: A1