WO2016084304A1 - 撮像装置、録画装置および映像出力制御装置 - Google Patents

撮像装置、録画装置および映像出力制御装置 Download PDF

Info

Publication number
WO2016084304A1
WO2016084304A1 PCT/JP2015/005372 JP2015005372W WO2016084304A1 WO 2016084304 A1 WO2016084304 A1 WO 2016084304A1 JP 2015005372 W JP2015005372 W JP 2015005372W WO 2016084304 A1 WO2016084304 A1 WO 2016084304A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
unit
output
output mode
user
Prior art date
Application number
PCT/JP2015/005372
Other languages
English (en)
French (fr)
Inventor
藤井 博文
岩井 和彦
哲郎 柿沢
細井 康丞
麻理恵 桑原
和麻 吉田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US15/027,540 priority Critical patent/US20160328627A1/en
Priority to DE112015005301.8T priority patent/DE112015005301T5/de
Publication of WO2016084304A1 publication Critical patent/WO2016084304A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates

Definitions

  • the present invention is connected to an imaging device that images a monitoring area and outputs the video to a browsing device, a recording device that accumulates video output from the imaging device and outputs the video to the browsing device, and an imaging device.
  • the present invention relates to a video output control device that controls video output to a browsing device.
  • a monitoring system that installs a camera that shoots the inside of the store and monitors the situation inside the store using the image of the camera is widely used, but the purpose of surveillance for crime prevention and disaster prevention In other cases, that is, when using video for the purpose of marketing analysis for efficient operation of the store or improvement of customer service, it is necessary to protect customer privacy.
  • JP 2013-186838 A Japanese Patent No. 5159381
  • the imaging device of the present invention is an imaging device that images a monitoring area and outputs the video to a browsing device, and performs video processing for performing mask processing for changing the inside of a person's outline into a mask image on the video
  • a video output unit that outputs the mask processed video that has been subjected to the mask processing in a first output mode, and outputs an unprocessed video that has not been subjected to the mask processing in a second output mode
  • a control unit that switches the output mode of the video output unit in response to a user instruction, and the control unit initializes the output mode to be set to the first output mode when the device is activated.
  • the configuration is to be performed.
  • a first invention made to solve the above-described problem is an imaging device that captures an image of a monitoring area and outputs the video to a browsing device, and changes the inside of a person's outline to a mask image with respect to the video
  • An image processing unit that performs mask processing, and outputs the mask processed video that has been subjected to the mask processing in the first output mode, and the unprocessed video that has not been subjected to the mask processing in the second output mode
  • a control unit that switches the output mode of the video output unit in response to a user instruction, and the control unit enters the first output mode when the device is started up.
  • the output mode to be set is initialized.
  • the output mode initialization performed at the time of startup of the device is set to a state in which the mask processed video subjected to the mask processing is output, unprocessed video that has not been subjected to the mask processing flows out. Risk can be reduced.
  • the second invention further holds authentication information relating to a user who has an authority to view the unprocessed video, and collates input information input by the user in the browsing device with the authentication information, thereby performing user authentication.
  • a user authentication unit is provided, and the control unit performs control to switch the video output unit to the second output mode only when user authentication is successful in the user authentication unit.
  • the third invention is configured such that the authentication information is a password.
  • the fourth invention is configured such that the authentication information is a set of a user ID and a password.
  • control unit switches from the video output unit to the second output mode, and then the elapsed time from the transition to a sleep state in which video output to the browsing device is not performed.
  • the video output unit is controlled to return to the first output mode.
  • the first output mode for outputting the masked video is restored, and therefore the second output mode for outputting the unprocessed video is left for a long time. Since this can be avoided, the risk of unprocessed video leaking can be further reduced.
  • the sixth aspect of the invention further includes a return time setting unit that sets the return time in response to an operation input by a user who inputs an arbitrary time.
  • the user can freely specify the return time.
  • a recording apparatus for accumulating video output from an imaging device and outputting the video to a browsing device, a video storage unit for storing video input from the imaging device, A video processing unit that performs a mask process for changing the inside of a person's outline into a mask image for the video stored in the video storage unit, and a mask processed video that has been subjected to the mask process in the first output mode.
  • a video output unit that outputs the unprocessed video that has not been subjected to the mask processing in the second output mode, and a control unit that switches the output mode of the video output unit in accordance with a user instruction;
  • the control unit is configured to initialize an output mode to be set to the first output mode when the own device is activated.
  • An eighth invention is a video output control device that is connected to an imaging device and controls video output to a browsing device, wherein a mask image is displayed inside the outline of a person with respect to the video input from the imaging device.
  • a mask processing image that has been subjected to the mask processing in the first output mode, and a mask processing image that has not been subjected to the mask processing in the second output mode.
  • a video output unit that outputs a processed video; and a control unit that switches the output mode of the video output unit in response to an instruction from a user.
  • the output mode set in the mode is initialized.
  • FIG. 1 is an overall configuration diagram of a monitoring system according to the first embodiment.
  • This monitoring system is constructed for retail chain stores such as convenience stores, and includes a camera (imaging device) 1, a recorder (recording device) 2, and a PC (browsing device) 3. ing.
  • the camera 1 is installed at an appropriate place in the store (facility), and the inside of the store is imaged by the camera 1.
  • the camera 1 is a so-called IP camera that can be connected to the network, and the recorder 2 is also configured to be connected to the network.
  • the camera 1 and the recorder 2 are connected to a LAN installed in the store.
  • the output video is stored in the recorder 2.
  • the PC 3 is also connected to the LAN, and the video output from the camera 1 and the recorder 2 is input to the PC 3, and the video is displayed on the monitor (display device) 7 connected to the PC 3.
  • a store-side user such as a store manager can browse in-store video captured by the camera 1 in real time, and can browse past video in the store recorded in the recorder 2. it can.
  • the camera 1, the recorder 2, and the PC 3 are installed in each of a plurality of stores, and a PC 11 is installed in a headquarters that generalizes the plurality of stores.
  • the PC 11 is connected to each store via the WAN.
  • the camera 1 and the recorder 2 are connected.
  • a user on the headquarters side for example, a supervisor who gives guidance or suggestions to each store in the area in charge, can view the video in the store taken by the camera 1 in real time, The video in the past store recorded by the recorder 2 can be browsed.
  • FIG. 2 is a plan view of the store explaining the store layout and the installation status of the camera 1.
  • the store has an entrance, a display shelf and a cashier counter.
  • Display shelves are divided into different types of products such as bento boxes, plastic bottles, and rice balls.
  • the customer enters the store from the entrance, moves through the passage between the display shelves, finds the desired product, and goes to the checkout counter with the product and pays at the checkout counter (payment). After exiting, exit from the entrance.
  • a plurality of cameras 1 for photographing the inside of the store are installed in the store.
  • the camera 1 is installed at an appropriate position on the ceiling in the store.
  • an omnidirectional camera having a 360-degree shooting range using a fisheye lens is adopted as the camera 1. Can be taken.
  • 3A and 3B are explanatory diagrams for explaining an overview of processing performed by the camera 1.
  • a mask process is performed in which the position information of the image area of the person appearing in the video is acquired and the inside of the contour of the person is changed to a mask image.
  • a person's image area is detected from the video, information about the outline of the person's image area is acquired, and based on the information about the outline, a mask image (person's An image in which the inside of the contour is filled) is generated, and a mask processing image in which the mask image is superimposed on the background image is generated.
  • a mask image person's An image in which the inside of the contour is filled
  • a mask processing image in which the mask image is superimposed on the background image is generated.
  • FIG. 3A five persons P1 to P5 are shown in the video, and as shown in FIG. 3B, the image areas of the persons P1 to P5 are changed to mask images M1 to M5.
  • the unprocessed video (video) shown in FIG. 3A is displayed, while other than monitoring such as marketing analysis.
  • the mask processing video (moving image) shown in FIG. 3B is displayed. Even in such a mask processing video, the movement of a person is observed by observing the mask image in the video. Can grasp.
  • the mask image since the mask image is transparent, the background image can be seen through. Further, display elements of the mask image, for example, display elements such as color, shading, pattern (pattern), contour line, and transmittance may be set in advance. It may be possible to change it.
  • FIG. 4 is a functional block diagram showing a schematic configuration of the camera 1 and the PC 3.
  • the camera 1 includes an imaging unit 21, a video storage unit 22, a video processing unit 23, a video output unit 24, a statistical information generation unit 25, a control unit 26, a user authentication unit 27, a timer 28, and a return.
  • a time setting unit 29 and an interface 30 are provided.
  • the imaging unit 21 includes an imaging element and its control circuit, and outputs an image obtained by imaging the monitoring area.
  • the video output from the imaging unit 21 is stored in the video storage unit 22.
  • the video storage unit 22 includes a storage device such as a memory card, a hard disk drive, and a solid state drive. Since this video storage unit 22 is built in the camera 1, a storage device having a relatively small capacity is employed, and the latest video is stored within the range of the storage capacity.
  • a mask process for changing the inside of a person's outline into a mask image is performed on the video.
  • the processing performed by the video processing unit 23 will be described in detail later.
  • a process of outputting either the mask processed video subjected to the mask processing in the video processing unit 23 or the unprocessed video not subjected to the mask processing Is done.
  • a state in which a mask processed image is output is a first output mode
  • a state in which an unprocessed image is output is a second output mode.
  • the video output from the imaging unit 21 is input to the video processing unit 23 and the video output unit 24. Further, in the mode of reproducing past video, the video processing unit 23 and the video output unit 24 acquire the video from the video storage unit 22.
  • the timer 28 counts the elapsed time from the time when the PC 3 does not request video output and the video output unit 24 shifts to a pause state in which video output is not performed, and the elapsed time reaches a predetermined return time. Then, a process of outputting a notification indicating that the return time has been reached to the control unit 26 is performed.
  • the return time setting unit 29 processing for setting the return time used by the timer 28 is performed.
  • the return time is set according to the operation input of the user who inputs an arbitrary time, and the user can arbitrarily specify the return time.
  • authentication information relating to a user who has an authority to view an unprocessed video is held, and the user who browses the video on the PC 3 by checking the input information input by the user on the PC 3 with the authentication information.
  • User authentication is performed to verify whether or not the user has video viewing authority.
  • control unit 26 video output control for controlling video output in the video output unit 24 is performed.
  • the control unit 26 initializes the output mode set to the first output mode for outputting the mask processing video when the own apparatus is activated. Further, the control unit 26 performs control to switch the output mode of the video output unit 24 in accordance with the user's operation input on the PC 3, and in particular, the video output only when the user authentication is successful in the user authentication unit 27.
  • the unit 24 is switched to the second output mode.
  • the control unit 26 after the video output unit 24 is switched to the second output mode, the elapsed time from the transition to the sleep state where the notification from the timer 28, that is, the video output to the PC 3 is not performed, is restored. When a notification indicating that the time has been reached is received, control for returning the video output unit 24 to the first output mode is performed.
  • the camera 1 may be provided with a switch (not shown) for switching an output mode that is operated by a user's operation, and the user may instruct the switching of the output mode with this switch. Then, control which switches the output mode of the image
  • the statistical information generation unit 25 performs processing for generating statistical information related to a person's stay in the monitoring area based on the video stored in the video storage unit 22. The processing performed by the statistical information generation unit 25 will be described in detail later.
  • the interface 30 transmits and receives information to and from the PC 3 and the recorder 2 via the LAN.
  • the PC 3 includes an interface 31, a heat map image generation unit 32, and an input / output control unit 33.
  • the interface 31 transmits / receives information to / from the camera 1 and the recorder 2 via the LAN.
  • the heat map image generation unit 32 performs a process of generating a heat map image in which statistical information generated by the statistical information generation unit 25 provided in the camera 1 is visualized.
  • the input / output control unit 33 constitutes a GUI (GRAPHICAL USER INTERFACE), displays a screen on the monitor 7, and performs user screen operations and inputs using the input device 6 such as a mouse and a keyboard on the screen. In response to the operation, instruction information and input information by the user are acquired.
  • GUI GRAINICAL USER INTERFACE
  • the input / output control unit 33 generates display information related to a monitoring screen that displays the video (mask-processed video or unprocessed video) input from the camera 1 and the heat map image generated by the heat map image generation unit 32. Is done. As a result, a monitoring screen (see FIG. 6) is displayed on the monitor 7.
  • an output mode change screen see FIG. 8
  • a user authentication screen see FIG. 8
  • a menu screen see FIG. 10
  • an authentication information setting screen see FIG. 11
  • a return time setting Processing for displaying the screen (see FIG. 12) on the monitor 7 is performed.
  • each part of the PC 3 shown in FIG. 4 is realized by causing the CPU of the PC 3 to execute an application program for monitoring (video viewing).
  • This program is pre-installed in the PC 3 as an information processing device and configured as a dedicated device, and is recorded on an appropriate program recording medium as an application program that runs on a general-purpose OS, and is also transmitted to the user via a network. It may be provided.
  • FIG. 5 shows a part of the configuration of the camera 1 and is a functional block diagram illustrating processing performed by the video processing unit 23.
  • the video processing unit 23 performs mask processing for changing the inside of a person's outline into a mask image on the video to generate a mask processing video.
  • the video processing unit 23 includes a background image generation unit 41 and a person region acquisition unit 42. And a mask image generation unit 43 and a mask processing image generation unit 44.
  • the background image generation unit 41 performs a process of generating a background image by removing a person image (foreground image) from the video.
  • a background image is generated from a plurality of videos (frames) in the most recent predetermined learning period, and the background images are sequentially updated as new videos (frames) are acquired.
  • a known technique may be used for the processing performed by the background image generation unit 41. As described above, it is preferable that the background image is sequentially updated, but a fixed background image stored and stored in advance can also be used.
  • the person area acquisition unit 42 processing for acquiring position information of an image area of a person existing in the video is performed based on the background image generated by the background image generation unit 41.
  • the person's image area is specified from the difference between the video at the time of interest (current time in real-time processing) and the background image acquired in the previous learning period.
  • a known technique may be used for the processing performed by the person area acquisition unit 42.
  • the background image in the present embodiment includes a so-called “background model”.
  • the background image generation unit 41 constructs a background model from a plurality of images in the learning period, and the person region acquisition unit 42 pays attention to the time.
  • the person's image area (foreground area) and the background area are divided by obtaining a comparison between the video and the background model, and the position information of the person's image area is acquired.
  • the mask image generation unit 43 performs a process of generating a mask image corresponding to the entire person image area based on the position information of the person image area acquired by the person area acquisition unit 42. In this process, information related to the outline of the person's image area is generated from the position information of the person's image area, and a mask image is generated in which the inside of the outline is filled with a transparent image based on the information related to the outline.
  • a process of generating a mask processing video by superimposing the mask image generated by the mask image generation unit 43 on the background image generated by the background image generation unit 41 is performed.
  • a blue mask image is superimposed on the background image in a transparent state, and the background image is seen through in the mask processed video (see FIGS. 3A and 3B).
  • FIG. 6 is an explanatory diagram showing a monitoring screen displayed on the monitor 7.
  • the monitoring screen is browsed by the user in order to grasp the customer's activity status in the store.
  • the monitoring screen includes a store selection unit 51, a start button 52, a setting button 53, and an operation mode.
  • a selection unit 54, a date display unit 55, a date setting button 56, a video operation unit 57, a video display unit 58, a heat map display unit 59, and a display time operation unit 60 are provided.
  • the store selection unit 51 the user selects a store from a pull-down menu.
  • the start button 52 is for starting the monitoring process on the PC 3.
  • the setting button 53 sets various conditions in the monitoring process. In this embodiment, when the setting button 53 is operated, a menu screen (see FIG. 10) is displayed in a pop-up.
  • the operation mode selection unit 54 selects an operation mode, and operation modes such as sales floor monitoring, product monitoring, display alert, and shortage alert are prepared. By selecting sales floor monitoring, this monitoring screen is displayed. Is displayed.
  • the date and time display section 55 displays the date and time, and the date and time setting button 56 sets the date and time.
  • a date and time setting screen (not shown) is displayed.
  • the selected date and time is displayed on the date and time display unit 55, and the video of the selected date and time is displayed on the video display unit 58.
  • the video output unit 58 displays the video output from the camera 1 as a moving image.
  • either the mask processed video or the unprocessed video is displayed on the video display unit 58 according to the output mode of the video output unit 24 (see FIG. 4) in the camera 1.
  • FIG. 6 shows the case of the first output mode, and the masked video is displayed on the video display unit 58.
  • the mode is switched to the second mode, the unprocessed video shown in FIG. 3A is displayed on the video display unit. 58.
  • the mask processed video and the unprocessed video displayed on the video display unit 58 have a single screen configuration, but other captured videos having different shooting ranges can also be displayed.
  • a thumbnail list of each sales floor is displayed, and a desired sales floor can be selected to display a video image of the sales floor.
  • a plurality of sales floor videos can be displayed on a multi-screen by a setting operation related to the video display unit 58.
  • the video operation unit 57 performs operations related to playback of the video displayed on the video display unit 58, and is provided with operation buttons for normal playback, fast forward playback, rewind playback, and stop. By operating the buttons, it is possible to browse the video over a long time efficiently.
  • the display time operation unit 60 adjusts the display time of the video displayed on the video display unit 58. By operating the display time operation unit 60, it is possible to switch to a video at a desired time. Specifically, when the slider 61 is moved using the input device 6 such as a mouse, the video at the time indicated by the slider 61 is displayed on the video display unit 58.
  • the heat map display unit 59 displays a heat map image (heat map bar) generated by the heat map image generation unit 32 (see FIG. 4) of the PC 3.
  • This heat map image represents statistical information regarding the staying status of the person, specifically, the staying frequency (the number of staying people), that is, the temporal transition state of the number of people staying in the monitoring area.
  • the numerical value of the statistical information is expressed by changing a display element (image attribute), and specifically expressed by changing a color (hue, density, etc.).
  • the staying frequency (the number of staying people) is expressed by the color intensity, and the higher the staying frequency, the darker the color.
  • the user can grasp how the stay frequency changes over time, that is, how many customers are staying at the sales floor in each time slot. It can be used for any purpose other than surveillance such as monitoring for disaster prevention and marketing analysis.
  • FIG. 7 is a functional block diagram of the main part relating to the process of generating the heat map image.
  • the statistical information generation unit 25 provided in the camera 1 generates statistical information related to a person's stay in the monitoring area
  • the heat map image generation unit 32 provided in the PC 3 generates statistical information.
  • generated by the part 25 is produced
  • the statistical information generation unit 25 of the camera 1 includes a position information acquisition unit 71, a position information storage unit 72, and a statistical processing unit 73.
  • the position information acquisition unit 71 performs processing for acquiring a video from the video storage unit 22 and acquiring position information for each person appearing in the video (frame).
  • a flow line for each person is acquired as position information for each person.
  • Information about the flow line for each person acquired by the position information acquisition unit 71 is stored in the position information storage unit 72.
  • the position information acquired by the position information acquisition unit 71 includes time information related to the detection time for each person acquired from the shooting time of the video in which the person was detected. Further, a known image recognition technique may be used for the processing performed by the position information acquisition unit 71.
  • the statistical processing unit 73 performs a temporal statistical process on the position information (flow line information) for each person stored in the position information storage unit 72 to obtain statistical information about the person's staying status. Is called.
  • the retention frequency the number of people staying
  • the number of flow lines that have passed through the target area in the target period is counted to obtain the stay frequency in the target period.
  • the statistical information generation unit 25 of the camera 1 When statistical information is generated in the statistical information generation unit 25 of the camera 1 in this way, the statistical information is transmitted from the camera 1 to the PC 3, and statistical information (retention frequency) is transmitted in the heat map image generation unit 32 of the PC 3. Is generated, and the input / output control unit 33 generates display information regarding a monitoring screen for displaying the heat map image.
  • the statistical information generation unit 25 acquires the retention frequency as statistical information and displays the heat map image related to the retention frequency.
  • the retention time that is, the time during which a person stays in the target area is displayed.
  • a heat map image related to the residence time may be displayed.
  • both the stay frequency and the stay time may be acquired, and both the heat map image related to the stay frequency and the heat map image related to the stay time may be displayed side by side.
  • the residence time in the target area for each person is obtained from the residence time for each person in the target period (the entry time and the exit time for the target area). Furthermore, the residence time may be acquired from the residence time for each person by appropriate statistical processing such as averaging.
  • FIG. 8 is an explanatory diagram illustrating a screen displayed on the monitor 7 when the output mode is changed.
  • an output mode change screen is displayed on the monitor 7.
  • the user selects whether or not to change the output mode to switch to the second output mode for outputting unprocessed video.
  • a user authentication screen is displayed on the monitor 7.
  • the user inputs a user ID and a password.
  • user authentication is performed in the user authentication unit 27 (see FIG. 4), and when the user authentication is successful, the mode is switched to the second output mode.
  • the unprocessed video is displayed on the monitoring screen.
  • the NO button is selected on the output mode change screen, the mask processing image is displayed on the monitoring screen.
  • the monitoring application is started on the PC 3 to open the monitoring screen.
  • the user authentication screen may be displayed on the monitor 7.
  • FIG. 9 is a flowchart showing a procedure of video output control performed by the control unit 26 of the camera 1.
  • the output mode set to the first output mode for outputting the mask processing video is initialized. (ST102).
  • the video output unit 24 After switching the video output unit 24 to the second output mode (ST106) and outputting the unprocessed video (ST107), there is no video output request from the PC 3, and the video output unit 24 performs video output. If there is no idle state (YES in ST108), the timer 28 starts to measure the elapsed time (ST109). If the elapsed time by the timer 28 reaches a predetermined return time (YES in ST111) without releasing the hibernation state (YES in ST110), the video output unit 24 is returned to the first output mode (ST112). Thereby, when there is a video output request from the PC 3 thereafter, the mask processed video is output from the video output unit 24 (ST113).
  • FIG. 10 is an explanatory diagram showing a menu screen displayed on the monitor 7 when setting the authentication information and the return time.
  • FIG. 11 is an explanatory diagram showing an authentication information setting screen displayed on the monitor 7.
  • FIG. 12 is an explanatory diagram showing a return time setting screen displayed on the monitor 7.
  • the main menu screen is displayed on the monitor 7.
  • setting items such as video output management and heat map setting are displayed, and the user selects one of the setting items.
  • video output management is selected on this main menu screen, a menu screen for video output management is displayed on the monitor 7.
  • setting items for user ID / password setting and return time setting are displayed, and the user selects one of the setting items.
  • an authentication information setting screen shown in FIG.
  • the user changes authentication information (a set of user ID and password).
  • the user authentication unit 27 updates the authentication information.
  • FIG. 11 shows a case where the default setting contents (user ID: ADMIN, password: 0000) are changed, and the administrator can set an arbitrary user ID and password. It should be noted that guidance for prompting the change of the authentication information may be displayed when the camera 1 is installed. In addition, a plurality of sets of user IDs and passwords may be set, and a viewing authority for unprocessed video may be given to a plurality of users.
  • the return time setting screen shown in FIG. 10 When the return time setting is selected on the video output management menu screen shown in FIG. 10, the return time setting screen shown in FIG. On the return time setting screen, the user inputs the return time used by the timer 28. In the example shown in FIG. 12, a numerical value representing the return time can be input, and the return time can be set to an arbitrary time.
  • the return time setting unit 29 When the return time is input on the return time setting screen, the return time setting unit 29 (see FIG. 4) performs processing for setting the return time.
  • the output mode of the video output unit 24 is set to the first output mode for outputting the mask-processed video that has been subjected to the mask process. Can be reduced.
  • the user authentication unit 27 of the camera 1 performs user authentication as to whether or not the person who wants to view the video on the PC 3 is a user who has the authority to browse the unprocessed video. Only when the user authentication is successful, the video output unit 24 is controlled to switch to the second output mode for outputting the unprocessed video, so that only the user who has the authority to view the unprocessed video outputs the second output. Since it is possible to switch to the mode, since it is not easily changed to the second output mode, it is possible to further reduce the risk of unprocessed video flowing out.
  • the video output unit 24 is switched to the second output mode in the control unit 26 of the camera 1, the elapsed time from the transition to the sleep state in which video output to the PC 3 is not performed. Since the video output unit 24 is controlled to return to the first output mode when the predetermined return time is reached, it is possible to avoid leaving the second output mode for outputting unprocessed video for a long period of time. Therefore, it is possible to further reduce the risk that unprocessed video flows out.
  • the statistical information for generating the heat map image displayed on the monitoring screen is generated by the statistical information generation unit 25 of the camera 1. There is no need to output a video as a source of information from the camera 1, and the risk of unprocessed video leaking can be reduced in this respect as well.
  • FIG. 13 is a functional block diagram showing a schematic configuration of the camera 101 and the recorder 102 in the second embodiment.
  • the camera 1 is a so-called network camera (IP camera) capable of network connection.
  • the camera 101 is connected to a dedicated communication cable (for example, coaxial).
  • the recorder 102 is connected via a cable.
  • the recorder (recording apparatus) 102 is configured to be connected to a network, and is connected to the PC 3 via a LAN installed in the store.
  • a time setting unit 29 is provided in the recorder 102.
  • the video output from the imaging unit 21 is output as it is from the imaging output unit 105 to the recorder 102, and the video input from the camera 1 is output from the recorder 102. Is input to the video storage unit 104 and the video processing unit 23 via the video input unit 103.
  • Each part of the recorder 102 performs the same processing as in the first embodiment, and either one of the mask processed video and the unprocessed video is output from the recorder 102 to the PC 3.
  • a large-capacity storage device such as a hard disk drive, is employed for the video storage unit 104, and a long-term video is stored.
  • the camera 101 is connected to the recorder 102 via the dedicated communication cable, and the camera 101 is not directly connected to the network, so that the risk of unprocessed video flowing out from the camera 101 is reduced. be able to. Since the recorder 102 connected to the camera 101 is set to a state in which the mask processing video is output by the initialization of the output mode performed when the own apparatus is started, there is a risk that the unprocessed video flows out from the recorder 102. Can be reduced.
  • FIG. 14 is a functional block diagram showing a schematic configuration of the camera 111 and the recorder 102 in the third embodiment.
  • the camera 111 includes the video processing unit 23. However, in the first embodiment, the video storage unit 22 provided in the camera 1 (see FIG. 4) It is omitted. In the third embodiment, as in the second embodiment, the camera 111 is connected to the recorder 102 via a dedicated communication cable (for example, a coaxial cable).
  • a dedicated communication cable for example, a coaxial cable
  • a mask-processed video obtained by performing mask processing on the video output from the imaging unit 21 by the video processing unit 23 and an unprocessed video that is not subjected to mask processing are displayed as video.
  • Output from the output unit 24 in real time Therefore, when viewing the current video on the PC 3 in real time, either the mask processed video or the unprocessed video input from the camera 111 to the recorder 102 may be output from the recorder 102 to the PC 3 as it is.
  • the recorder 102 is the same as in the second embodiment, and the video output from the camera 111 is stored in the video storage unit 104.
  • both of the masked video and unprocessed video output from the camera 111 can be stored in the video storage unit 104, but only the unprocessed video output from the camera 111 is stored in the video storage unit 104.
  • the mask processing video is output in the first output mode, if the video processing unit 23 of the recorder 102 performs the mask processing, the capacity of the video storage unit 104 can be saved.
  • the camera 111 may be configured to be able to output two systems of video output for outputting a mask processed video and an unprocessed video, respectively, so that the mask processed video and the unprocessed video can be output simultaneously. Further, the camera 111 may be provided with an output mode switching switch, and the control unit 112 may switch the output mode of the video output unit 113 based on a signal from the switch.
  • the camera 111 is connected to the recorder 102 via a dedicated communication cable, and the camera 111 is not directly connected to the network.
  • the risk of video leaking can be reduced. Since the camera 111 includes the video processing unit 23, the masked video and the unprocessed video can be output from the camera 111 in real time. Therefore, the processing of the recorder 102 in the mode for displaying the video in the store in real time. Can be simplified.
  • FIG. 15 is a functional block diagram illustrating a schematic configuration of the adapter 121 according to the fourth embodiment.
  • an adapter (video output control device) 121 that is connected to the camera 101 and controls video output to the PC 3 is interposed between the camera 101 and the PC 3.
  • the adapter 121 and the PC 3 are connected via a LAN.
  • the adapter 121 is obtained by omitting the video storage unit 104 from the recorder 102 (see FIG. 13) in the second embodiment, and functions as a network converter that connects the camera 101 configured to output video with a dedicated communication cable to the network. To do. In each part of the adapter 121, processing similar to that in the second embodiment is performed, and either one of the mask processed video and the unprocessed video is output from the adapter 121 to the PC 3.
  • a video storage unit 22 provided in the camera 1 in the first embodiment for example, a storage device such as a memory card, a hard disk drive, and a solid-state drive is built in the adapter 121, and the latest video within the range of the storage capacity. May be stored.
  • the camera 101 is connected to the adapter 121 via a dedicated communication cable and the camera 101 is not directly connected to the network, the risk of unprocessed video leaking from the camera 101 is reduced. be able to. Then, the adapter 121 connected to the camera 101 is set to a state in which the mask processing video is output by the initialization of the output mode performed when the own apparatus is started up. Can be reduced.
  • the camera 101 is configured to output the video output from the imaging unit 21 to the adapter 121 as it is.
  • the camera 111 including the video processing unit 23 in the third embodiment is not limited to this. You may make it connect with the adapter 121 in embodiment.
  • a retail store such as a convenience store
  • the present invention is not limited to such a retail store, and is not limited to a retail store such as a restaurant or a bank. It is also possible to apply. Furthermore, it is also possible to apply to uses intended for monitoring areas other than stores.
  • the camera 1 is an omnidirectional camera having a 360-degree shooting range using a fisheye lens.
  • a camera having a predetermined angle of view a so-called box camera, may be used. Is possible.
  • the said embodiment demonstrated the example which used PC3 of the store connected to the camera 1, the recorder 102, and the adapter 121 via LAN installed in the store as the browsing apparatus which browses the image
  • the head office PC 11 may be connected to the camera 1, the recorder 102 and the adapter 121 via a network outside the store, that is, a wide area network such as a WAN, and the head office PC 11 may be used as a browsing device.
  • a portable terminal such as the smartphone 13 or the tablet terminal 14 may be used as a browsing device, whereby the video in the store can be browsed at any place such as a place outside the store or headquarters.
  • the PC 3 that is the browsing device is provided with the heat map image generation unit 32 and the input / output control unit 33 that configures the GUI. It can also be provided in a recorder or an adapter. Further, the heat map image generation unit and the input / output control unit may be provided in the cloud computer 12 constituting the cloud computing system as shown in FIG. In this case, a browsing device such as the PC 3 may display a required screen on a monitor using a web browser.
  • the user authentication is performed by allowing the user to input a set of a user ID and a password.
  • the user authentication may be performed using only the password.
  • various known user authentication methods can be employed. For example, card authentication using an IC card such as an employee card or biometric authentication such as fingerprint authentication may be performed.
  • the video processing unit 23 performs the mask processing for changing the inside of the outline of the person to the mask image on the captured video.
  • the privacy of a person may be protected by different video processing, for example, the privacy of a person may be protected using a secret sharing technique.
  • the camera image processing unit generates a low-frequency image obtained by extracting a low-frequency component of the spatial frequency from the captured image, and a difference image that is a difference between the captured image and the low-frequency image, and the camera or the like Only the low-frequency video is output to the viewing device, and the differential video is stored in the recorder. Then, only when the browsing device accesses the recorder and the user authentication is successful, the differential video is output from the recorder to the browsing device, and the browsing device synthesizes the low-frequency video and the differential video to capture the original image. The video can be restored. Thereby, only the user who has browsing authority can browse the original captured video.
  • the low-frequency video does not include information about fine parts such as contours expressed by high-frequency components, and the low-frequency video is a video whose focus is blurred or mosaiced. For this reason, although the rough situation of the monitoring area can be grasped in the low-frequency video, the detailed situation of the monitoring area cannot be confirmed, so that the customer's privacy can be protected.
  • the low-frequency video may be one obtained by extracting the low-frequency component only for the image area of the person in addition to the low-frequency component extracted for the entire video.
  • the video processing unit of the camera performs video processing for protecting the privacy of a person.
  • video processing may be performed by a recorder or an adapter.
  • the imaging device, the recording device, and the video output control device according to the present invention have an effect of reducing a risk that an unprocessed video that has not been subjected to mask processing flows out.
  • Imaging device for outputting to browsing device, recording device for storing video output from imaging device and outputting the video to browsing device, and video output control device for controlling video output to browsing device connected to imaging device It is useful as such.
  • Imaging device 2 Recorder 3 PC (browsing device) 6 Input device 7 Monitor 11 PC 13 Smartphone 14 Tablet Terminal 21 Imaging Unit 22 Video Storage Unit 23 Video Processing Unit 24 Video Output Unit 26 Control Unit 27 User Authentication Unit 28 Timer 29 Return Time Setting Unit 102 Recorder (Recording Device) 111 Camera (imaging device) 121 Adapter (video output control device)

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

 監視エリアを撮影した映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する映像処理部(23)と、第1の出力モードで、マスク処理が施されたマスク処理映像を出力し、第2の出力モードで、マスク処理が施されていない未処理映像を出力する映像出力部(24)と、ユーザの指示に応じて、映像出力部の出力モードを切り替える制御部(26)と、を備え、制御部は、自装置の起動時に、第1の出力モードに設定する出力モードの初期化を行うものとする。

Description

撮像装置、録画装置および映像出力制御装置
 本発明は、監視エリアを撮像してその映像を閲覧装置に出力する撮像装置、撮像装置から出力される映像を蓄積してその映像を閲覧装置に出力する録画装置、および撮像装置に接続されて閲覧装置への映像出力を制御する映像出力制御装置に関するものである。
 コンビニエンスストアなどの店舗においては、店舗内を撮影するカメラを設置して、そのカメラの映像で店舗内の状況を監視する監視システムが広く普及しているが、防犯や防災のための監視の目的以外、すなわち、店舗の効率的な運営を図るためのマーケティング分析や、顧客サービスの向上などを目的として映像を利用する場合には、顧客のプライバシーを保護する必要がある。
 このような顧客のプライバシーを保護する要望に対して、従来、カメラで撮影された映像内の人物領域を特定のマスク画像に変更するマスク処理(隠蔽処理)を行う技術が知られている(特許文献1,2参照)。特に、特許文献1に開示された技術では、マスク画像に特徴点を表示させることで、人物の身体の動きを把握しやすくしている。また、特許文献2に開示された技術では、マスク画像を透過性とすることで、背景に対して人物の行動を把握しやすくしている。
特開2013-186838号公報 特許第5159381号公報
 本発明の撮像装置は、監視エリアを撮像してその映像を閲覧装置に出力する撮像装置であって、前記映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する映像処理部と、第1の出力モードで、前記マスク処理が施されたマスク処理映像を出力し、第2の出力モードで、前記マスク処理が施されていない未処理映像を出力する映像出力部と、ユーザの指示に応じて、前記映像出力部の前記出力モードを切り替える制御部と、を備え、前記制御部は、自装置の起動時に、前記第1の出力モードに設定する出力モードの初期化を行う構成とする。
第1実施形態に係るモニタリングシステムの全体構成図 店舗のレイアウトおよびカメラ1の設置状況を説明する店舗の平面図 カメラ1で行われる処理の概要を説明する説明図 カメラ1で行われる処理の概要を説明する説明図 カメラ1およびPC3の概略構成を示す機能ブロック図 映像処理部23で行われる処理を説明する機能ブロック図 モニタ7に表示されるモニタリング画面を示す説明図 ヒートマップ画像を生成する処理に係る要部の機能ブロック図 出力モードを変更する際にモニタ7に表示される画面を説明する説明図 カメラ1の制御部26で行われる映像出力制御の手順を示すフロー図 認証情報および復帰時間を設定する際にモニタ7に表示されるメニュー画面を示す説明図 モニタ7に表示される認証情報設定画面を示す説明図 モニタ7に表示される復帰時間設定画面を示す説明図 第2実施形態におけるカメラ101およびレコーダ102の概略構成を示す機能ブロック図 第3実施形態におけるカメラ111およびレコーダ102の概略構成を示す機能ブロック図 第4実施形態におけるアダプタ121の概略構成を示す機能ブロック図
 本発明の実施の形態の説明に先立ち、従来技術における問題点を簡単に説明する。近年、カメラに、ネットワーク接続可能な、いわゆるIPカメラを採用し、また、レコーダにもネットワーク接続可能なものを採用して、このカメラやレコーダにPCなどの閲覧装置をネットワークを介して接続して、映像を閲覧するシステムが普及しており、このようなシステムでは、マスク処理が施されていない未処理映像が流出するリスクがあり、プライバシー保護の観点から改善が望まれるが、前記従来の技術では、このような未処理映像の流出の問題に関して何の考慮もなされておらず、未処理映像が流出するリスクを十分に低減することができないという問題があった。
 前記課題を解決するためになされた第1の発明は、監視エリアを撮像してその映像を閲覧装置に出力する撮像装置であって、前記映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する映像処理部と、第1の出力モードで、前記マスク処理が施されたマスク処理映像を出力し、第2の出力モードで、前記マスク処理が施されていない未処理映像を出力する映像出力部と、ユーザの指示に応じて、前記映像出力部の前記出力モードを切り替える制御部と、を備え、前記制御部は、自装置の起動時に、前記第1の出力モードに設定する出力モードの初期化を行う構成とする。
 これによると、自装置の起動時に行われる出力モードの初期化により、マスク処理が施されたマスク処理映像を出力する状態に設定されるため、マスク処理が施されていない未処理映像が流出するリスクを低減することができる。
 また、第2の発明は、更に、前記未処理映像の閲覧権限を有するユーザに関する認証情報を保持し、前記閲覧装置においてユーザにより入力された入力情報を前記認証情報と照合して、ユーザ認証を行うユーザ認証部を備え、前記制御部は、前記ユーザ認証部においてユーザ認証が成功した場合にのみ、前記映像出力部を前記第2の出力モードに切り替える制御を行う構成とする。
 これによると、未処理映像の閲覧権限を有するユーザのみが、未処理映像を出力する第2の出力モードに切り替えることができ、容易に第2の出力モードに変更されないため、未処理映像が流出するリスクをより一層低減することができる。
 また、第3の発明は、前記認証情報が、パスワードである構成とする。
 これによると、パスワードが配布されたユーザのみ、未処理映像を出力する第2の出力モードに切り替えることができる。
 また、第4の発明は、前記認証情報が、ユーザIDおよびパスワードのセットである構成とする。
 これによると、予め登録されたユーザのみ、未処理映像を出力する第2の出力モードに切り替えることができる。
 また、第5の発明は、前記制御部は、前記映像出力部を前記第2の出力モードに切り替えた後に、前記閲覧装置への映像出力が行われない休止状態に移行した時点からの経過時間が所定の復帰時間に達すると、前記映像出力部を前記第1の出力モードに戻す制御を行う構成とする。
 これによると、閲覧装置で映像を閲覧しない状態が継続すると、マスク処理映像を出力する第1の出力モードに復帰することから、未処理映像を出力する第2の出力モードが長期間放置されることを避けることができるため、未処理映像が流出するリスクをより一層低減することができる。
 また、第6の発明は、更に、任意の時間を入力するユーザの操作入力に応じて、前記復帰時間を設定する復帰時間設定部を備えた構成とする。
 これによると、復帰時間をユーザが自由に指定することができる。
 また、第7の発明は、撮像装置から出力される映像を蓄積してその映像を閲覧装置に出力する録画装置であって、前記撮像装置から入力される映像を蓄積する映像蓄積部と、この映像蓄積部に蓄積された映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する映像処理部と、第1の出力モードで、前記マスク処理が施されたマスク処理映像を出力し、第2の出力モードで、前記マスク処理が施されていない未処理映像を出力する映像出力部と、ユーザの指示に応じて、前記映像出力部の前記出力モードを切り替える制御部と、を備え、前記制御部は、自装置の起動時に、前記第1の出力モードに設定する出力モードの初期化を行う構成とする。
 これによると、第1の発明と同様に、マスク処理が施されていない未処理映像が流出するリスクを低減することができる。
 また、第8の発明は、撮像装置に接続されて閲覧装置への映像出力を制御する映像出力制御装置であって、前記撮像装置から入力される映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する映像処理部と、第1の出力モードで、前記マスク処理が施されたマスク処理映像を出力し、第2の出力モードで、前記マスク処理が施されていない未処理映像を出力する映像出力部と、ユーザの指示に応じて、前記映像出力部の前記出力モードを切り替える制御部と、を備え、前記制御部は、自装置の起動時に、前記第1の出力モードに設定する出力モードの初期化を行う構成とする。
 これによると、第1の発明と同様に、マスク処理が施されていない未処理映像が流出するリスクを低減することができる。
 以下、本発明の実施の形態を、図面を参照しながら説明する。
 (第1実施形態)
 図1は、第1実施形態に係るモニタリングシステムの全体構成図である。このモニタリングシステムは、コンビニエンスストアなどの小売チェーン店などを対象にして構築されるものであり、カメラ(撮像装置)1と、レコーダ(録画装置)2と、PC(閲覧装置)3と、を備えている。
 カメラ1は店舗(施設)内の適所に設置され、カメラ1により店舗内が撮像される。このカメラ1はネットワーク接続が可能な、いわゆるIPカメラであり、レコーダ2もネットワーク接続が可能に構成され、このカメラ1およびレコーダ2は店舗内に設置されたLANに接続されており、カメラ1から出力される映像がレコーダ2に蓄積される。
 また、PC3もLANに接続されており、カメラ1およびレコーダ2から出力される映像がPC3に入力され、PC3に接続されたモニタ(表示装置)7に映像が表示される。これにより、店長などの店舗側のユーザが、カメラ1で撮影された店舗内の映像をリアルタイムで閲覧することができ、また、レコーダ2に録画された過去の店舗内の映像を閲覧することができる。
 また、カメラ1、レコーダ2およびPC3は、複数の店舗の各々に設置されており、複数の店舗を総括する本部にはPC11が設置されており、このPC11は、WANを介して、各店舗のカメラ1およびレコーダ2に接続されている。これにより、本部側のユーザ、例えば、担当する地域の各店舗に対して指導や提案を行うスーパーバイザーなどが、カメラ1で撮影された店舗内の映像をリアルタイムで閲覧することができ、また、レコーダ2に録画された過去の店舗内の映像を閲覧することができる。
 次に、店舗のレイアウトおよびカメラ1の設置状況について説明する。図2は、店舗のレイアウトおよびカメラ1の設置状況を説明する店舗の平面図である。
 店舗には、出入口、陳列棚およびレジカウンタなどが設けられている。陳列棚は、弁当、ペットボトル、おにぎりなどの商品の種類に分けて設置されている。顧客は、出入口から入店し、陳列棚の間の通路を通って店舗内を移動し、所望の商品が見つかると、その商品を持ってレジカウンタに向かい、レジカウンタで会計(代金の支払い)を済ませた後に出入口から退店する。
 また、店舗には、店舗内(監視エリア)を撮影する複数のカメラ1が設置されている。このカメラ1は、店舗内の天井の適宜な位置に設置されている。特に、図2に示す例では、カメラ1に、魚眼レンズを用いて360度の撮影範囲を有する全方位カメラが採用され、このカメラ1により、出入口から店舗に出入りする人物や店舗内に滞在する人物を撮影することができる。
 次に、図1に示したカメラ1で行われる処理の概要について説明する。図3Aと図3Bは、カメラ1で行われる処理の概要を説明する説明図である。
 カメラ1により撮影された映像を、防犯や防災のための監視の目的で閲覧する場合には問題とならないが、防犯や防災のための監視の目的以外、すなわち、店舗の効率的な運営を図るためのマーケティング分析や、顧客サービスの向上などを目的として映像を利用する場合には、顧客のプライバシーを保護する必要がある。
 そこで、本実施形態では、映像内に現れる人物の画像領域の位置情報を取得して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する。具体的には、映像から人物の画像領域を検出して、人物の画像領域の輪郭に関する情報を取得し、その輪郭に関する情報に基づいて、人物の画像領域の全体に対応したマスク画像(人物の輪郭内部を塗りつぶした画像)を生成して、このマスク画像を背景画像上に重畳したマスク処理映像を生成する。図3Aに示す例では、映像に5人の人物P1~P5が写っており、図3Bに示すように、人物P1~P5の各画像領域がマスク画像M1~M5に変更されている。
 そして、本実施形態では、防犯や防災のための監視の目的で映像を閲覧するユーザの場合には、図3Aに示す未処理映像(動画)が表示され、一方、マーケティング分析などの監視以外の目的で映像を閲覧するユーザの場合には、図3Bに示すマスク処理映像(動画)が表示され、このようなマスク処理映像でも、映像内のマスク画像を観察することで、人物の動きをユーザが把握することができる。
 なお、本実施形態では、マスク画像を透過性としているため、背景画像が透けて見える状態となっている。また、マスク画像の表示要素、例えば色、濃淡、パターン(模様)、輪郭線、および透過率などの表示要素は、予め設定されたものとしてもよいが、マスク画像の表示要素をユーザが適宜に変更することができるようにしてもよい。
 次に、図1に示したカメラ1およびPC3の概略構成について説明する。図4は、カメラ1およびPC3の概略構成を示す機能ブロック図である。
 カメラ1は、撮像部21と、映像蓄積部22と、映像処理部23と、映像出力部24と、統計情報生成部25と、制御部26と、ユーザ認証部27と、タイマー28と、復帰時間設定部29と、インタフェース30と、を備えている。
 撮像部21は、撮像素子およびその制御回路などで構成され、監視エリアを撮像した映像を出力する。この撮像部21から出力される映像は映像蓄積部22に蓄積される。
 映像蓄積部22は、メモリカード、ハードディスクドライブおよびソリッドステートドライブなどの記憶デバイスからなる。この映像蓄積部22は、カメラ1に内蔵することから、比較的小容量の記憶デバイスが採用され、記憶容量の範囲内で直近の映像が蓄積される。
 映像処理部23では、映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理が行われる。この映像処理部23で行われる処理については、後に詳しく説明する。
 映像出力部24では、制御部26からの指示に応じて、映像処理部23においてマスク処理が施されたマスク処理映像、およびマスク処理が施されていない未処理映像のいずれか一方を出力する処理が行われる。本実施形態では、マスク処理映像を出力する状態を第1の出力モードとし、未処理映像を出力する状態を第2の出力モードとする。
 なお、現在の映像をリアルタイムに表示するモードでは、撮像部21から出力される映像が映像処理部23および映像出力部24に入力される。また、過去の映像を再生するモードでは、映像処理部23および映像出力部24が映像蓄積部22から映像を取得する。
 タイマー28では、PC3からの映像の出力要求がなく、映像出力部24で映像出力が行われない休止状態に移行した時点からの経過時間を計時して、その経過時間が所定の復帰時間に達すると、復帰時間に達したことを表す通知を制御部26に出力する処理が行われる。
 復帰時間設定部29では、タイマー28で用いられる復帰時間を設定する処理が行われる。本実施形態では、任意の時間を入力するユーザの操作入力に応じて復帰時間が設定され、ユーザが復帰時間を任意に指定することができる。
 ユーザ認証部27では、未処理映像の閲覧権限を有するユーザに関する認証情報が保持され、PC3においてユーザにより入力された入力情報を認証情報と照合して、PC3において映像を閲覧するユーザが、未処理映像の閲覧権限を有するユーザか否かを検証するユーザ認証が行われる。
 制御部26では、映像出力部24での映像出力を制御する映像出力制御が行われる。特に制御部26では、自装置の起動時に、マスク処理映像を出力する第1の出力モードに設定する出力モードの初期化が行われる。また、制御部26では、PC3でのユーザの操作入力に応じて、映像出力部24の出力モードを切り替える制御が行われ、特に、ユーザ認証部27においてユーザ認証が成功した場合にのみ、映像出力部24を第2の出力モードに切り替える。また、制御部26では、映像出力部24を第2の出力モードに切り替えた後に、タイマー28からの通知、すなわちPC3への映像出力が行われない休止状態に移行した時点からの経過時間が復帰時間に達したことを表す通知を受けると、映像出力部24を第1の出力モードに復帰させる制御が行われる。
 なお、カメラ1に、ユーザの操作で動作する出力モード切換用のスイッチ(図示せず)を設けて、このスイッチによりユーザが出力モードの切り替えを指示するものとしてもよく、この場合、制御部26では、スイッチの出力信号に基づいて映像出力部24の出力モードを切り替える制御を行う。
 統計情報生成部25では、映像蓄積部22に蓄積された映像に基づいて、監視エリア内での人物の滞留状況に関する統計情報を生成する処理が行われる。この統計情報生成部25で行われる処理については、後に詳しく説明する。
 インタフェース30は、LANを介してPC3やレコーダ2などとの間で情報の送受信を行うものである。
 PC3は、インタフェース31と、ヒートマップ画像生成部32と、入出力制御部33と、を備えている。
 インタフェース31は、LANを介してカメラ1やレコーダ2などとの間で情報の送受信を行うものである。
 ヒートマップ画像生成部32では、カメラ1に設けられた統計情報生成部25で生成した統計情報を可視化したヒートマップ画像を生成する処理が行われる。
 入出力制御部33は、GUI(GRAPHICAL USER INTERFACE)を構成するものであり、モニタ7に画面を表示させて、その画面上でマウスおよびキーボードなどの入力デバイス6を用いたユーザの画面操作および入力操作に応じて、ユーザによる指示情報および入力情報を取得する。
 特に入出力制御部33では、カメラ1から入力された映像(マスク処理映像または未処理映像)、およびヒートマップ画像生成部32で生成したヒートマップ画像を表示するモニタリング画面に関する表示情報を生成する処理が行われる。これにより、モニタリング画面(図6参照)がモニタ7に表示される。また、入出力制御部33では、出力モード変更画面(図8参照)、ユーザ認証画面(図8参照)、メニュー画面(図10参照)、認証情報設定画面(図11参照)、および復帰時間設定画面(図12参照)をモニタ7に表示させる処理が行われる。
 なお、図4に示したPC3の各部は、PC3のCPUでモニタリング(映像閲覧)用のアプリケーションプログラムを実行させることで実現される。このプログラムは、情報処理装置としてのPC3に予め導入して専用の装置として構成する他、汎用OS上で動作するアプリケーションプログラムとして適宜なプログラム記録媒体に記録して、またネットワークを介して、ユーザに提供されるようにしてもよい。
 次に、図4に示した映像処理部23で行われる処理について説明する。図5は、カメラ1の構成の一部を表したものであり、映像処理部23で行われる処理を説明する機能ブロック図である。
 映像処理部23は、映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施して、マスク処理映像を生成するものであり、背景画像生成部41と、人物領域取得部42と、マスク画像生成部43と、マスク処理映像生成部44と、を備えている。
 背景画像生成部41では、映像から人物の画像(前景画像)を除去した背景画像を生成する処理が行われる。この処理では、直近の所定の学習期間における複数の映像(フレーム)から背景画像を生成し、新たな映像(フレーム)を取得するのに応じて背景画像が逐次更新される。この背景画像生成部41で行われる処理には、公知の技術を用いればよい。上述のように、背景画像が逐次更新されることが好ましいが、予め記憶保存しておいた固定の背景画像を用いることもできる。
 人物領域取得部42では、背景画像生成部41で生成した背景画像に基づいて、映像内に存在する人物の画像領域の位置情報を取得する処理が行われる。この処理では、注目する時刻(リアルタイム処理では現在時刻)の映像と、それ以前の学習期間で取得した背景画像との差分から、人物の画像領域を特定する。なお、この人物領域取得部42で行われる処理にも、公知の技術を用いればよい。
 なお、本実施形態における背景画像には、いわゆる「背景モデル」が含まれ、背景画像生成部41において、学習期間における複数の画像から背景モデルを構築し、人物領域取得部42において、注目する時刻の映像と背景モデルとの比較により、人物の画像領域(前景領域)と背景領域とを分割して、人物の画像領域の位置情報を取得する。
 マスク画像生成部43では、人物領域取得部42で取得した人物の画像領域の位置情報に基づいて、人物の画像領域の全体に対応するマスク画像を生成する処理が行われる。この処理では、人物の画像領域の位置情報から、人物の画像領域の輪郭に関する情報を生成し、その輪郭に関する情報に基づいて、輪郭の内部を透過性の画像で塗り潰したマスク画像を生成する。
 マスク処理映像生成部44では、背景画像生成部41で生成した背景画像上に、マスク画像生成部43で生成したマスク画像を重畳して、マスク処理映像を生成する処理が行われる。本実施形態では、例えば、青色のマスク画像を透過状態で背景画像上に重畳し、マスク処理映像では、背景画像が透けて見える状態となるようにしている(図3A,図3B参照)。
 次に、図4に示したモニタ7に表示されるモニタリング画面について説明する。図6は、モニタ7に表示されるモニタリング画面を示す説明図である。
 このモニタリング画面は、店舗内での顧客の活動状況を把握するためにユーザが閲覧するものであり、このモニタリング画面には、店舗選択部51と、開始ボタン52と、設定ボタン53と、動作モード選択部54と、日時表示部55と、日時設定ボタン56と、映像操作部57と、映像表示部58と、ヒートマップ表示部59と、表示時刻操作部60と、が設けられている。
 店舗選択部51では、プルダウンメニューにより店舗をユーザが選択する。開始ボタン52は、PC3でモニタリング処理を開始させるものである。設定ボタン53は、モニタリング処理での各種の条件を設定するものであり、本実施形態では、設定ボタン53を操作すると、ポップアップでメニュー画面(図10参照)が表示される。動作モード選択部54は、動作モードを選択するものであり、売場モニタリング、商品モニタリング、陳列アラート、および欠品アラートなどの動作モードが用意されており、売場モニタリングを選択することで、このモニタリング画面が表示される。
 日時表示部55は、日時を表示するものであり、日時設定ボタン56は、日時を設定するものであり、日時設定ボタン56を操作すると、図示しない日時設定画面が表示され、ここで日時を選択することで、選択した日時が日時表示部55に表示され、また、選択した日時の映像が映像表示部58に表示される。
 映像表示部58には、カメラ1から出力された映像が動画で表示される。本実施形態では、カメラ1における映像出力部24(図4参照)の出力モードに応じてマスク処理映像および未処理映像のいずれかが映像表示部58に表示される。図6は第1の出力モードの場合を示しており、映像表示部58にマスク処理映像が表示されているが、第2のモードに切り替えると、図3Aに示した未処理映像が映像表示部58に表示される。なお、ここでは、映像表示部58に表示されるマスク処理映像や未処理映像は、1画面構成となっているが、撮影範囲の異なる他の撮影映像を表示することもできる。その場合、売場モニタリングの開始に伴い、例えば、各売場のサムネイル一覧などを表示し、所望の売場を選択することで、その売場の撮影映像を表示することができる。また、映像表示部58に関する設定操作によってマルチ画面で複数の売場の映像を表示することもできる。
 映像操作部57は、映像表示部58に表示される映像の再生に関する操作を行うものであり、通常再生、早送り再生、巻き戻し再生、および停止の各操作ボタンが設けられており、これらの操作ボタンを操作することで、長時間に及ぶ映像を効率的に閲覧することができる。
 表示時刻操作部60は、映像表示部58に表示される映像の表示時刻を調整するものであり、この表示時刻操作部60を操作することで、所望の時刻の映像に切り替えることができる。具体的には、マウスなどの入力デバイス6を用いてスライダ61をずらすと、そのスライダ61が指し示す時刻の映像が映像表示部58に表示される。
 ヒートマップ表示部59には、PC3のヒートマップ画像生成部32(図4参照)で生成されたヒートマップ画像(ヒートマップバー)が表示される。このヒートマップ画像は、人物の滞留状況に関する統計情報、具体的には滞留度数(滞留人数)、すなわち監視エリア内に滞留する人物の人数の時間的な推移状況を表すものである。このヒートマップ画像では、統計情報の数値の大きさが、表示要素(画像の属性)を変更することで表現され、具体的には色(色相や濃度など)を変更することで表現される。特に、図6に示す例では、色の濃さで滞留度数(滞留人数)が表現されており、滞留度数が高いほど色が濃くなる。
 このヒートマップ画像により、滞留度数の時間的な推移状況、すなわち各時間帯でどの程度の人数の顧客が売場に滞留しているかをユーザが把握することができ、このヒートマップ画像は、防犯や防災のための監視の用途およびマーケティング分析などの監視以外の用途のいずれでも活用することができる。
 次に、図6に示したモニタリング画面に表示されるヒートマップ画像を生成する処理について説明する。図7は、ヒートマップ画像を生成する処理に係る要部の機能ブロック図である。
 本実施形態では、カメラ1に設けられた統計情報生成部25において、監視エリア内での人物の滞留状況に関する統計情報を生成し、PC3に設けられたヒートマップ画像生成部32において、統計情報生成部25で生成した統計情報を可視化したヒートマップ画像を生成する。
 カメラ1の統計情報生成部25は、位置情報取得部71と、位置情報蓄積部72と、統計処理部73と、を備えている。
 位置情報取得部71は、映像蓄積部22から映像を取得して、映像(フレーム)に出現する人物ごとの位置情報を取得する処理が行われる。本実施形態では、人物ごとの位置情報として、人物ごとの動線を取得する。この位置情報取得部71で取得した人物ごとの動線に関する情報は、位置情報蓄積部72に蓄積される。なお、位置情報取得部71で取得する位置情報には、人物が検出された映像の撮影時刻から取得した人物ごとの検出時刻などに関する時間情報が含まれる。また、この位置情報取得部71で行われる処理には、公知の画像認識技術を用いればよい。
 統計処理部73では、位置情報蓄積部72に蓄積された人物ごとの位置情報(動線情報)に対して時間的な統計処理を行って、人物の滞留状況に関する統計情報を取得する処理が行われる。本実施形態では、統計情報として、滞留度数(滞留人数)、すなわち対象エリア内に滞留する人物の人数を取得する。この滞留度数を取得する処理では、対象期間において対象エリアを通過した動線の本数をカウントして、対象期間における滞留度数を求める。
 このようにして、カメラ1の統計情報生成部25において統計情報が生成されると、この統計情報がカメラ1からPC3に送信され、PC3のヒートマップ画像生成部32において、統計情報(滞留度数)を可視化したヒートマップ画像を生成する処理が行われ、入出力制御部33において、ヒートマップ画像を表示するモニタリング画面に関する表示情報が生成される。
 なお、本実施形態では、統計情報生成部25において統計情報として滞留度数を取得して、滞留度数に関するヒートマップ画像を表示するようにしたが、滞留時間、すなわち対象エリア内で人物が滞留する時間を取得して、滞留時間に関するヒートマップ画像を表示するようにしてもよい。さらに、滞留度数および滞留時間の双方を取得して、滞留度数に関するヒートマップ画像と滞留時間に関するヒートマップ画像との両方を並べて表示するようにしてもよい。
 また、統計情報として滞留時間を取得する場合には、まず、対象期間における人物ごとの滞留時刻(対象エリアに対する進入時刻および退出時刻)から、人物ごとの対象エリアでの滞留時間を取得し、次に、この人物ごとの滞留時間から、平均化などの適宜な統計処理により滞留時間を取得すればよい。
 次に、出力モードを変更する操作について説明する。図8は、出力モードを変更する際にモニタ7に表示される画面を説明する説明図である。
 モニタリング画面(図6参照)における動作モード選択部54で売場モニタリングを選択する操作を行うと、出力モード変更画面がモニタ7に表示される。この出力モード変更画面では、未処理映像を出力する第2の出力モードに切り換える出力モードの変更を行うか否かをユーザが選択する。この出力モード変更画面で、YESボタンを操作すると、ユーザ認証画面がモニタ7に表示される。このユーザ認証画面では、ユーザIDおよびパスワードをユーザが入力する。このユーザ認証画面で、ユーザIDおよびパスワードを入力して決定ボタンを操作すると、ユーザ認証部27(図4参照)においてユーザ認証が行われ、ユーザ認証が成功すると、第2の出力モードに切り換えられて、モニタリング画面に未処理映像が表示される。一方、出力モード変更画面で、NOボタンを選択すると、モニタリング画面にマスク処理映像が表示される。
 なお、カメラ1に、出力モード切換用のスイッチを設けて、このスイッチでユーザが第2の出力モードへの切り替えを指示した場合には、PC3においてモニタリング用のアプリケーションを起動させてモニタリング画面を開く操作を行った際に、ユーザ認証画面をモニタ7に表示させるようにすればよい。
 次に、図4に示したカメラ1の制御部26で行われる映像出力制御の手順について説明する。図9は、カメラ1の制御部26で行われる映像出力制御の手順を示すフロー図である。
 カメラ1の制御部26では、カメラ1が起動する、すなわち、カメラ1の電源が投入されると(ST101)、マスク処理映像を出力する第1の出力モードに設定する出力モードの初期化が行われる(ST102)。
 ついで、モニタ7に出力モード変更画面(図8参照)を表示させて、この出力モード変更画面で、未処理映像を出力する第2の出力モードに切り換える出力モードの変更をユーザが選択すると(ST103でYES)、モニタ7にユーザ認証画面(図8参照)を表示させて、このユーザ認証画面で、ユーザIDおよびパスワードをユーザに入力させる(ST104)。そして、ユーザ認証部27においてユーザ認証が成功すると(ST105でYES)、映像出力部24を第2の出力モードに切り換える制御が行われ(ST106)、映像出力部24から未処理映像を出力させる(ST107)。
 一方、出力モード変更画面(図8参照)で、第2の出力モードに切り換える出力モードの変更をユーザが選択しない場合(ST103でNO)や、ユーザ認証が失敗した場合(ST105でNO)には、映像出力部24を第1の出力モードのままとして、映像出力部24からマスク処理映像を出力させる(ST113)。
 また、映像出力部24を第2の出力モードに切り換えて(ST106)、未処理映像を出力させた後に(ST107)、PC3からの映像の出力要求がなくなり、映像出力部24が映像出力を行わない休止状態となると(ST108でYES)、タイマー28による経過時間の計時を開始させる(ST109)。そして、休止状態が解除されないまま(ST110でYES)、タイマー28による経過時間が所定の復帰時間に達すると(ST111でYES)、映像出力部24を第1の出力モードに復帰させる(ST112)。これにより、以降、PC3から映像の出力要求があると、映像出力部24からマスク処理映像が出力される(ST113)。
 次に、認証情報(ユーザIDおよびパスワード)および復帰時間を設定する操作について説明する。図10は、認証情報および復帰時間を設定する際にモニタ7に表示されるメニュー画面を示す説明図である。図11は、モニタ7に表示される認証情報設定画面を示す説明図である。図12は、モニタ7に表示される復帰時間設定画面を示す説明図である。
 モニタリング画面(図6参照)の設定ボタン53を操作すると、メインメニュー画面がモニタ7に表示される。このメインメニュー画面では、映像出力管理およびヒートマップ設定などの各設定項目が表示され、いずれかの設定項目をユーザが選択する。このメインメニュー画面で映像出力管理を選択すると、映像出力管理用のメニュー画面がモニタ7に表示される。この映像出力管理用のメニュー画面では、ユーザID・パスワード設定および復帰時間設定の各設定項目が表示され、いずれかの設定項目をユーザが選択する。
 なお、メインメニュー画面においてヒートマップ設定を選択すると、ヒートマップ画像を生成する際の各種の条件(対象期間など)を設定する画面がモニタ7に表示される。
 映像出力管理用のメニュー画面でユーザID・パスワード設定を選択すると、図11に示す認証情報設定画面がモニタ7に表示される。この認証情報設定画面では、認証情報(ユーザIDおよびパスワードのセット)をユーザが変更する。この認証情報設定画面で新たな認証情報が入力されると、ユーザ認証部27(図4参照)において認証情報の更新が行われる。
 図11は、デフォルトの設定内容(ユーザID:ADMIN、パスワード:0000)を変更する場合を示しており、管理者が任意のユーザIDおよびパスワードを設定することができる。なお、カメラ1の設置時に認証情報の変更を催促するガイダンスを表示するようにするとよい。また、ユーザIDおよびパスワードのセットを複数設定することができるようにして、未処理映像の閲覧権限を複数のユーザに与えるようにしてもよい。
 図10に示した映像出力管理用のメニュー画面で復帰時間設定を選択すると、図12に示す復帰時間設定画面がモニタ7に表示される。この復帰時間設定画面では、タイマー28で用いられる復帰時間をユーザが入力する。図12に示す例では、復帰時間を表す数値を入力することができ、復帰時間を任意の時間に設定することができる。この復帰時間設定画面で復帰時間が入力されると、復帰時間設定部29(図4参照)において復帰時間を設定する処理が行われる。
 以上のように本実施形態では、カメラ1がネットワークに接続されているため、マスク処理が施されていない未処理映像が流出するリスクが大きくなるが、カメラ1の制御部26において、自装置の起動時に、映像出力部24の出力モードを、マスク処理が施されたマスク処理映像を出力する第1の出力モードに設定する出力モードの初期化が行われるため、未処理映像が流出するリスクを低減することができる。
 また、本実施形態では、カメラ1のユーザ認証部27において、PC3で映像を閲覧しようとする人物が、未処理映像の閲覧権限を有するユーザか否かのユーザ認証を行い、制御部26において、ユーザ認証が成功した場合にのみ、映像出力部24を、未処理映像を出力する第2の出力モードに切り替える制御を行うようにしたため、未処理映像の閲覧権限を有するユーザのみが第2の出力モードに切り替えることができることから、容易に第2の出力モードに変更されないため、未処理映像が流出するリスクをより一層低減することができる。
 また、本実施形態では、カメラ1の制御部26において、映像出力部24を第2の出力モードに切り替えた後に、PC3への映像出力が行われない休止状態に移行した時点からの経過時間が所定の復帰時間に達すると、映像出力部24を第1の出力モードに戻す制御を行うようにしたため、未処理映像を出力する第2の出力モードが長期間放置されることを避けることができることから、未処理映像が流出するリスクをより一層低減することができる。
 また、本実施形態では、モニタリング画面(図6参照)に表示されるヒートマップ画像を生成するための統計情報を、カメラ1の統計情報生成部25で生成するようにしており、これにより、統計情報の元になる映像をカメラ1から出力する必要がなく、この点でも未処理映像が流出するリスクを低減することができる。
 (第2実施形態)
 次に、第2実施形態に係るモニタリングシステムについて説明する。なお、ここで特に言及しない点は第1実施形態と同様である。図13は、第2実施形態におけるカメラ101およびレコーダ102の概略構成を示す機能ブロック図である。
 第1実施形態(図4参照)では、カメラ1を、ネットワーク接続が可能な、いわゆるネットワークカメラ(IPカメラ)としたが、この第2実施形態では、カメラ101が、専用の通信ケーブル(例えば同軸ケーブル)を介してレコーダ102に接続されている。レコーダ(録画装置)102はネットワーク接続が可能に構成され、店舗内に設置されたLANを介してPC3と接続されている。
 また、この第2実施形態では、第1実施形態においてカメラ1に設けられた映像処理部23、映像出力部24、統計情報生成部25、制御部26、ユーザ認証部27、タイマー28、および復帰時間設定部29が、レコーダ102に設けられており、カメラ101では、撮像部21から出力される映像がそのまま撮像出力部105からレコーダ102に出力され、レコーダ102では、カメラ1から入力された映像が映像入力部103を介して映像蓄積部104および映像処理部23に入力される。
 レコーダ102の各部では、第1実施形態と同様の処理が行われ、マスク処理映像および未処理映像のいずれか一方がレコーダ102からPC3に出力される。なお、映像蓄積部104には大容量の記憶デバイス、例えばハードディスクドライブが採用され、長期間の映像が蓄積される。
 このように本実施形態では、カメラ101が、専用の通信ケーブルを介してレコーダ102に接続され、カメラ101がネットワークに直接接続されていないため、カメラ101から未処理映像が流出するリスクを低減することができる。そして、カメラ101に接続されたレコーダ102において、自装置の起動時に行われる出力モードの初期化により、マスク処理映像を出力する状態に設定されるため、レコーダ102から未処理映像が流出するリスクを低減することができる。
 (第3実施形態)
 次に、第3実施形態に係るモニタリングシステムについて説明する。なお、ここで特に言及しない点は第1実施形態と同様である。図14は、第3実施形態におけるカメラ111およびレコーダ102の概略構成を示す機能ブロック図である。
 この第3実施形態では、第1実施形態と同様に、カメラ111が映像処理部23を備えているが、第1実施形態においてカメラ1(図4参照)に設けられていた映像蓄積部22が省略されている。また、この第3実施形態では、第2実施形態と同様に、カメラ111が専用の通信ケーブル(例えば同軸ケーブル)を介してレコーダ102に接続されている。
 この第3実施形態では、カメラ111において、撮像部21から出力される映像に対して映像処理部23でマスク処理が施されたマスク処理映像、およびマスク処理が施されていない未処理映像が映像出力部24からリアルタイムに出力される。したがって、PC3において現在の映像をリアルタイムに閲覧する場合には、カメラ111からレコーダ102に入力されるマスク処理映像および未処理映像のいずれか一方をそのままレコーダ102からPC3に出力すればよい。
 一方、レコーダ102は第2実施形態と同様であり、カメラ111から出力される映像が映像蓄積部104に蓄積される。ここで、カメラ111から出力されるマスク処理映像および未処理映像をともに映像蓄積部104に蓄積することも可能であるが、カメラ111から出力される未処理映像のみを映像蓄積部104に蓄積し、第1の出力モードでマスク処理映像を出力する際に、レコーダ102の映像処理部23でマスク処理を行うようにすると、映像蓄積部104の容量を節約することができる。
 なお、カメラ111は、マスク処理映像および未処理映像をそれぞれ出力する2系統の映像出力が可能なように構成して、マスク処理映像および未処理映像を同時に出力することができるようにするとよい。また、カメラ111に、出力モード切換用のスイッチを設けて、このスイッチの信号に基づいて制御部112において映像出力部113の出力モードを切り替えるようにしてもよい。
 このように本実施形態では、第2実施形態と同様に、カメラ111が、専用の通信ケーブルを介してレコーダ102に接続され、カメラ111がネットワークに直接接続されていないため、カメラ111から未処理映像が流出するリスクを低減することができる。そして、カメラ111が映像処理部23を備えているため、カメラ111からマスク処理映像および未処理映像をリアルタイムに出力することができるため、店舗内の映像をリアルタイムに表示するモードにおけるレコーダ102の処理を簡略化することができる。
 (第4実施形態)
 次に、第4実施形態に係るモニタリングシステムについて説明する。なお、ここで特に言及しない点は第1実施形態と同様である。図15は、第4実施形態におけるアダプタ121の概略構成を示す機能ブロック図である。
 この第4実施形態では、カメラ101に接続されてPC3への映像出力を制御するアダプタ(映像出力制御装置)121がカメラ101とPC3との間に介装されており、カメラ101とアダプタ121は、専用の通信ケーブルを介して接続され、アダプタ121とPC3は、LANを介して接続されている。
 アダプタ121は、第2実施形態におけるレコーダ102(図13参照)から映像蓄積部104を省略したものであり、専用の通信ケーブルで映像を出力する構成のカメラ101をネットワークに接続するネットワークコンバータとして機能する。アダプタ121の各部では、第2実施形態と同様の処理が行われ、マスク処理映像および未処理映像のいずれか一方がアダプタ121からPC3に出力される。なお、第1実施形態におけるカメラ1に設けられた映像蓄積部22、例えば、メモリカード、ハードディスクドライブおよびソリッドステートドライブなどの記憶デバイスをアダプタ121へ内蔵し、その記憶容量の範囲内で直近の映像を蓄積するようにしてもよい。
 このように本実施形態では、カメラ101が、専用の通信ケーブルを介してアダプタ121に接続され、カメラ101がネットワークに直接接続されていないため、カメラ101から未処理映像が流出するリスクを低減することができる。そして、カメラ101に接続されたアダプタ121において、自装置の起動時に行われる出力モードの初期化により、マスク処理映像を出力する状態に設定されるため、アダプタ121から未処理映像が流出するリスクを低減することができる。
 なお、本実施形態では、カメラ101を、撮像部21から出力される映像をそのままアダプタ121に出力する構成のものとしたが、第3実施形態における映像処理部23を備えたカメラ111を、本実施形態におけるアダプタ121に接続するようにしてもよい。
 以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本発明に係る撮像装置、録画装置および映像出力制御装置の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。
 例えば、前記の実施形態では、コンビニエンスストアなどの小売店舗の例について説明したが、このような小売店舗に限定されるものではなく、小売店舗以外の業務形態の店舗、例えば飲食店や銀行などに適用することも可能である。さらに、店舗以外の監視エリアを対象とした用途に適用することも可能である。
 また、前記の実施形態では、図2に示したように、カメラ1を、魚眼レンズを用いて360度の撮影範囲を有する全方位カメラとしたが、所定の画角を有するカメラ、いわゆるボックスカメラでも可能である。
 また、前記の実施形態では、店舗に設置されたLANを介してカメラ1、レコーダ102およびアダプタ121に接続された店舗のPC3を、店舗内の映像を閲覧する閲覧装置とした例について説明したが、図1に示したように、店舗外のネットワーク、すなわちWANなどの広域ネットワークを介してカメラ1、レコーダ102およびアダプタ121に本部のPC11を接続して、この本部のPC11を閲覧装置としてもよく、さらに、スマートフォン13やタブレット端末14などの携帯型端末を閲覧装置としてもよく、これにより店舗や本部の他に外出先などの任意の場所で店舗内の映像を閲覧することができる。
 また、前記の実施形態では、閲覧装置であるPC3に、ヒートマップ画像生成部32やGUIを構成する入出力制御部33を設けたが、このヒートマップ画像生成部や入出力制御部をカメラやレコーダやアダプタに設けることも可能である。さらに、ヒートマップ画像生成部や入出力制御部を、図1に示したように、クラウドコンピューティングシステムを構成するクラウドコンピュータ12に設けるようにしてもよい。この場合、PC3などの閲覧装置では、ウェブブラウザを用いて所要の画面をモニタに表示させるようにすればよい。
 また、前記の実施形態では、ユーザIDとパスワードのセットをユーザに入力させてユーザ認証を行うものとしたが、パスワードのみでユーザ認証を行うようにしてもよい。また、ユーザ認証には、公知の種々のユーザ認証方法を採用することができ、例えば、従業員カードなどのICカードによるカード認証や、指紋認証などのバイオメトリクス認証を行うようにしてもよい。
 また、前記の実施形態では、顧客のプライバシーを保護するため、映像処理部23において人物の輪郭内部をマスク画像に変更するマスク処理を撮影映像に対して実施するようにしたが、マスク処理とは異なる映像処理で人物のプライバシーを保護する、例えば、秘密分散の手法を用いて人物のプライバシーを保護するようにしてもよい。
 具体的には、カメラの映像処理部において、撮影映像から空間周波数の低周波成分を抽出した低周波映像、および撮影映像と低周波映像との差分である差分映像を生成し、カメラからPCなどの閲覧装置に対して低周波映像のみを出力し、差分映像はレコーダに蓄積する。そして、閲覧装置からレコーダにアクセスして、ユーザ認証が成功した場合にのみ、レコーダから閲覧装置に差分映像が出力され、閲覧装置では、低周波映像と差分映像とを合成することで元の撮影映像を復元することができる。これにより、閲覧権限を有するユーザのみ元の撮影映像を閲覧することができる。
 ここで、低周波映像には、高周波成分により表現される輪郭などの細かい部分に関する情報は含まれておらず、低周波映像は、焦点がボケたりモザイクをかけたりしたような映像となる。このため、低周波映像では、監視エリアの大まかな状況は把握できるものの、監視エリアの詳細な状況を確認することができないため、顧客のプライバシーを保護することができる。
 なお、低周波映像は、映像全体を対象にして低周波成分を抽出したものの他、人物の画像領域のみを対象にして低周波成分を抽出したものであってもよい。また、ここではカメラの映像処理部で人物のプライバシーを保護する映像処理を実施するものとしたが、このような映像処理をレコーダやアダプタで行うものとしてもよい。
 また、近年、モニタとして高画質化を追及した4Kテレビなどが開発されており、このような4Kテレビに対応したカメラを採用することで、人物の識別性能を高めることができ、人物が多数存在するような環境下でも、ユーザはマスク再生映像から人物の行動を容易に把握することができる。
 本発明に係る撮像装置、録画装置および映像出力制御装置は、マスク処理が施されていない未処理映像が流出するリスクを低減することができる効果を有し、監視エリアを撮像してその映像を閲覧装置に出力する撮像装置、撮像装置から出力される映像を蓄積してその映像を閲覧装置に出力する録画装置、および撮像装置に接続されて閲覧装置への映像出力を制御する映像出力制御装置などとして有用である。
1 カメラ(撮像装置)
2 レコーダ
3 PC(閲覧装置)
6 入力デバイス
7 モニタ
11 PC
13 スマートフォン
14 タブレット端末
21 撮像部
22 映像蓄積部
23 映像処理部
24 映像出力部
26 制御部
27 ユーザ認証部
28 タイマー
29 復帰時間設定部
102 レコーダ(録画装置)
111 カメラ(撮像装置)
121 アダプタ(映像出力制御装置)

Claims (8)

  1.  監視エリアを撮像してその映像を閲覧装置に出力する撮像装置であって、
     前記映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する映像処理部と、
     第1の出力モードで、前記マスク処理が施されたマスク処理映像を出力し、第2の出力モードで、前記マスク処理が施されていない未処理映像を出力する映像出力部と、
     ユーザの指示に応じて、前記映像出力部の前記出力モードを切り替える制御部と、
    を備え、
     前記制御部は、自装置の起動時に、前記第1の出力モードに設定する出力モードの初期化を行うことを特徴とする撮像装置。
  2.  更に、前記未処理映像の閲覧権限を有するユーザに関する認証情報を保持し、前記閲覧装置においてユーザにより入力された入力情報を前記認証情報と照合して、ユーザ認証を行うユーザ認証部を備え、
     前記制御部は、前記ユーザ認証部においてユーザ認証が成功した場合にのみ、前記映像出力部を前記第2の出力モードに切り替える制御を行うことを特徴とする請求項1に記載の撮像装置。
  3.  前記認証情報が、パスワードであることを特徴とする請求項2に記載の撮像装置。
  4.  前記認証情報が、ユーザIDおよびパスワードのセットであることを特徴とする請求項2に記載の撮像装置。
  5.  前記制御部は、前記映像出力部を前記第2の出力モードに切り替えた後に、前記閲覧装置への映像出力が行われない休止状態に移行した時点からの経過時間が所定の復帰時間に達すると、前記映像出力部を前記第1の出力モードに戻す制御を行うことを特徴とする請求項2に記載の撮像装置。
  6.  更に、任意の時間を入力するユーザの操作入力に応じて、前記復帰時間を設定する復帰時間設定部を備えたことを特徴とする請求項5に記載の撮像装置。
  7.  撮像装置から出力される映像を蓄積してその映像を閲覧装置に出力する録画装置であって、
     前記撮像装置から入力される映像を蓄積する映像蓄積部と、
     この映像蓄積部に蓄積された映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する映像処理部と、
     第1の出力モードで、前記マスク処理が施されたマスク処理映像を出力し、第2の出力モードで、前記マスク処理が施されていない未処理映像を出力する映像出力部と、
     ユーザの指示に応じて、前記映像出力部の前記出力モードを切り替える制御部と、
    を備え、
     前記制御部は、自装置の起動時に、前記第1の出力モードに設定する出力モードの初期化を行うことを特徴とする録画装置。
  8.  撮像装置に接続されて閲覧装置への映像出力を制御する映像出力制御装置であって、
     前記撮像装置から入力される映像に対して、人物の輪郭内部をマスク画像に変更するマスク処理を実施する映像処理部と、
     第1の出力モードで、前記マスク処理が施されたマスク処理映像を出力し、第2の出力モードで、前記マスク処理が施されていない未処理映像を出力する映像出力部と、
     ユーザの指示に応じて、前記映像出力部の前記出力モードを切り替える制御部と、を備え、
     前記制御部は、自装置の起動時に、前記第1の出力モードに設定する出力モードの初期化を行うことを特徴とする映像出力制御装置。
PCT/JP2015/005372 2014-11-26 2015-10-27 撮像装置、録画装置および映像出力制御装置 WO2016084304A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/027,540 US20160328627A1 (en) 2014-11-26 2015-10-27 Imaging device, recording device, and moving image output control device
DE112015005301.8T DE112015005301T5 (de) 2014-11-26 2015-10-27 Bildaufnahmevorrichtung, Aufzeichnungsvorrichtung und Bewegtbildausgabesteuervorrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-238680 2014-11-26
JP2014238680A JP6024999B2 (ja) 2014-11-26 2014-11-26 撮像装置、録画装置および映像出力制御装置

Publications (1)

Publication Number Publication Date
WO2016084304A1 true WO2016084304A1 (ja) 2016-06-02

Family

ID=56073903

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/005372 WO2016084304A1 (ja) 2014-11-26 2015-10-27 撮像装置、録画装置および映像出力制御装置

Country Status (4)

Country Link
US (1) US20160328627A1 (ja)
JP (1) JP6024999B2 (ja)
DE (1) DE112015005301T5 (ja)
WO (1) WO2016084304A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10430600B2 (en) * 2016-01-20 2019-10-01 International Business Machines Corporation Mechanisms for need to know and leak avoidance
JP6910772B2 (ja) * 2016-09-08 2021-07-28 キヤノン株式会社 撮像装置、撮像装置の制御方法およびプログラム
US10409859B2 (en) * 2017-05-15 2019-09-10 Facebook, Inc. Video heat maps personalized for online system users
US10419728B2 (en) * 2017-08-22 2019-09-17 Chekt Llc Monitoring system having personal information protection function and method thereof
JP6961443B2 (ja) * 2017-09-29 2021-11-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
EP3640903B1 (en) * 2018-10-18 2023-12-27 IDEMIA Identity & Security Germany AG Signal dependent video surveillance
JP6748793B1 (ja) * 2019-03-22 2020-09-02 Sppテクノロジーズ株式会社 保守支援システム、保守支援方法、プログラム及び加工画像の生成方法
DE102019213487A1 (de) * 2019-09-05 2021-03-11 Robert Bosch Gmbh Notfallbereitschaftsanlage zur Überwachung eines Überwachungsbereichs und Durchführung von Notfallmaßnahmen und Verfahren zur Überwachung eines Überwachungsbereichs und zur Durchführung von Notfallmaßnahmen mit einer Notfallbereitschaftsanlage
JP7551385B2 (ja) 2020-07-31 2024-09-17 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
CN116783878A (zh) * 2021-01-13 2023-09-19 三星电子株式会社 电子装置和图像发送/接收方法
EP4044138A1 (en) 2021-02-16 2022-08-17 Axis AB Method and image-capturing device for installing the image-capturing device on a network
JPWO2023145475A1 (ja) * 2022-01-27 2023-08-03
US11977653B2 (en) * 2022-03-07 2024-05-07 Recolabs Ltd. Systems and methods for securing files and/or records related to a business process

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177821A (ja) * 1999-12-20 2001-06-29 Fujitsu General Ltd 制御信号マスク方法および制御信号マスク回路
JP2004153445A (ja) * 2002-10-29 2004-05-27 Fuji Photo Film Co Ltd 監視カメラ
JP2005286468A (ja) * 2004-03-29 2005-10-13 Mitsubishi Electric Corp マスキング機能付き監視システムおよびカメラ、並びに該カメラとともに用いられるマスク解除装置
WO2008004578A1 (fr) * 2006-07-05 2008-01-10 Panasonic Corporation Système, dispositif et procédé de surveillance
JP2008035271A (ja) * 2006-07-28 2008-02-14 Canon Inc 撮像装置、その制御方法および画像通信システム
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
JP2011026025A (ja) * 2009-07-21 2011-02-10 Mitsubishi Electric Corp エレベータ用防犯装置
JP2012244300A (ja) * 2011-05-17 2012-12-10 Canon Inc 画像送信装置、画像送信方法、及びプログラム
JP2013115660A (ja) * 2011-11-29 2013-06-10 Hitachi Ltd 監視システムおよび撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7479980B2 (en) * 1999-12-23 2009-01-20 Wespot Technologies Ab Monitoring system
JP4508038B2 (ja) * 2005-03-23 2010-07-21 日本ビクター株式会社 画像処理装置
DE102008007199A1 (de) * 2008-02-01 2009-08-06 Robert Bosch Gmbh Maskierungsmodul für ein Videoüberwachungssystem, Verfahren zur Maskierung von selektierten Objekten sowie Computerprogramm
JP5159381B2 (ja) * 2008-03-19 2013-03-06 セコム株式会社 画像配信システム
US20090282248A1 (en) * 2008-05-09 2009-11-12 International Business Machines Corporation. Method and system for securing electronic mail
JP5709367B2 (ja) * 2009-10-23 2015-04-30 キヤノン株式会社 画像処理装置、および画像処理方法
WO2011150346A2 (en) * 2010-05-28 2011-12-01 Laurich Lawrence A Accelerator system for use with secure data storage
JP5408156B2 (ja) * 2011-02-24 2014-02-05 三菱電機株式会社 監視用画像処理装置
JP6007523B2 (ja) * 2012-03-09 2016-10-12 富士通株式会社 生成装置、生成プログラムおよび生成方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177821A (ja) * 1999-12-20 2001-06-29 Fujitsu General Ltd 制御信号マスク方法および制御信号マスク回路
JP2004153445A (ja) * 2002-10-29 2004-05-27 Fuji Photo Film Co Ltd 監視カメラ
JP2005286468A (ja) * 2004-03-29 2005-10-13 Mitsubishi Electric Corp マスキング機能付き監視システムおよびカメラ、並びに該カメラとともに用いられるマスク解除装置
WO2008004578A1 (fr) * 2006-07-05 2008-01-10 Panasonic Corporation Système, dispositif et procédé de surveillance
JP2008035271A (ja) * 2006-07-28 2008-02-14 Canon Inc 撮像装置、その制御方法および画像通信システム
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
JP2011026025A (ja) * 2009-07-21 2011-02-10 Mitsubishi Electric Corp エレベータ用防犯装置
JP2012244300A (ja) * 2011-05-17 2012-12-10 Canon Inc 画像送信装置、画像送信方法、及びプログラム
JP2013115660A (ja) * 2011-11-29 2013-06-10 Hitachi Ltd 監視システムおよび撮像装置

Also Published As

Publication number Publication date
JP2016099927A (ja) 2016-05-30
DE112015005301T5 (de) 2017-08-24
US20160328627A1 (en) 2016-11-10
JP6024999B2 (ja) 2016-11-16

Similar Documents

Publication Publication Date Title
JP6024999B2 (ja) 撮像装置、録画装置および映像出力制御装置
JP5866564B1 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
US10178356B2 (en) Monitoring apparatus, and moving image output method
JP5938808B2 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5999395B1 (ja) 撮像装置、録画装置および映像出力制御装置
JP5834193B2 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
JP5834196B2 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
JP5707562B1 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
US9786113B2 (en) Investigation generation in an observation and surveillance system
US10116910B2 (en) Imaging apparatus and method of providing imaging information
JP5707561B1 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
JP6176619B2 (ja) 撮像装置、録画装置、映像表示方法およびコンピュータプログラム
KR20110093040A (ko) 피사체 감시 장치 및 방법
JP2017184288A (ja) 撮像装置、録画装置、映像表示方法およびコンピュータプログラム
JP6214762B2 (ja) 画像検索システム、検索画面表示方法
US9767564B2 (en) Monitoring of object impressions and viewing patterns
JP6366022B2 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
JP7524905B2 (ja) 表示制御装置、表示制御方法、プログラム、および表示制御システム
EP3016080A1 (en) Calibration of metadata event rules
JP2003173432A (ja) 画像検索システム及び画像検索方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 15027540

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15864150

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 112015005301

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15864150

Country of ref document: EP

Kind code of ref document: A1