WO2016157330A1 - モバイル監視装置、プログラム、及び制御方法 - Google Patents

モバイル監視装置、プログラム、及び制御方法 Download PDF

Info

Publication number
WO2016157330A1
WO2016157330A1 PCT/JP2015/059747 JP2015059747W WO2016157330A1 WO 2016157330 A1 WO2016157330 A1 WO 2016157330A1 JP 2015059747 W JP2015059747 W JP 2015059747W WO 2016157330 A1 WO2016157330 A1 WO 2016157330A1
Authority
WO
WIPO (PCT)
Prior art keywords
monitoring
event detection
monitoring image
image
detection position
Prior art date
Application number
PCT/JP2015/059747
Other languages
English (en)
French (fr)
Inventor
健一朗 猪田
啓至 北嶋
博義 宮野
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US15/561,548 priority Critical patent/US10192128B2/en
Priority to JP2017508860A priority patent/JP6229816B2/ja
Priority to PCT/JP2015/059747 priority patent/WO2016157330A1/ja
Publication of WO2016157330A1 publication Critical patent/WO2016157330A1/ja
Priority to US16/223,167 priority patent/US10650263B2/en
Priority to US16/223,177 priority patent/US10769468B2/en
Priority to US16/782,162 priority patent/US20200175298A1/en
Priority to US16/824,820 priority patent/US11144776B2/en
Priority to US17/470,794 priority patent/US11644968B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19684Portable terminal, e.g. mobile phone, used for viewing video remotely
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Definitions

  • the present invention relates to a mobile monitoring device, a program, and a control method.
  • monitoring video There is a monitoring system that performs monitoring using video captured by a monitoring camera or the like (hereinafter referred to as “monitoring video”). For example, the monitoring video is viewed by a monitoring person or analyzed by an analysis device. Such a monitoring system is used to prevent troubles from occurring and to solve the troubles that have occurred at an early stage.
  • Patent Document 1 discloses a system that discloses a video of a monitoring camera to unspecified users. The user can browse the video of the surveillance camera by accessing the server using a mobile device or a personal computer.
  • a technology that can set a part of the monitoring video as a monitoring area in the monitoring system.
  • a monitoring area can be set using an input device such as a mouse.
  • the image processing apparatus detects an intruding object in the monitoring area.
  • JP 2014-64241 A Patent No. 4976939 International Publication No. 2014/030667
  • event detection position settings video surveillance line settings, surveillance area settings, etc.
  • processing for changing the display on the display screen display change processing
  • the event detection position is set by designating the position and range of the video monitoring line and the monitoring area by, for example, an operation of sliding a finger on the display screen, a pinch-in / pinch-out operation, or the like.
  • the display change process includes the operation of sliding a finger on the display screen, the control of the PTZ (Pan-Tilt-Zoom) function of the remote surveillance camera by pinch-in / pinch-out operation, etc., and the digital zoom (enlargement / reduction) of the display screen Or by scrolling.
  • PTZ Pan-Tilt-Zoom
  • the mobile device used in the monitoring system has low operability for the user.
  • An object of the present invention is to provide a technique for improving the operability of a mobile device.
  • the mobile monitoring device of the present invention comprises: a first processing unit configured to generate information representing an event detection position for the monitoring image in response to a first operation on the monitoring image displayed on the display screen; In response to a first operation, a second processing means for performing a display change process other than the setting of the event detection position for the monitoring image or a window including the monitoring image, and the first operation as the first processing means and the window And control means for causing either one of the second processing means to process.
  • the program of the present invention is a program that causes a computer to operate as the mobile monitoring device of the present invention.
  • the control method of the present invention is executed by a computer.
  • the control method includes a first processing step for generating information representing an event detection position for the monitoring image in response to a first operation for the monitoring image displayed on the display screen; and the first operation And a second processing step for performing a display change process other than the setting of the event detection position on the monitoring image or the window including the monitoring image in response to the first operation step and the second processing. And a control step for causing either one of the steps to process.
  • a technique for improving the operability of a mobile device is provided.
  • 1 is a block diagram illustrating an information processing apparatus according to a first embodiment.
  • 3 is a flowchart illustrating a flow of processing executed by the information processing apparatus according to the first embodiment. It is a block diagram which illustrates the hardware constitutions of information processing apparatus. It is a figure which illustrates the monitoring image imaged with the monitoring camera. It is a monitoring image showing the map of a monitoring area. It is a figure which illustrates the window containing the monitoring image. It is a figure which illustrates the window containing a some monitoring image. It is a figure which illustrates 1st operation. It is a figure which illustrates a mode that an event detection position is designated by 1st operation.
  • the user adjusts the range of the image or document displayed on the display screen or the like by performing a predetermined operation.
  • the predetermined operation is a scroll operation, an enlargement operation, a reduction operation, or the like.
  • the user slides his / her finger on the touch panel displaying the map image to scroll the map image, thereby changing the location shown on the display screen and browsing the map at the desired location.
  • the user scrolls the document and browses a desired sentence or the like.
  • the user adjusts the scale of the map by performing operations such as pinch-in and pinch-out on the map image.
  • a user when monitoring using a monitoring video is performed in a situation where images and documents do not fit on the display screen of a mobile device, for example, a user such as a monitoring person can perform the above-described processing on the document including the monitoring video and the monitoring video. Scroll operation is performed. In this way, the user adjusts the range of the monitoring video displayed on the display screen and monitors the desired location.
  • control the PTZ function of the PTZ (Pan-Tilt-Zoom) camera that obtains the surveillance video by sliding your finger on the touch panel of the mobile device that displays the surveillance video or by pinching in / pinch out. Is done. In addition, digital zoom or the like is performed.
  • Patent Document 3 As an example of an apparatus that provides an operation for designating an area for a map, there is an invention of Patent Document 3.
  • a user designates a range for a map, and a seal image is drawn in the designated range.
  • the present invention does not assume a situation in which the map scrolls when a finger is slid on the map, and does not assume a problem that the meanings of the operations described above overlap.
  • a monitoring device using a mobile device such as a smartphone or a tablet is referred to as a “mobile monitoring device”.
  • FIG. 1 is a block diagram illustrating an information processing apparatus 2000 according to the first embodiment.
  • each block represents a functional unit configuration, not a hardware unit configuration.
  • the information processing apparatus 2000 includes a first processing unit 2020, a second processing unit 2040, and a control unit 2060.
  • the first processing unit 2020 generates information representing the event detection position (hereinafter referred to as “event detection position information”) according to the position on the monitoring image designated by the first operation.
  • the first operation is an operation performed by the user on the touch panel 10 of the mobile device that displays a monitoring image or the like.
  • This event detection position is used for detecting an event by a monitoring system using the information processing apparatus 2000. Details of the event and the event detection position will be described later.
  • the second processing unit 2040 performs a display change process on the display screen according to the first operation.
  • the display change process is a process of changing the range of the monitoring image displayed on the touch panel 10, the size of the monitoring image, or the like.
  • the display change process is a process of scrolling the monitoring image. Other examples of the display change process will be described later.
  • the control unit 2060 causes the first operation to be processed by either the first processing unit 2020 or the second processing unit 2040.
  • FIG. 2 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the first embodiment.
  • the control unit 2060 determines whether or not a predetermined condition is satisfied (S104). When the predetermined condition is satisfied, the process of the control unit 2060 proceeds to step S106. In step S106, the control unit 2060 causes the first processing unit 2020 to process the first operation. On the other hand, when the predetermined condition is not satisfied, the process of the control unit 2060 proceeds to step S108. In step S108, the control unit 2060 causes the second processing unit 2040 to process the first operation.
  • the operation of sliding a finger on the monitoring image may be an operation for drawing a line (such as a video monitoring line) indicating the event detection position, or an operation for scrolling the monitoring image ( In some cases, the operation is for controlling the pan / tilt function of the PTZ camera that is acquiring the monitoring image.
  • the pinch-in / pinch-out operation on the monitoring image may be an operation for setting a monitoring area, or an operation for enlarging / reducing the monitoring image (the zoom function of the PTZ camera that acquires the monitoring image) In some cases (such as an operation for controlling tele-wide).
  • the intuitive operation for designating the event detection position and the intuitive operation for changing the display of the monitoring image and the like are often similar operations.
  • the first operation on the monitoring image or the like is processed by either the first processing unit 2020 or the second processing unit 2040.
  • the first operation means designation of an event detection position.
  • the first operation means a display change of a monitoring image or the like.
  • the operation of the first operation on the monitoring image or the like is processed as an operation for performing either one of specifying the event detection position or changing the display of the monitoring image or the like according to a predetermined condition. The Therefore, the user of the information processing apparatus 2000 can specify the event detection position by the same operation as the intuitive operation for changing the display of the monitoring image or the like. Therefore, the user of the information processing apparatus 2000 can specify the event detection position by an intuitive operation.
  • Each functional component of the information processing apparatus 2000 may be realized by hardware (for example, a hard-wired electronic circuit) that implements each functional component, or a combination of hardware and software (for example: It may be realized by a combination of an electronic circuit and a program for controlling it).
  • FIG. 3 is a block diagram illustrating a hardware configuration of the information processing apparatus 2000.
  • the information processing apparatus 2000 includes a bus 1020, a processor 1040, a memory 1060, a storage 1080, an input / output interface 1100, and a network interface 1120.
  • the bus 1020 is a data transmission path through which the processor 1040, the memory 1060, the storage 1080, the input / output interface 1100, and the network interface 1120 transmit / receive data to / from each other.
  • a method of connecting the processors 1040 and the like to each other is not limited to bus connection.
  • the processor 1040 is an arithmetic processing device such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the memory 1060 is a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the storage 1080 is a storage device such as a hard disk, SSD (Solid State Drive), or memory card.
  • the storage 1080 may be a memory such as a RAM or a ROM.
  • the input / output interface 1100 is an interface for connecting the information processing apparatus 2000 and the input / output device.
  • the input / output device is, for example, the touch panel 10 that displays a monitoring image and receives an operation input on the monitoring image.
  • the network interface 1120 is an interface for connecting the information processing apparatus 2000 to an external apparatus so as to be communicable.
  • the network interface 1120 may be a network interface for connecting to a wired line or a network interface for connecting to a wireless line.
  • the storage 1080 stores a program for realizing the functions of the information processing apparatus 2000. Specifically, program modules that realize the functions of the first processing unit 2020, the second processing unit 2040, and the control unit 2060 are stored.
  • the processor 1040 implements the functions of the first processing unit 2020, the second processing unit 2040, and the control unit 2060 by executing these program modules.
  • the processor 1040 may execute the modules after reading them onto the memory 1060 or without reading them onto the memory 1060.
  • each program module may be stored in the memory 1060.
  • the information processing apparatus 2000 may not include the storage 1080.
  • the information processing apparatus 2000 is implemented as a computer such as a mobile device (smart phone, tablet, etc.).
  • the touch panel 10 is a touch panel provided as a standard in a mobile device on which the information processing apparatus 2000 is mounted, for example.
  • Monitoring images are available at various locations (ports, airports, terminal stations, platforms, power stations, plants, dams and other important facilities, warehouses, leisure facilities, sports facilities, stadiums, commercial facilities, buildings, cities, streets, etc.) It is an image used for monitoring. Specifically, the monitoring image is an image captured by a monitoring camera provided at a monitoring target location.
  • FIG. 4 is a diagram illustrating a monitoring image displayed on the touch panel of the mobile device. In FIG. 4, the surveillance camera images a corridor in the building.
  • the setting of the event detection position is not necessarily performed on the monitoring image, and represents an image obtained by imaging the location to be monitored from the sky (for example, an image taken from an artificial satellite) or a map of the location to be monitored. It may be performed on the image.
  • FIG. 5 is an image representing a map of the location to be monitored displayed on the touch panel of the mobile device.
  • the map image may include a meaning as a monitoring image that displays not only a map but also tracking information such as a person who is a target of event detection in real time.
  • the monitoring image may be one or a plurality of frames constituting a moving image, or may be an image (photograph) captured as a still image.
  • the monitoring image may be an image captured in real time or an image captured in the past.
  • the monitoring image is stored in a storage device (storage 1080 in FIG. 3) inside the information processing apparatus 2000.
  • the monitoring image may be stored in a storage device provided outside the information processing apparatus 2000.
  • the information processing apparatus 2000 acquires a monitoring image from the external storage device.
  • the information processing apparatus 2000 may directly acquire a monitoring image captured by the monitoring camera from the monitoring camera.
  • FIG. 6 is a diagram illustrating a window 60 including the monitoring image 30.
  • the window 60 may include the main monitoring image 30 and a plurality of sub monitoring images 31 at the same time.
  • FIG. 7 is a diagram illustrating a window 60 including a plurality of monitoring images 30.
  • the first operation is an operation of sliding a finger on the touch panel 10, for example. This sliding operation may be performed with one finger or may be performed with a plurality of fingers.
  • FIG. 8 is a diagram illustrating the first operation.
  • FIG. 8A shows an operation of sliding one finger on the touch panel 10.
  • FIG. 8B shows the rotation operation.
  • this rotation operation is an operation for rotating an image.
  • FIG. 8C shows a pinch-in / pinch-out operation.
  • the first operation is not limited to these operations.
  • the display change process performed by the second processing unit 2040 is various.
  • the display change process is a process of changing the display of an image or window in accordance with an operation performed on the image or window in a general mobile device or the like.
  • the monitoring image or the like is scrolled according to an operation of sliding a finger on the touch panel 10 that displays the monitoring image, the map image, or a window including them (referred to as “monitoring image or the like”). It is processing.
  • the display change process is a process of rotating the monitoring image or the like in response to an operation of rotating a finger pinching the monitoring image or the like.
  • the display change process is a process for reducing or enlarging the monitoring image or the like in accordance with an operation of pinching in or pinching out the monitoring image or the like. The display change process is not limited to these examples.
  • the display change process includes a process that “the PTZ function of the PTZ camera that generates the monitor image is controlled by a user operation on the monitor image, and as a result, the display of the monitor image is changed”.
  • the display change process is a process in which the monitoring image is scrolled as a result of controlling the pan / tilt function of the PTZ camera that generates the monitoring image in accordance with an operation of sliding a finger on the monitoring image. is there.
  • the display change process is performed as a result of controlling the zoom function of the PTZ camera that acquires the monitoring image (changes tele-wide) in response to an operation to pinch-in / pinch-out the monitoring image. Is a process to reduce or enlarge.
  • the display change process includes a process in which the display of the monitoring image is changed as a result of digital processing such as digital zoom.
  • the first processing unit 2020 generates event detection position information.
  • the event detection position information is used in, for example, a monitoring system that uses the information processing apparatus 2000. Events are various events to be detected in this monitoring system.
  • an event may include a person, an animal, a vehicle or other vehicle (hereinafter simply referred to as an “object”) passing through a video surveillance line, a predetermined event (intrusion, leaving, appearance, disappearance, intrusion, Leaving, appearing, disappearing, fighting, staying, wandering, falling, rising, sitting, changing direction of movement, reverse running, shoplifting, detouring, damage, taking away, leaving, graffiti, crowd formation, etc.), defined by lines
  • the movement of an object of a specific route is used as a position indicating the video monitoring line or the monitoring area in the monitoring system, for example.
  • the video monitoring line is a line superimposed on a monitoring image or the like by the user, and is a line for detecting an object that crosses (passes through) the line.
  • Video surveillance lines may have direction attributes (right-to-left, left-to-right, both directions, etc.) and are designed to alert only when an object in the direction specified by the user has passed. It may be.
  • the monitoring area is a partial area of a monitoring image or the like set by the user, and is an area for detecting a predetermined event.
  • FIG. 9 is a diagram illustrating a state in which the event detection position is designated by the first operation.
  • FIG. 9A shows a state where the event detection position 50 indicated by a line is designated by the first operation of drawing a line with the finger 40.
  • FIG. 9B shows a state in which the event detection position 50 represented by a rectangular area is designated by the same operation as in FIG. 9A and 9B is processed by the second processing unit 2040, for example, the second processing unit 2040 scrolls the monitoring image and the window including the monitoring image.
  • FIG. 9C shows a state where the event detection position 50 indicated by a line is designated by the pinch-out operation.
  • FIG. 9D shows a state in which an event detection position 50 represented by a rectangular area is designated by the same operation as in FIG. 9C. Note that, when the operations in FIG. 9C and FIG. 9D are processed by the second processing unit 2040, for example, the second processing unit 2040 enlarges the monitoring image and the window including the monitoring image. Further, in the case of a pinch-in operation, it is the reverse of the pinch-out operation, and the monitoring image and the window including the monitoring image are reduced.
  • FIG. 9E shows a state where an event detection position 50 represented by a rectangular area is designated by a rotation operation. Note that, when the operation in FIG. 9E is processed by the second processing unit 2040, for example, the second processing unit 2040 rotates the monitoring image and the window including the monitoring image.
  • FIG. 9F shows a state where an event detection position 50 represented by a rectangular area is designated by a touch operation.
  • the second processing unit 2040 is a selection operation for a monitoring image or a window including the monitoring image.
  • the first operation is not limited to each operation shown in FIG.
  • the event detection position 50 designated by each first operation is not limited to the example of FIG.
  • the event detection position 50 specified by the line drawing operation shown in FIG. 9A or the like may be a rectangular area or the like in which a predetermined width is given to the line.
  • the event detection position 50 designated by the operation of drawing the area shown in FIG. 9B or the like is not limited to a square.
  • the event detection position 50 may be a circle whose diameter is a finger locus.
  • the event detection position 50 designated by the touch operation in FIG. 9F may be a point or a region (circle or the like) having a shape other than a quadrangle.
  • How the event detection position is set by each operation may be defined in advance in the information processing apparatus 2000 mounted on the mobile device. For example, in the first operation of drawing a line with the finger 40, the setting shown in FIG. 9A or 9B is set, or in the pinch-out operation in FIG. 9C or FIG. 9D. Which setting is shown may be defined in advance.
  • the event detection position information of the event detection position represented by a line or a region indicates a combination of coordinates representing the event detection position.
  • the first processing unit 2020 uses these known methods to represent the event detection position represented by a line or a region by a combination of coordinates. Description of these known methods is omitted.
  • the coordinates representing the event detection position are, for example, coordinates on the monitoring image (camera coordinates). Further, for example, the coordinates may be coordinates on the real space corresponding to the coordinates on the monitoring image. For example, the coordinates in the real space are GPS (Global Positioning System) coordinates. Further, for example, the coordinates in the real space may be coordinates defined on a floor map in the facility.
  • the coordinates in the real space corresponding to the coordinates on the monitoring image and the coordinates on the monitoring image are various parameters related to the camera that captured the monitoring image (the position of the camera in the real space, the posture of the camera, the angle of view, etc. In addition to the above, internal parameters, etc. are also referred to as “camera parameters”).
  • the first processing unit 2020 stores the camera parameters in the information processing apparatus 2000 inside or outside the storage device or the like. Get from. Thereafter, the first processing unit 2020 calculates coordinates on the real space corresponding to the coordinates on the monitoring image.
  • Various known methods can be used as a method of converting the coordinates on the image into the coordinates on the real space using the camera parameters. Description of these known methods is omitted.
  • the first processing unit 2020 may directly acquire the GPS coordinate or the floor map coordinate.
  • GPS coordinates and floor map coordinates can be common coordinates of the camera coordinates of the plurality of surveillance cameras.
  • the first processing unit 2020 stores the event detection position information in a storage device inside or outside the information processing apparatus 2000. Further, for example, the first processing unit 2020 may transmit the event detection position information to a monitoring system that uses the event detection position information.
  • the control unit 2060 causes the first processing unit 2020 or the second processing unit 2040 to process the first operation.
  • the state of the information processing apparatus 2000 when the control unit 2060 causes the first processing unit 2020 to process the first operation is also referred to as “event position setting mode”.
  • the state of the information processing apparatus 2000 when the control unit 2060 causes the second processing unit 2040 to process the first operation is also referred to as a “display change mode”.
  • the state of the information processing apparatus 2000 when performing the above-described display change process with control of the PTZ camera is described not only as “display change mode” but also as “PTZ camera control mode”.
  • control unit 2060 determines which of the first processing unit 2020 and the second processing unit 2040 should process the first operation, that is, a switching method between the display change mode and the event detection position setting mode. For example, the control unit 2060 determines which of the first processing unit 2020 and the second processing unit 2040 should process the first operation based on the second operation performed by the user. Specific contents of the second operation will be described later. Further, for example, the control unit 2060 determines which of the first processing unit 2020 and the second processing unit 2040 should process the first operation based on the attitude of the information processing apparatus 2000.
  • the control unit 2060 Based on the second operation performed by the user, the control unit 2060 temporarily processes the first operation in one of the first processing unit 2020 and the second processing unit 2040 that is different from the normal time. Also good. That is, the control unit 2060 temporarily switches from the display change mode to the event detection position setting mode based on the second operation performed by the user. Alternatively, the control unit 2060 temporarily switches from the event detection position setting mode to the display change mode based on the second operation performed by the user.
  • the second operation may be an operation of pressing the start position of the first operation for a predetermined time or more.
  • the first operation is an operation of sliding a finger on the monitoring image.
  • the user continues to press a part of the monitoring image for a predetermined time or longer (long press), and then starts an operation of sliding a finger from the state where the part is pressed.
  • the display change mode is temporarily switched to the event detection position setting mode on the basis of the second operation which is “an operation of continuously pressing a part of the monitoring image for a predetermined time (long pressing)”. Therefore, the control unit 2060 causes the first processing unit 2020 to process the subsequent operation of sliding the finger.
  • a video monitoring line is superimposed on the monitoring image along the locus of sliding the finger.
  • the control unit 2060 causes the first processing unit 2020 to process the pinch-out operation.
  • a monitoring area is set on the monitoring image according to the range where the pinch-out operation is performed.
  • the control unit 2060 indicates that the first processing unit 2020 performs the first operation that is performed before the second operation that is started before the first operation and is continuously performed during the operation of the first operation.
  • the second processing unit 2040 may process the first operation performed while the second operation is not accepted. For example, when an operation of sliding a finger is performed in a state where the lower left of the touch panel 10 (or the lower left of the monitoring image or the like displayed on the touch panel 10) is touched, the control unit 2060 temporarily performs the first operation.
  • the processing unit 2020 performs processing. That is, while the lower left of the touch panel 10 is touched and the touch continues, the event detection position setting mode is set, and the operation of sliding the finger is an operation of specifying the event detection position.
  • the control unit 2060 causes the second processing unit 2040 to process the operation. That is, the display change mode is normally performed, and the operation of sliding the finger is an operation for performing display change processing such as scrolling of the monitoring image. If the lower left corner of the screen is touched in the normal state (display change mode) and the finger is slid while the touch continues, the event detection position setting mode is temporarily set and the finger slides. A video surveillance line is superimposed on the surveillance image along the line.
  • FIG. 10 is a diagram illustrating a state in which a video monitoring line (event detection position 50) is superimposed while touching the lower left of the monitoring image.
  • the control unit 2060 causes the first processing unit 2020 to process the pinch-out operation.
  • a monitoring area is set on the monitoring image according to the range where the pinch-out operation is performed.
  • the control unit 2060 may switch between the display change mode and the event detection position setting mode based on the second operation performed by the user according to various other patterns other than those described above. For example, the “switching by long press” described above is not temporary switching, and the display change mode and the event detection position setting mode may be switched each time the key is pressed.
  • the control unit 2060 causes the second operation unit 2040 to process the first operation before accepting the second operation (display change mode), and after accepting the second operation, the first operation is performed.
  • the operation may be processed by the first processing unit 2020 (event detection position setting mode).
  • the event detection position is designated after the second operation is performed so that the display change process of the monitoring image or the like is not performed. For example, after performing the second operation so that the monitoring image is not scrolled (after the scrolling of the monitoring image is stopped), the user performs an operation of drawing a line for designating the event detection position.
  • the second operation may be an operation of touching a monitoring image, a map image, or a window including them for a predetermined time or more.
  • This second operation may be received at an arbitrary location on the image such as the monitoring image, or may be received only at a predetermined location such as the monitoring image.
  • This predetermined location is, for example, four corners of a monitoring image or the like.
  • the second operation may be an operation of touching the touch panel 10 for a predetermined time or more.
  • This second operation may be accepted at an arbitrary location on the touch panel 10 or may be accepted only at a predetermined location on the touch panel 10.
  • the predetermined places are, for example, the four corners of the touch panel 10. Note that the “operation for touching the touch panel 10” is different from the “operation for touching a monitoring image, a map image, or a window including them”, and a touch operation for a portion where the monitoring image, the map image, or a window including them is not displayed. Including.
  • the second operation may be an operation of touching the monitoring image or the like or a plurality of locations on the touch panel 10 simultaneously or in a predetermined order.
  • this second operation is a touch operation or the like in the order of the upper left corner, the upper right corner, the lower right corner, and the lower left corner of the four corners of the display screen.
  • the plurality of locations may be arbitrary locations or predetermined locations.
  • the second operation may be input of a predetermined voice.
  • the information processing apparatus 2000 acquires sound input from a microphone or the like, and determines whether the sound is a predetermined sound. Then, after a predetermined sound is input (after the second operation is performed), the control unit 2060 causes the first processing unit 2020 to process the first operation.
  • Various known voice analysis techniques can be used as a method for determining whether or not the voice input by the user is a predetermined voice. A description of these known techniques is omitted.
  • the second operation may be an operation on a hardware button (volume change button or power button) included in the mobile device.
  • this operation is a long press of a hardware button, an operation of pressing a plurality of hardware buttons in a predetermined order, or the like.
  • This hardware button may be not only a general hardware button such as a volume change button but also a dedicated hardware button provided for the second operation.
  • control unit 2060 performs the “first operation when the second operation is performed and a predetermined condition is satisfied after the“ first operation is processed by the first processing unit 2020 ”.
  • the predetermined condition is a condition that “the second operation is performed again”.
  • the control unit 2060 is moved to the “second state for causing the first processing unit 2020 to process the first operation” and the “second state for causing the second processing unit 2040 to process the first operation”.
  • the second operation to be transferred may be the same operation or a different operation.
  • control unit 2060 causes the second processing unit 2040 to process the first operation when a predetermined time has elapsed after entering the “state in which the first processing unit 2020 processes the first operation”. Transition to "state”.
  • control unit 2060 determines that the “first operation is performed when a state in which the first operation is not detected continues for a predetermined time or longer after the“ first operation is processed by the first processing unit 2020 ”. The process proceeds to “a state in which the second processing unit 2040 is to perform processing”.
  • control unit 2060 causes the first processing unit 2020 to process the first operation before accepting the second operation, and performs the first operation after accepting the second operation. You may perform control of making the 2nd process part 2040 process.
  • the control unit 2060 causes the first processing unit 2020 to process the first operation as the event detection position setting mode when the posture of the information processing device 2000 is the predetermined first posture.
  • the first operation may be processed by the second processing unit 2040 as the display change mode.
  • the user can easily use the operation for setting the event detection position and the process for changing the display of the monitoring image or the like.
  • a mobile device has a shape in plan view that is different in length and width (substantially rectangular or the like). Therefore, for example, the information processing apparatus 2000 treats a posture in which the long side of the information processing device 2000 is in the horizontal direction (an attitude in which the information processing device 2000 is horizontally long) as the first posture, and the long side of the information processing device 2000 is in the vertical direction.
  • the posture (the posture in which the information processing apparatus 2000 is vertically long) is handled as the second posture. That is, in this case, when the user wants to scroll the monitoring image, the user performs an operation while holding the information processing apparatus 2000 so that the information processing apparatus 2000 is vertically long.
  • FIG. 11 is a diagram illustrating the posture of the information processing apparatus 2000.
  • 11A illustrates a posture in which the long side of the information processing device 2000 is in the vertical direction
  • FIG. 11B illustrates a posture in which the short side of the information processing device 2000 is in the vertical direction.
  • Various predetermined values (predetermined operation, predetermined width, predetermined time, etc.) in each of the above descriptions are set in advance in, for example, a functional component that uses the values. Further, for example, these predetermined values are stored in a storage device provided inside or outside the information processing apparatus 2000. In this case, each functional component acquires a predetermined value to be used from this storage device.
  • ⁇ Example of usage of information processing apparatus 2000> For example, monitoring by a mobile device in which the information processing apparatus 2000 is mounted is not usually required to be monitored, but is used for monitoring work in a place where it is necessary to monitor temporarily. For example, there are cases where monitoring is necessary only during a period when some kind of event (such as a fireworks display) is held, even in a place that is usually mild and does not require monitoring. In such a case, the position to be monitored differs depending on the type of event to be performed, and the position to be monitored may be changed in real time.
  • some kind of event such as a fireworks display
  • the information processing apparatus 2000 is suitable for such a case.
  • the method of using monitoring by the mobile device in which the information processing apparatus 2000 is mounted is not limited to the method of using for the temporary monitoring work as described above.
  • a mobile monitoring system in which the information processing apparatus 2000 is mounted may be used for setting an event detection position as a monitoring system that is always operated. For example, there is a case where a monitor temporarily leaves the office for some reason. In this case, this monitor uses the information processing apparatus 2000 to set the position as the event detection position. By doing this, it is possible to prevent an event that occurred when leaving the office from being overlooked.
  • a manager who manages a store wants to monitor the inside of the store at night, monitoring with a mobile device is highly convenient.
  • FIG. 12 is a block diagram illustrating the monitoring system 3000 and the information processing apparatus 2000. Note that the monitoring system using the information processing apparatus 2000 is not limited to the monitoring system described below.
  • the monitoring system 3000 includes a monitoring camera 3020, a storage device 3040, an event detection device 3060, a monitoring monitor 3080, and an alarm device 3100.
  • the storage device 3040 stores the monitoring image captured by the monitoring camera 3020.
  • the storage device 3040 also stores event detection position information generated by the first processing unit 2020.
  • the surveillance camera 3020 is a camera that captures an image. Therefore, the storage device 3040 stores the frames that make up the video imaged by the monitoring camera 3020.
  • the storage device 3040 and the event detection device 3060 may be implemented as, for example, a cloud-type video storage device.
  • FIG. 13 is a block diagram illustrating a monitoring system 3000 having a cloud-type video storage device 4000.
  • the cloud-type video storage device 4000 receives information indicating the event detection position from the information processing device 2000 via the network, and stores the information in the storage device 3040.
  • the cloud-type video storage device 4000 stores the monitoring image captured by the monitoring camera 3020 in the storage device 3040.
  • the event detection device 3060 of the cloud-type video storage device 4000 detects an event using the event detection position stored in the storage device 3040 with respect to the monitoring image stored in the storage device 3040.
  • the cloud type video storage device 4000 notifies the monitoring monitor 3080 and the alarm device 3100 of the result of event detection via the network.
  • Each network that connects the cloud-type video storage device 4000 to the information processing device 2000, the monitoring monitor 3080, and the alarm device 3100 may be a WAN (Wide Area Network) such as the Internet, or a LAN (Local Area Network). There may be.
  • WAN Wide Area Network
  • LAN Local Area Network
  • the cloud video storage device 4000 and the monitoring camera 3020 may be connected via a network or may be directly connected via a bus or the like.
  • This network can be either WAN or LAN.
  • FIG. 14 is a block diagram illustrating a monitoring system 3000 having an intelligent camera 5000.
  • the imaging unit 5020 is a functional configuration unit that implements the functions of the monitoring camera 3020 described above.
  • the intelligent camera 5000 is connected to the information processing device 2000, the monitor 3080, and the alarm device 3100 via the network, like the cloud video storage device 4000. Any of these networks may be a WAN or a LAN.
  • the information processing apparatus 2000 is a tablet terminal.
  • the information processing device 2000 displays a monitoring image acquired from the storage device 3040 on the touch panel 10.
  • the user operates the touch panel 10 of the information processing apparatus 2000 using a finger, a touch pen, or the like.
  • the control unit 2060 causes the first processing unit 2020 to process the first operation when the first operation is performed after the start position of the first operation has been pressed for one second. That is, in this case, the first operation is an operation for designating the event detection position.
  • the long pressing time is not limited to 1 second, and may be 1.5 seconds, 2 seconds, or any number of seconds.
  • FIG. 15 and 16 are diagrams illustrating a monitoring image 30 displayed on the touch panel 10 in the embodiment.
  • the monitoring image 30 of FIG. 15A one door 70-1 is shown on the left side. It is assumed that the user intends to designate the door 70-2, which is not shown in the monitoring image 30 in FIG. 15A, immediately before the door 70-1 as the event detection position.
  • the user performs an operation of sliding the finger 40 on the monitoring image 30 to scroll the monitoring image 30.
  • the door 70-2 is displayed on the monitoring image 30 as shown in FIG.
  • the user performs an operation of drawing a video monitoring line on the monitoring image 30.
  • the user slides the finger 40 after pressing the start point 80 for one second or longer.
  • the event detection position 50 is set for the door 70-2.
  • Event detection position information indicating the event detection position 50 is stored in the storage device 3040.
  • the event detection device 3060 acquires event detection position information stored in the storage device 3040. Then, the event detection device 3060 detects that a predetermined event (passage of the video monitoring line) has occurred at the event detection position. In the case of the present embodiment, for example, the event detection device 3060 detects the entrance and exit of a person at the door 70-1 and the door 70-2.
  • the event detection device 3060 is a computer that performs image analysis.
  • the event detection device 3060 acquires a monitoring image from the storage device 3040 and analyzes the monitoring image.
  • the event detection device 3060 acquires a plurality of monitoring images captured by the same monitoring camera 3020, and analyzes a position corresponding to the event detection position in the monitoring image. Then, the event detection device 3060 detects that the predetermined event has occurred when a change representing the predetermined event is detected at the position.
  • the event detection device 3060 detects the entrance and exit of a person at the door 70-2 by analyzing the vicinity of the door 70-2.
  • an existing technique can be used as a technique for analyzing the inside of the image and detecting that a predetermined event has occurred.
  • the event detection device 3060 is a sensor such as an infrared sensor.
  • this sensor detects an event such as the passage of an object.
  • this sensor is installed in each place to be monitored.
  • a sensor at or near the event detection position indicated by the event detection position information starts monitoring.
  • an infrared sensor is provided in the vicinity of each door 70 or the like.
  • the monitoring monitor 3080 is a monitor provided in a guard room or the like, for example.
  • the monitoring monitor 3080 informs the monitoring person of the occurrence of the event by highlighting a monitoring video showing the position where the event is detected. Therefore, the monitor can easily grasp the place where the event has occurred.
  • the alarm device 3100 notifies the monitor of the occurrence of the event, for example, by sounding an alarm. This alarm allows the monitor to know the occurrence of the event.
  • the monitoring monitor 3080 may acquire event detection position information from the storage device 3040 and display the event detection position on the monitoring video. Thereby, for example, the monitor can perform the monitoring work so as to watch the event detection position. In addition, the monitor can leave the detection of the event occurrence at the event detection position to the event detection device 3060 and perform the monitoring work so as to watch the place other than the event detection position.
  • First processing means for setting an event detection position for the monitoring image in response to a first operation on the monitoring image displayed on the display screen; Second processing means for performing a display change process other than the setting of the event detection position on the monitoring image or the window including the monitoring image in response to the first operation; Control means for causing the first operation to be processed by either the first processing means or the second processing means based on a second operation; A mobile monitoring device.
  • the control unit causes the second processing unit to perform processing according to the first operation before the second operation is performed, and after the second operation is performed, the control unit performs the first operation according to the first operation.
  • 1 processing means to process The mobile monitoring device according to. 3.
  • the second operation is a touch operation for a predetermined time or longer with respect to an arbitrary portion of the display screen or the monitoring image.
  • the second operation is an operation of touching a start position of the first operation for a predetermined time or longer.
  • the second operation is a touch operation on an arbitrary portion on the display screen, which is started before the first operation and is continuously performed during the operation of the first operation.
  • the control means causes the first processing means to perform processing according to the first operation while the second operation is performed, and when the second operation is not performed, the second operation according to the first operation. Let the processing means process 1.
  • First processing means for setting an event detection position for the monitoring image in response to a first operation on the monitoring image displayed on the display screen; Second processing means for performing a display change process other than the setting of the event detection position on the monitoring image or the window including the monitoring image in response to the first operation; Control means for causing the first operation to be processed by either the first processing means or the second processing means, The control means causes the first processing means to process the first operation when the attitude of the mobile monitoring apparatus is the first attitude, and the attitude of the mobile monitoring apparatus is different from the first attitude.
  • a mobile monitoring device that causes the second processing means to process the first operation in the second posture. 7).
  • the event detection position represents a position of a video monitoring line for detecting a passing object or a position of a monitoring area for detecting a predetermined event of the object.
  • the mobile monitoring device according to any one of the above. 8).
  • Computer To 7.
  • a control method executed by a computer A first processing step of setting an event detection position for the monitoring image in response to a first operation on the monitoring image displayed on the display screen; A second processing step of performing a display change process other than the setting of the event detection position on the monitoring image or the window including the monitoring image according to the first operation; A control step for causing the first operation to be processed by either the first processing step or the second processing step based on a second operation; A control method.
  • the control step causes the second processing step to perform processing according to the first operation before the second operation is performed, and performs the first operation according to the first operation after the second operation is performed.
  • the control method described in 1. 11 The second operation is a touch operation for a predetermined time or longer with respect to an arbitrary portion of the display screen or the monitoring image.
  • the control method described in 1. 12 The second operation is an operation of touching a start position of the first operation for a predetermined time or longer.
  • the control method described in 1. 13 The second operation is a touch operation on an arbitrary portion on the display screen, which is started before the first operation and is continuously performed during the operation of the first operation.
  • the control step causes the first processing step to perform processing according to the first operation while the second operation is being performed, and the second operation according to the first operation when the second operation is not performed.
  • the processing step process The control method described in 1. 14 A control method executed by a computer, A first processing step of setting an event detection position for the monitoring image in response to a first operation on the monitoring image displayed on the display screen; A second processing step of performing a display change process other than the setting of the event detection position on the monitoring image or the window including the monitoring image according to the first operation; A control step for causing the first operation to be processed by either the first processing step or the second processing step; In the control step, when the posture of the computer is the first posture, the first operation is processed by the first processing step, and the posture of the computer is different from the first posture.
  • the event detection position represents the position of a video monitoring line for detecting a passing object or the position of a monitoring area for detecting a predetermined event of the object.
  • the control method as described in any one.

Abstract

【課題】モバイル機器の操作性を向上させる技術を提供することである。 【解決手段】情報処理装置(2000)は、第1処理部(2020)、第2処理部(2040)、及び制御部(2060)を有する。第1処理部(2020)は、第1操作で設定された監視画像上の位置に応じて、イベント検出位置を表す情報を生成する。第1操作は、表示画面上に表示されている監視画像に対する操作である。第2処理部(2040)は、第1操作に応じて、監視画像又は監視画像を含むウインドウに対する表示変更処理を行う。制御部(2060)は、第2操作に基づいて、第1操作を第1処理部(2020)と第2処理部(2040)のどちらか一方に処理させる。

Description

モバイル監視装置、プログラム、及び制御方法
 本発明は、モバイル監視装置、プログラム、及び制御方法に関する。
 監視カメラ等によって撮像された映像(以下「監視映像」という。)を用いて監視を行う監視システムがある。例えば監視映像は、監視員によって閲覧されたり、解析装置によって解析されたりする。このような監視システムは、トラブルの発生を未然に防いだり、発生したトラブルを早期に解決したりするために用いられる。
 監視システムにおいて、スマートフォンやタブレット等のモバイル機器が利用され始めている。例えば特許文献1は、監視カメラの映像を不特定のユーザへ公開するシステムを開示している。ユーザは、モバイル機器やパソコン等を用いてそのサーバへアクセスすることで、監視カメラの映像を閲覧することができる。
 また、監視システムにおいて、監視映像の一部を監視領域として設定できる技術がある。例えば特許文献2の画像処理装置では、マウス等の入力装置を用いて監視領域を設定できる。そして、この画像処理装置は、監視領域において侵入物体の検出を行う。
特開2014-64241号公報 特許第4976939号 国際公開第2014/030667号
 監視システムにおいて利用されるスマートフォンやタブレット等のモバイル機器では、イベント検出位置の設定(映像監視線の設定や監視領域の設定等)と、表示画面上の表示を変更する処理(表示変更処理)とが、いずれもユーザのタッチ操作によって行われうる。イベント検出位置の設定は、例えば表示画面で指をスライドさせる操作、ピンチイン・ピンチアウト操作等により映像監視線や監視領域の位置や範囲が指定されることにより行われる。表示変更処理は、同様に、表示画面で指をスライドさせる操作、ピンチイン・ピンチアウト操作等による遠隔の監視カメラのPTZ(Pan-Tilt-Zoom)機能の制御、表示画面のデジタルズーム(拡大・縮小)やスクロール等により行われる。
 このように、異なる処理が同様の操作に応じて実行されるため、監視システムにおいて利用されるモバイル機器は、ユーザにとって操作性が低い。
 本発明は、上記の課題に鑑みてなされたものである。本発明の目的は、モバイル機器の操作性を向上させる技術を提供することである。
 本発明のモバイル監視装置は、表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を表す情報を生成する設定する第1処理手段と、前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、を有する。
 本発明のプログラムは、コンピュータを、本発明のモバイル監視装置として動作させるプログラムである。
 本発明の制御方法は、コンピュータによって実行させる。当該制御方法は、表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を表す情報を生成する設定する第1処理ステップと、前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、を有する。
 本発明によれば、モバイル機器の操作性を向上させる技術が提供される。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1に係る情報処理装置を例示するブロック図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 情報処理装置のハードウエア構成を例示するブロック図である。 監視カメラによって撮像された監視画像を例示する図である。 監視エリアの地図を表す監視画像である。 監視画像を含むウインドウを例示する図である。 複数の監視画像を含むウインドウを例示する図である。 第1操作を例示する図である。 第1操作によってイベント検出位置が指定される様子を例示する図である。 監視画像の左下をタッチしながら映像監視線を重畳している様子を表している図である 情報処理装置の姿勢を例示する図である。 監視システム及び情報処理装置を例示するブロック図である。 クラウド型映像記憶装置を有する監視システムを例示するブロック図である。 インテリジェントカメラを有する監視システムを例示するブロック図である。 実施例において表示画面に表示される監視画像を例示する第1の図である。 実施例において表示画面に表示される監視画像を例示する第2の図である。
 まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。
 表示画面やウインドウ(以下「表示画面等」という。)の中に、画像や画像を含むドキュメント(例えば Web ページ)等が収まらないケースがある。例えば一般的に、地図を扱うアプリケーションにおいて表示画面等に表示される画像は、一部の場所の地図のみである。また、画像の解像度が表示画面の解像度より大きい場合、その画像は、サイズを縮小しない限り、表示画面等に画像の一部しか収まらない。また、情報量が多い Web ページは、表示画面等に収まらないことも多い。特にモバイル機器では、表示画面が小さいため、表示画面等に画像の一部しか収まらないケースが多い。
 表示画面等に画像やドキュメントが収まらない場合、ユーザは、所定の操作を行うことで表示画面等に映る画像やドキュメントの範囲を調整する。例えば所定の操作は、スクロール操作、拡大操作、縮小操作等である。例えば地図画像の場合、ユーザは、地図画像を表示するタッチパネル上で指をスライドして地図画像をスクロールさせることで、表示画面に映る場所を変更し、所望の場所の地図を閲覧する。また例えば、ユーザは、ドキュメントをスクロールさせ、所望の文章等を閲覧する。また例えば、ユーザは、地図画像に対してピンチイン・ピンチアウト等の操作を行うことで、地図の縮尺を調整する。
 このようにモバイル機器の表示画面等に画像やドキュメントが収まりきらない状況下で監視映像を用いた監視を行う場合、例えば監視員等のユーザは、監視映像や監視映像を含むドキュメントに対して上述のスクロール操作等を行う。こうすることで、ユーザは、表示画面に映る監視映像の範囲等を調整し、所望の場所の監視を行う。
 また、監視映像を表示するモバイル機器のタッチパネル上で指をスライドさせる操作や、ピンチイン・ピンチアウト操作によって、当該監視映像を取得しているPTZ(Pan-Tilt-Zoom)カメラの PTZ 機能を制御することが行われる。また、デジタルズーム等が行われる。
 一方、監視映像に対してタッチパネル上のタッチ操作により、映像監視線を引く、監視領域を設定する等、イベントの検出位置を設定しようとする場合、当該操作は直感的には指をスライドさせる操作やピンチイン・ピンチアウト操作であることが望ましい。しかしながらそれら直観的な操作は、上述の通り表示画面等に映る監視映像の範囲等を調整する操作や、PTZ 機能を制御する操作等の表示変更の操作と同様の操作であり、ユーザが監視映像に対して行う直感的な操作の意味が重複してしまうという問題がある。例えば、監視映像中に映像監視線を引こうとして指をスライドさせる操作を行うと、映像監視線が引かれることなく表示画面がスクロールしてしまう等の問題が発生しうる。
 なお、地図に対して領域を指定する操作を提供する装置の例として、特許文献3の発明がある。この発明では、ユーザが地図に対して範囲指定を行い、この指定範囲にシールの画像が描画される。しかしこの発明では、地図上で指をスライドさせると地図がスクロールしてしまうような状況は想定しておらず、上述のような操作の意味が重複する問題は想定していない。
 以下に説明される本発明の実施形態によれば、上述の操作の意味が重複する問題が解決され、モバイル機器の操作性が向上する。なお、スマートフォンやタブレット等のモバイル機器を利用した監視装置を「モバイル監視装置」という。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
[実施形態1]
 図1は、実施形態1に係る情報処理装置2000を例示するブロック図である。また、図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
 情報処理装置2000は、第1処理部2020、第2処理部2040、及び制御部2060を有する。第1処理部2020は、第1操作で指定された監視画像上の位置に応じて、イベント検出位置を表す情報(以下「イベント検出位置情報」という。)を生成する。第1操作は、監視画像等を表示するモバイル機器のタッチパネル10上で、ユーザにより行われる操作である。このイベント検出位置は、情報処理装置2000を利用する監視システムにより、イベントを検出するために用いられる。イベント及びイベント検出位置の詳細については、後述する。
 第2処理部2040は、第1操作に応じて、表示画面に対する表示変更処理を行う。例えば表示変更処理は、タッチパネル10に表示される監視画像の範囲や監視画像の大きさ等を変更する処理である。具体的には、表示変更処理は、監視画像をスクロールする処理等である。表示変更処理のその他の例については、後述する。
 制御部2060は、第1操作を第1処理部2020と第2処理部2040のどちらか一方に処理させる。
<処理の流れ>
 図2は実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。制御部2060は、所定の条件を満たすか否かを判定する(S104)。所定の条件を満たす場合、制御部2060の処理はステップS106に進む。ステップS106において、制御部2060は、第1処理部2020に第1操作を処理させる。
 一方、所定の条件を満たさない場合、制御部2060の処理はステップS108に進む。ステップS108において、制御部2060は、第2処理部2040に第1操作を処理させる。
<作用・効果>
 例えば後述するように、監視画像上で指をスライドする操作は、イベント検出位置を表す線(映像監視線等)を引くための操作である場合もあるし、監視画像をスクロールするための操作(当該監視画像を取得しているPTZカメラのパン・チルト機能を制御するための操作等)である場合もある。また、監視画像上におけるピンチイン・ピンチアウト操作は、監視領域を設定する操作である場合もあるし、監視画像を拡大・縮小するための操作(当該監視画像を取得しているPTZカメラのズーム機能を制御(テレ・ワイドを変更)するための操作等)である場合もある。このように、イベント検出位置を指定するための直感的な操作と、監視画像等の表示を変更するための直感的な操作とは、同様の操作である場合が多い。
 本実施形態によれば、監視画像等に対する第1操作が、第1処理部2020又は第2処理部2040のどちらかによって処理される。第1処理部2020によって処理される場合、第1操作はイベント検出位置の指定を意味する。第2処理部2040によって処理される場合、第1操作は監視画像等の表示変更を意味する。このように、本実施形態によれば、監視画像等に対する第1操作という操作が、所定の条件によってイベント検出位置の指定と監視画像等の表示変更のどちらか一方を行うための操作として処理される。よって、情報処理装置2000のユーザは、監視画像等の表示を変更するための直感的な操作と同様の操作で、イベント検出位置の指定を行える。よって、情報処理装置2000のユーザは、直感的な操作でイベント検出位置の指定を行うことができる。
 以下、本実施形態についてさらに詳細を述べる。
<ハードウエア構成例>
 情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路等)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせ等)で実現されてもよい。
 図3は、情報処理装置2000のハードウエア構成を例示するブロック図である。情報処理装置2000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040等を互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、例えば CPU (Central Processing Unit) や GPU (Graphics Processing Unit) 等の演算処理装置である。メモリ1060は、例えば RAM (Random Access Memory) や ROM (Read Only Memory) 等のメモリである。ストレージ1080は、例えばハードディスク、SSD (Solid State Drive)、又はメモリカード等の記憶装置である。また、ストレージ1080は、RAM や ROM 等のメモリであってもよい。
 入出力インタフェース1100は、情報処理装置2000と入出力デバイスとを接続するためのインタフェースである。入出力デバイスは、例えば監視画像の表示を行うとともに、監視画像に対する操作の入力を受け付けるタッチパネル10である。
 ネットワークインタフェース1120は、情報処理装置2000を外部の装置と通信可能に接続するためのインタフェースである。ネットワークインタフェース1120は、有線回線と接続するためのネットワークインタフェースでもよいし、無線回線と接続するためのネットワークインタフェースでもよい。
 ストレージ1080は、情報処理装置2000の機能を実現するためのプログラムを記憶している。具体的には、第1処理部2020、第2処理部2040、及び制御部2060の機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、第1処理部2020、第2処理部2040、及び制御部2060の機能をそれぞれ実現する。ここでプロセッサ1040は、上記各モジュールを実行する際、これらのモジュールをメモリ1060上に読み出してから実行してもよいし、メモリ1060上に読み出さずに実行してもよい。
 情報処理装置2000のハードウエア構成は図3に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、情報処理装置2000は、ストレージ1080を備えていなくてもよい。
 情報処理装置2000は、モバイル機器(スマートフォンやタブレット等)等の計算機として実装される。タッチパネル10は、例えば情報処理装置2000が実装されるモバイル機器に標準で備えられているタッチパネルである。
<監視画像について>
 監視画像は、種々の場所(港、空港、ターミナル駅、プラットホーム、発電所、プラント、ダム等の重要施設、倉庫街、レジャー施設、スポーツ施設、スタジアム、商業施設、建物、又は都市・街頭等)の監視に用いられる画像である。具体的には、監視画像は、監視対象の場所に設けられた監視カメラによって撮像された画像である。図4は、モバイル機器のタッチパネルに表示された監視画像を例示する図である。図4において、監視カメラは建物内の廊下を撮像している。
 なお、イベント検出位置の設定は、必ずしも監視画像上で行われる必要はなく、監視対象の場所を上空から撮像した画像(例えば人工衛星から撮像された画像)や、監視対象の場所の地図を表す画像上で行われてもよい。図5は、モバイル機器のタッチパネルに表示された監視対象の場所の地図を表す画像である。
 また、地図画像は、単に地図を表示するだけではなく、イベント検知の対象となった人物等の追跡情報をリアルタイムで表示する、監視画像としての意味を含むものであってもよい。
 第1操作が監視画像に対して行われる場合、当該監視画像は動画を構成する1つ又は複数のフレームであってもよいし、静止画像として撮像された画像(写真)であってもよい。
 監視画像は、リアルタイムで撮像されている画像であってもよいし、過去に撮像された画像であってもよい。
 例えば監視画像は、情報処理装置2000の内部の記憶装置(図3のストレージ1080)に記憶されている。また例えば、監視画像は、情報処理装置2000の外部に設けられている記憶装置に記憶されていてもよい。この場合、情報処理装置2000は、この外部の記憶装置から監視画像を取得する。また例えば、情報処理装置2000は、監視カメラによって撮像された監視画像を、その監視カメラから直接取得してもよい。
 タッチパネル10には、監視画像が単独で表示されてもよいし、監視画像を含むウインドウが表示されてもよい。図6は、監視画像30を含むウインドウ60を例示する図である。また、ウインドウ60は、メインの監視画像30と、複数のサブの監視画像31を同時に含んでいてもよい。図7は、複数の監視画像30を含むウインドウ60を例示する図である。
<第1操作について>
 第1操作は、例えばタッチパネル10上で指をスライドさせる操作である。このスライド操作は、一本の指で行われてもよいし、複数の指で行われてもよい。
 図8は、第1操作を例示する図である。図8(a)はタッチパネル10上で一本の指をスライドさせる操作を表す。図8(b)回転操作を表す。例えばこの回転操作は、画像を回転させるための操作である。図8(c)は、ピンチイン・ピンチアウト操作を表す。ただし、第1操作はこれらの操作に限定されない。
<第2処理部2040が行う処理>
 第2処理部2040が行う表示変更処理は様々である。例えば、表示変更処理は、一般的なモバイル機器等において、画像やウインドウに対して行われた操作に応じて、画像やウインドウの表示を変更する処理である。
 例えば表示変更処理は、監視画像、地図画像又はそれらを含むウインドウ(「監視画像等」という。)を表示するタッチパネル10に対して指をスライドさせる操作に応じて、これらの監視画像等をスクロールする処理である。また例えば、表示変更処理は、監視画像等をつまんだ指を回転する操作に応じて、監視画像等を回転させる処理である。また例えば、表示変更処理は、監視画像等をピンチイン・ピンチアウトする操作に応じて、監視画像等を縮小・拡大する処理である。表示変更処理はこれらの例に限定されない。
 表示変更処理は、「監視画像に対するユーザの操作によって当該監視画像を生成している PTZ カメラの PTZ 機能が制御され、その結果として監視画像の表示が変更される」という処理を含む。例えば、表示変更処理は、監視画像上で指をスライドさせる操作に応じて、当該監視画像を生成している PTZ カメラのパン・チルト機能が制御された結果として、監視画像がスクロールされる処理である。また例えば、表示変更処理は、監視画像をピンチイン・ピンチアウトする操作に応じて、当該監視画像を取得している PTZ カメラのズーム機能が制御(テレ・ワイドが変更)された結果として、監視画像が縮小・拡大される処理である。その他、表示変更処理は、デジタルズーム等のデジタル処理の結果として監視画像の表示が変更される処理を含む。
<第1処理部2020が行う処理>
 第1処理部2020は、イベント検出位置情報の生成を行う。イベント検出位置情報は、例えば情報処理装置2000を利用する監視システムで用いられる。イベントは、この監視システムにおいて検出の対象とする様々な事象である。例えばイベントは、人、動物、車等の乗り物その他物体(以下、単に「物体」という。)の映像監視線の通過、監視領域における物体の所定の事象(侵入、立ち去り、出現、消失、侵入、立ち去り、出現、消失、喧嘩、滞留、うろつき、転倒、立ち上がり、座り込み、移動方向の変化、逆走、万引き、迂回、損傷、持ち去り、置き去り、落書き、群衆の形成、等)、線で定義された特定ルートの物体の移動等である。イベント検出位置は、例えば上記監視システムにおける上記映像監視線又は監視領域を示す位置として用いられる。
 なお、映像監視線とは、ユーザにより監視画像等に重畳された線であって、当該線を横切る(通過する)物体を検知するための線である。映像監視線は方向の属性(右から左、左から右、両方向等)を持っていてもよく、ユーザにより指定された方向の物体の通過があった場合にのみ、アラートが出されるよう設計されていてもよい。また、監視領域とは、ユーザにより設定された監視画像等の一部の領域であって、所定のイベントを検知するための領域である。
<<イベント検出位置を指定する操作の例>>
 図9は、第1操作によってイベント検出位置が指定される様子を例示する図である。図9(a)は、指40で線を引く第1操作によって、線で表されるイベント検出位置50が指定される様子を表している。図9(b)は、図9(a)と同じ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(a)や図9(b)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウをスクロールする。
 図9(c)は、ピンチアウト操作によって、線で表されるイベント検出位置50が指定される様子を表している。図9(d)は、図9(c)と同じ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(c)や図9(d)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウを拡大する。また、ピンチイン操作の場合は、ピンチアウト操作の逆となり、監視画像や監視画像を含むウインドウを縮小する。
 図9(e)は、回転操作によって四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(e)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウを回転させる。
 図9(f)は、タッチ操作によって、四角形の領域で表されるイベント検出位置50が指定される様子を表している。なお、図9(f)の操作が第2処理部2040で処理される場合、例えば第2処理部2040は、監視画像や監視画像を含むウインドウに対する選択操作となる。
 ただし、第1操作は図9に示す各操作に限定されない。また、各第1操作によって指定されるイベント検出位置50は、図9の例に限定されない。例えば、図9(a)等の線を引く操作によって指定されるイベント検出位置50は、線に所定の幅を与えた四角形等の領域であってもよい。また、図9(b)等の領域を引く操作によって指定されるイベント検出位置50は、四角形に限定されない。例えば図9(b)において、イベント検出位置50は、指の軌跡を直径とする円であってもよい。また、図9(f)のタッチ操作によって指定されるイベント検出位置50は、点でもよいし、四角形以外の形状の領域(円等)でもよい。
 各々の操作でイベント検出位置がどのように設定されるかは、モバイル機器に実装される情報処理装置2000の中で予め定義されていてもよい。例えば、指40で線を引く第1操作によって、図9(a)又は図9(b)で示すいずれの設定となるか、又はピンチアウト操作によって図9(c)又は図9(d)で示すいずれの設定となるか、については、予め定義されていてもよい。
<<イベント検出位置情報の詳細>>
 線又は領域で表されるイベント検出位置のイベント検出位置情報は、イベント検出位置を表す座標の組み合わせを示す。座標の組み合わせで線又は領域を表現する方法には、様々な既知の方法がある。第1処理部2020は、これら既知の方法を利用することで、線又は領域で表されるイベント検出位置を座標の組み合わせで表す。これら既知の方法についての説明は省略する。
 イベント検出位置を表す座標は、例えば監視画像上の座標(カメラ座標)である。また例えば、この座標は、監視画像上の座標に対応する実空間上の座標でもよい。例えば実空間上の座標は、GPS(Global Positioning System)座標である。また例えば、実空間上の座標は、施設内のフロアマップ上で定義された座標でもよい。監視画像上の座標に対応する実空間上の座標と、監視画像上の座標とは、監視画像を撮像したカメラに関する各種のパラメタ(カメラの実空間上の位置、及びカメラの姿勢や画角等の他、内部パラメタ等も含む。以下「カメラパラメタ」という。)を用いて互いに変換可能である。
 イベント検出位置の設定を監視画像上で行う場合で、イベント検出位置を実空間上の座標で表す場合、第1処理部2020は、上記カメラパラメタを情報処理装置2000の内部又は外部の記憶装置等から取得する。その後、第1処理部2020は、監視画像上の座標に対応する実空間上の座標を算出する。なお、上記カメラパラメタを用いて画像上の座標を実空間上の座標に変換する方法には、様々な既知の方法を利用できる。これら既知の方法についての説明は省略する。イベント検出位置の設定を図5で表されるような地図上やフロアマップ上で行う場合は、第1処理部2020は、直接 GPS 座標やフロアマップ座標を取得しても良い。
 なお、複数の監視カメラがそれぞれ監視画像を取得する場合、GPS 座標やフロアマップ座標は、複数の監視カメラのカメラ座標の共通座標となりうる。
 例えば第1処理部2020は、イベント検出位置情報を、情報処理装置2000の内部又は外部の記憶装置に記憶する。また例えば、第1処理部2020は、イベント検出位置情報を利用する監視システム等へイベント検出位置情報を送信してもよい。
<制御部2060の詳細>
 前述したように、制御部2060は第1操作を第1処理部2020と第2処理部2040のどちらかに処理させる。以下、制御部2060が第1処理部2020に第1操作を処理させる場合の情報処理装置2000の状態を「イベント位置設定モード」とも表記する。また、制御部2060が第2処理部2040に第1操作を処理させる場合の情報処理装置2000の状態を「表示変更モード」とも表記する。また、前述した PTZ カメラの制御を伴う表示変更処理を行う場合の情報処理装置2000の状態は、「表示変更モード」だけでなく、「PTZ カメラ制御モード」とも表記される。
 制御部2060が第1処理部2020と第2処理部2040のどちらに第1操作を処理させるかを決定する方法、すなわち、表示変更モードとイベント検出位置設定モードの切替え方法は様々である。例えば制御部2060は、ユーザによって行われる第2操作に基づいて、第1操作を第1処理部2020と第2処理部2040のどちらに処理させるかを決定する。第2操作の具体的な内容については後述する。また例えば制御部2060は、情報処理装置2000の姿勢に基づいて、第1操作を第1処理部2020と第2処理部2040のどちらに処理させるかを決定する。
<<第2操作に基づくモード切替えの例1>>
 制御部2060は、ユーザによって行われる第2操作に基づいて、第1操作を、第1処理部2020と第2処理部2040のどちらか一方の通常時と異なる方に、一時的に処理させてもよい。すなわち制御部2060は、ユーザによって行われる第2操作に基づいて、一時的に表示変更モードからイベント検出位置設定モードに切り替える。又は、制御部2060は、ユーザによって行われる第2操作に基づいて、一時的にイベント検出位置設定モードから表示変更モードに切り替える。
 この場合、例えば、第2操作は、第1操作の開始位置を所定時間以上押す操作であってもよい。例えば第1操作が、監視画像に対して指をスライドさせる操作であるとする。この場合、例えばユーザは、監視画像のある箇所を所定時間以上押し続けた(長押しした)後、その箇所を押した状態から指をスライドさせる操作を開始する。このとき、「監視画像のある箇所を所定時間以上押し続ける(長押しする)操作」である第2操作に基づいて、一時的に表示変更モードからイベント検出位置設定モードに切り替わる。そのため、制御部2060は、それ以降の指をスライドさせる操作を第1処理部2020に処理させる。その結果、例えば、指をスライドさせる軌跡に沿って監視画像上に映像監視線が重畳される。
 または、例えば二本の指で監視画像のある箇所を長押しした後、ピンチアウト操作を開始した場合、制御部2060は、そのピンチアウト操作を第1処理部2020に処理させる。その結果、例えばピンチアウト操作を行った範囲に応じて監視画像上に監視領域が設定される。
 制御部2060は、「第1操作の前に開始され、当該第1操作の操作中に継続して行われる第2操作が受け付けられている間に行われる当該第1操作を第1処理部2020に処理させ、第2操作が受け付けられていない間に行われる第1操作を第2処理部2040に処理させる」という制御を行ってもよい。例えば制御部2060は、タッチパネル10の左下(又はタッチパネル10に表示されている監視画像等の左下)がタッチされている状態で指をスライドさせる操作が行われると、その操作を一時的に第1処理部2020に処理させる。つまり、タッチパネル10の左下がタッチされ、当該タッチが継続している間はイベント検出位置設定モードとなり、指をスライドさせる操作はイベント検出位置を指定する操作となる。一方、制御部2060は、タッチパネル10の左下がタッチされていない状態(通常時の状態)で指をスライドさせる操作が行われると、その操作を第2処理部2040に処理させる。つまり、通常時は表示変更モードであり、指をスライドさせる操作は、監視画像のスクロール等の表示変更処理を行うための操作となる。通常時(表示変更モード)の状態で画面左下がタッチされ、そのタッチが継続している間に指をスライドさせる操作が行われると、一時的にイベント検出位置設定モードとなり、指をスライドさせる軌跡に沿って監視画像上に映像監視線が重畳される。図10は監視画像の左下をタッチしながら映像監視線(イベント検出位置50)を重畳している様子を表している図である。
 または、例えばタッチパネル10の左下がタッチされている状態で、監視画像上においてピンチアウト操作が行われた場合、制御部2060は、そのピンチアウト操作を第1処理部2020に処理させる。その結果、例えばピンチアウト操作を行った範囲に応じて監視画像上に監視領域が設定される。
<<第2操作に基づくモード切替えの例2>>
 制御部2060は、上述した以外のその他様々なパターンによって、ユーザにより行われる第2操作に基づいて表示変更モードとイベント検出位置設定モードとを切替えてもよい。例えば、上述した「長押しによる切替え」は、一時的な切替えではなく、長押しのたびに表示変更モードとイベント検出位置設定モードとが切り替わってもよい。
 他の切替えパターンとしては、例えば制御部2060は、第2操作を受け付ける前は、第1操作を第2処理部2040に処理させ(表示変更モード)、第2操作を受け付けた後は、第1操作を第1処理部2020に処理させてもよい(イベント検出位置設定モード)。ユーザの視点からは、第2操作を行うことで監視画像等の表示変更処理がされないようにした後、イベント検出位置を指定することとなる。例えば、ユーザは、監視画像がスクロールされないように第2操作をした後(監視画像のスクロールを止めた後)、イベント検出位置を指定する線を引く操作を行う。
 例えば第2操作は、監視画像、地図画像又はそれらを含むウインドウを所定時間以上タッチする操作であってもよい。この第2操作は、監視画像等の画像上の任意の箇所で受け付けられてもよいし、監視画像等の所定箇所のみで受け付けられてもよい。この所定箇所は、例えば監視画像等の四隅等である。
 また例えば第2操作は、タッチパネル10を所定時間以上タッチする操作であってもよい。この第2操作は、タッチパネル10上の任意の箇所で受け付けられてもよいし、タッチパネル10上の所定箇所のみで受け付けられてもよい。この所定箇所は、例えばタッチパネル10の四隅等である。なお、「タッチパネル10をタッチする操作」は、「監視画像、地図画像又はそれらを含むウインドウをタッチする操作」と異なり、監視画像、地図画像又はそれらを含むウインドウが表示されていない箇所に対するタッチ操作も含む。
 また例えば、第2操作は、上記監視画像等、又はタッチパネル10上の複数箇所を、同時又は所定の順番でタッチする操作であってもよい。例えばこの第2操作は、表示画面の四隅を左上、右上、右下、左下の順にタッチ操作等である。なお、この複数箇所は、任意の箇所でもよいし、所定の箇所でもよい。
 また例えば、第2操作は所定の音声の入力であってもよい。この場合、情報処理装置2000は、マイク等から入力される音声を取得し、その音声が所定の音声であるか否かを判定する。そして、制御部2060は、所定の音声が入力された後(第2操作が行われた後)は、第1操作を第1処理部2020に処理させる。なお、ユーザが入力した音声が所定の音声であるか否かを判定する方法には、様々な既知の音声解析技術が利用できる。これら既知の技術に関する説明は省略する。
 また例えば、第2操作は、モバイル機器が有するハードウエアボタン(音量変更ボタンや電源ボタン)に対する操作でもよい。例えばこの操作は、ハードウエアボタンの長押しや、複数のハードウエアボタンを所定の順序で押す操作等である。なお、このハードウエアボタンは、音量変更ボタン等の一般的なハードウエアボタンだけでなく、第2操作用に設けられる専用のハードウエアボタンであってもよい。
 なお、制御部2060は、第2操作が行われたことで「第1操作を第1処理部2020に処理させる状態」になった後、所定の条件を満たした場合に、「第1操作を第2処理部2040に処理させる状態」に移行するようにしてもよい。例えばこの所定の条件は、「再度第2操作が行われる」という条件である。ここで、「第1操作を第1処理部2020に処理させる状態」に制御部2060を移行させる第2操作と、「第1操作を第2処理部2040に処理させる状態」に制御部2060を移行させる第2操作は、同じ操作であってもよいし、異なる操作であってもよい。また例えば、制御部2060は、「第1操作を第1処理部2020に処理させる状態」になった後、所定の時間が経過した場合に、「第1操作を第2処理部2040に処理させる状態」に移行する。また例えば、制御部2060は、「第1操作を第1処理部2020に処理させる状態」になった後、第1操作が検出されない状態が所定の時間以上継続した場合に、「第1操作を第2処理部2040に処理させる状態」に移行する。
 また、制御部2060は、上述の説明とは逆に、「第2操作を受け付ける前は、第1操作を第1処理部2020に処理させ、第2操作を受け付けた後は、第1操作を第2処理部2040に処理させる」という制御を行ってもよい。
<<情報処理装置2000の姿勢に基づくモード切替えの例>>
 例えば制御部2060は、情報処理装置2000の姿勢が所定の第1姿勢である場合に、イベント検出位置設定モードとして第1操作を第1処理部2020に処理させる。情報処理装置2000の第1姿勢とは異なる第2姿勢(例えば第1姿勢以外の全ての姿勢)である場合に、表示変更モードとして第1操作を第2処理部2040に処理させてもよい。
 モバイル機器は姿勢の変更が容易のため、ユーザは、イベント検出位置を設定する操作と、監視画像等の表示を変更する処理とを、容易に使い分けることができる。
 一般的に、モバイル機器は、平面視における形状が、縦と横の長さが異なる形状(略長方形等)である。そこで例えば、情報処理装置2000は、情報処理装置2000の長辺を横方向にした姿勢(情報処理装置2000が横長になる姿勢)を第1姿勢として扱い、情報処理装置2000の長辺を縦方向にした姿勢(情報処理装置2000が縦長になる姿勢)を第2姿勢として扱う。つまりこの場合、ユーザは、監視画像のスクロール等を行いたい時は、情報処理装置2000が縦長になるように情報処理装置2000を保持しながら操作を行う。一方、ユーザは、イベント検出位置を設定したい時は、情報処理装置2000が横長になるように情報処理装置2000を保持しながら操作を行う。図11は、情報処理装置2000の姿勢を例示する図である。図11(a)は情報処理装置2000の長辺を縦方向にした姿勢を例示しており、図11(b)は情報処理装置2000の短辺を縦方向にした姿勢を例示している。
<各種所定の値について>
 上述の各説明における各種所定の値(所定の操作、所定の幅、又は所定の時間等)は、例えばその値を用いる機能構成部に予め設定される。また例えば、これら所定の値は、情報処理装置2000の内部又は外部に設けられている記憶装置に記憶される。この場合、各機能構成部は、利用する所定の値をこの記憶装置から取得する。
<情報処理装置2000の利用方法の例>
 例えば情報処理装置2000が実装されるモバイル機器による監視は、普段は監視する必要がないが、一時的に監視する必要が生じるような場所の監視作業で利用される。例えば、普段は和やかで監視の必要がない場所であっても、何らかの催し物(花火大会等)が行われる期間だけ監視が必要となるケースがある。また、このようなケースでは、行われる催し物の種類等によっては、監視すべき位置が異なり、また、監視すべき位置がリアルタイムで変更されることもある。そのため、イベント検出位置が固定された大規模な監視システムを常時運用するよりも、モバイル機器のタッチパネルを用いた簡易な方法でイベント検出位置を設定・変更できる簡便かつ一時的に利用可能な監視システムの方が望ましいことがある。情報処理装置2000によれば、イベント検出位置をタッチ操作等で容易に設定できる。そのため情報処理装置2000は、このようなケースに好適である。
 情報処理装置2000が実装されるモバイル機器による監視の利用方法は、上述のような一時的な監視作業に利用する方法に限定されない。例えば情報処理装置2000が実装されるモバイル監視システムは、常時運用される監視システムとして、イベント検出位置の設定等に利用されてもよい。例えば、監視員が何らかの事情で一時的に持ち場を離れる場合がある。その場合、この監視員は、情報処理装置2000を用いて、その持ち場をイベント検出位置に設定する。こうすることで、持ち場を離れた際に生じたイベントが見過ごされてしまうことを防ぐことができる。また、店舗を経営する経営者が夜間の店舗内の様子を監視したい場合等においても、モバイル機器による監視は利便性が高い。
[実施例]
 以下、情報処理装置2000を利用する監視システム3000を例示する。図12は、監視システム3000及び情報処理装置2000を例示するブロック図である。なお、情報処理装置2000を利用する監視システムは、以下で説明する監視システムに限定されない。
 監視システム3000は、監視カメラ3020、記憶装置3040、イベント検出装置3060、監視モニタ3080、及び警報装置3100を有する。記憶装置3040は、監視カメラ3020によって撮像された監視画像を記憶する。また、記憶装置3040は、第1処理部2020によって生成されたイベント検出位置情報も記憶する。なお、監視カメラ3020は映像を撮像するカメラである。そのため、記憶装置3040には、監視カメラ3020によって撮像された映像を構成するフレームが記憶される。
 記憶装置3040及びイベント検出装置3060は、例えばクラウド型の映像記憶装置として実装されてもよい。図13は、クラウド型映像記憶装置4000を有する監視システム3000を例示するブロック図である。このクラウド型映像記憶装置4000は、ネットワークを介して、情報処理装置2000からイベント検出位置を示す情報を受け付け、その情報を記憶装置3040に記憶する。また、クラウド型映像記憶装置4000は、監視カメラ3020によって撮像された監視画像を記憶装置3040に記憶する。そして、クラウド型映像記憶装置4000のイベント検出装置3060は、記憶装置3040に記憶された監視画像に対し、記憶装置3040に記憶されたイベント検出位置を利用して、イベントの検出を行う。そして、クラウド型映像記憶装置4000は、ネットワークを介し、監視モニタ3080や警報装置3100に対して、イベント検出の結果の通知などを行う。
 クラウド型映像記憶装置4000を情報処理装置2000、監視モニタ3080、及び警報装置3100と接続する各ネットワークは、インターネットなどの WAN(Wide Area Network)であってもよいし、LAN(Local Area Network)であってもよい。
 クラウド型映像記憶装置4000と監視カメラ3020との間は、ネットワークで接続されていてもよいし、バスなどで直接接続されていてもよい。このネットワークも、WAN と LAN のどちらでもよい。
 また、監視カメラ3020は、記憶装置3040及びイベント検出装置3060を内部に含むインテリジェントカメラとして実装されてもよい。図14は、インテリジェントカメラ5000を有する監視システム3000を例示するブロック図である。撮像部5020は、前述した監視カメラ3020の機能を実現する機能構成部である。インテリジェントカメラ5000は、クラウド型映像記憶装置4000と同様に、情報処理装置2000、監視モニタ3080、及び警報装置3100それぞれとネットワークを介して接続される。このネットワークはいずれも、WAN でもよいし、LAN でもよい。
 本実施例において、情報処理装置2000はタブレット端末である。情報処理装置2000は、記憶装置3040から取得する監視画像をタッチパネル10に表示する。ユーザは、情報処理装置2000のタッチパネル10に対して、指やタッチペン等を用いて操作を行う。なお本実施例において、制御部2060は、第1操作の開始位置が1秒間押し続けられた後に第1操作が行われた場合に、第1操作を第1処理部2020に処理させる。つまりこの場合に、第1操作は、イベント検出位置を指定する操作となる。なお、長押しの時間は1 秒に限定されず、1.5 秒であっても、2 秒であってもよく、何秒であってもよい。
 図15及び図16は、実施例においてタッチパネル10に表示される監視画像30を例示する図である。図15(a)の監視画像30において、左側に1つのドア70-1が映っている。ユーザは、図15(a)の監視画像30には映っていない、ドア70-1の1つ手前にあるドア70-2を、イベント検出位置に指定しようとしているとする。
 まずユーザは、図15(a)に示すように、監視画像30に対して指40をスライドさせる操作を行い、当該監視画像30をスクロールさせる。その結果、図15(b)に示すように、ドア70-2が監視画像30上に表示される。
 次にユーザは、図16(a)に示すように、監視画像30に対して映像監視線を引く操作を行う。この際、ユーザは、開始点80を1秒以上押し続けた後に指40をスライドする。すると、図16(b)に示すように、ドア70-2に対してイベント検出位置50が設定される。このイベント検出位置50を示すイベント検出位置情報は、記憶装置3040に記憶される。
 イベント検出装置3060は、記憶装置3040に記憶されたイベント検出位置情報を取得する。そして、イベント検出装置3060は、イベント検出位置において所定のイベント(映像監視線の通過)が起こったことを検出する。本実施例の場合、例えばイベント検出装置3060は、ドア70-1及びドア70-2における人の出入り等を検出する。
 例えばイベント検出装置3060は、画像解析を行う計算機である。この場合、イベント検出装置3060は、記憶装置3040から監視画像を取得し、この監視画像を解析する。例えばイベント検出装置3060は、同じ監視カメラ3020によって撮像された複数の監視画像を取得し、その監視画像の中のイベント検出位置に相当する位置を解析する。そして、イベント検出装置3060は、その位置において、所定のイベントを表す変化が検出された場合に、所定のイベントが起こったことを検出する。本実施例の場合、イベント検出装置3060は、ドア70-2の付近について解析することで、ドア70-2における人の出入り等を検出する。ここで、画像内を解析して所定のイベントが起こったことを検出する技術には、既存の技術を利用することができる。
 また例えば、イベント検出装置3060は、赤外線センサ等のセンサである。例えばこのセンサは、物体の通過等のイベントを検出する。例えばこのセンサは、監視対象の各場所に設置されている。情報処理装置2000によってイベント検出位置情報が生成されると、そのイベント検出位置情報で示されるイベント検出位置又はその付近にあるセンサが監視を開始する。例えば本実施例の場合、各ドア70の付近等に赤外線センサが設けられている。そして、図16(b)に示すイベント検出位置50が指定された場合、ドア70-2の付近にあるセンサが監視を開始する。
 イベント検出装置3060によってイベントが検出されると、その旨が情報処理装置2000(タブレット端末)、監視モニタ3080及び警報装置3100に通知される。監視モニタ3080は、例えば警備員室等に設けられているモニタである。例えば監視モニタ3080は、イベントが検出された位置が写っている監視映像を強調表示する等して、イベントの発生を監視員に知らせる。よって、監視員は、イベントが発生した場所を容易に把握することができる。
 警報装置3100は、例えばアラームを鳴らすことで、イベントの発生を監視員に知らせる。このアラームにより、監視員は、イベントの発生を知ることができる。
 また、監視モニタ3080は、記憶装置3040からイベント検出位置情報を取得し、そのイベント検出位置を監視映像上に表示してもよい。これにより、例えば監視員は、イベント検出位置を注視するように監視作業を行うことができる。また、監視員は、イベント検出位置におけるイベント発生の検知をイベント検出装置3060にまかせ、イベント検出位置以外の場所を注視するように監視作業を行うこともできる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 以下、参考形態の例を付記する。
1. 表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理手段と、
 前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、
 第2操作に基づいて前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、
 を有するモバイル監視装置。
2. 前記制御手段は、前記第2操作がなされる前は、前記第1操作に応じて前記第2処理手段に処理させ、前記第2操作がなされた後は、前記第1操作に応じて前記第1処理手段に処理させる1.に記載のモバイル監視装置。
3. 前記第2操作は、前記表示画面又は前記監視画像の任意の箇所に対する所定時間以上のタッチ操作である2.に記載のモバイル監視装置。
4. 前記第2操作は、前記第1操作の開始位置を所定時間以上タッチする操作である2.に記載のモバイル監視装置。
5. 前記第2操作は、前記第1操作の前に開始され、前記第1操作の操作中に継続して行われる、前記表示画面上の任意の箇所に対するタッチ操作であり、
 前記制御手段は、前記第2操作がなされている間、前記第1操作に応じて前記第1処理手段に処理させ、前記第2操作がなされなくなると、前記第1操作に応じて前記第2処理手段に処理させる1.に記載のモバイル監視装置。
6.表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理手段と、
 前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、
 前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、を有し、
 前記制御手段は、当該モバイル監視装置の姿勢が第1の姿勢である場合に、前記第1操作を前記第1処理手段に処理させ、当該モバイル監視装置の姿勢が前記第1の姿勢とは異なる第2の姿勢である場合に、前記第1操作を前記第2処理手段に処理させるモバイル監視装置。
7. 前記イベント検出位置は、通過する物体を検知するための映像監視線の位置、又は物体の所定のイベントを検知する監視領域の位置を表す1.乃至6.いずれか一つに記載のモバイル監視装置。
8. コンピュータを、1.乃至7.いずれか一つに記載のモバイル監視装置として動作させるプログラム。
9. コンピュータによって実行させる制御方法であって、
 表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理ステップと、
 前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、
 第2操作に基づいて前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、
 を有する制御方法。
10. 前記制御ステップは、前記第2操作がなされる前は、前記第1操作に応じて前記第2処理ステップに処理させ、前記第2操作がなされた後は、前記第1操作に応じて前記第1処理ステップに処理させる9.に記載の制御方法。
11. 前記第2操作は、前記表示画面又は前記監視画像の任意の箇所に対する所定時間以上のタッチ操作である10.に記載の制御方法。
12. 前記第2操作は、前記第1操作の開始位置を所定時間以上タッチする操作である10.に記載の制御方法。
13. 前記第2操作は、前記第1操作の前に開始され、前記第1操作の操作中に継続して行われる、前記表示画面上の任意の箇所に対するタッチ操作であり、
 前記制御ステップは、前記第2操作がなされている間、前記第1操作に応じて前記第1処理ステップに処理させ、前記第2操作がなされなくなると、前記第1操作に応じて前記第2処理ステップに処理させる9.に記載の制御方法。
14. コンピュータによって実行される制御方法であって、
 表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理ステップと、
 前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、
 前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、を有し、
 前記制御ステップは、前記コンピュータの姿勢が第1の姿勢である場合に、前記第1操作を前記第1処理ステップに処理させ、前記コンピュータの姿勢が前記第1の姿勢とは異なる第2の姿勢である場合に、前記第1操作を前記第2処理ステップに処理させる制御方法。
15. 前記イベント検出位置は、通過する物体を検知するための映像監視線の位置、又は物体の所定のイベントを検知する監視領域の位置を表す9.乃至14.いずれか一つに記載の制御方法。

Claims (8)

  1.  表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理手段と、
     前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理手段と、
     第2操作に基づいて前記第1操作を前記第1処理手段と前記第2処理手段のどちらか一方に処理させる制御手段と、
     を有するモバイル監視装置。
  2.  前記制御手段は、前記第2操作がなされる前は、前記第1操作に応じて前記第2処理手段に処理させ、前記第2操作がなされた後は、前記第1操作に応じて前記第1処理手段に処理させる請求項1に記載のモバイル監視装置。
  3.  前記第2操作は、前記表示画面又は前記監視画像の任意の箇所に対する所定時間以上のタッチ操作である請求項2に記載のモバイル監視装置。
  4.  前記第2操作は、前記第1操作の開始位置を所定時間以上タッチする操作である請求項2に記載のモバイル監視装置。
  5.  前記第2操作は、前記第1操作の前に開始され、前記第1操作の操作中に継続して行われる、前記表示画面上の任意の箇所に対するタッチ操作であり、
     前記制御手段は、前記第2操作がなされている間、前記第1操作に応じて前記第1処理手段に処理させ、前記第2操作がなされなくなると、前記第1操作に応じて前記第2処理手段に処理させる請求項1に記載のモバイル監視装置。
  6.  前記イベント検出位置は、通過する物体を検知するための映像監視線の位置、又は物体の所定のイベントを検知する監視領域の位置を表す請求項1乃至5いずれか一項に記載のモバイル監視装置。
  7.  コンピュータを、請求項1乃至6いずれか一項に記載のモバイル監視装置として動作させるプログラム。
  8.  コンピュータによって実行させる制御方法であって、
     表示画面上に表示されている監視画像に対する第1操作に応じて、前記監視画像に対してイベント検出位置を設定する第1処理ステップと、
     前記第1操作に応じて、前記監視画像又は前記監視画像を含むウインドウに対する、前記イベント検出位置の設定以外の表示変更処理を行う第2処理ステップと、
     第2操作に基づいて前記第1操作を前記第1処理ステップと前記第2処理ステップのどちらか一方に処理させる制御ステップと、
     を有する制御方法。
PCT/JP2015/059747 2015-03-27 2015-03-27 モバイル監視装置、プログラム、及び制御方法 WO2016157330A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
US15/561,548 US10192128B2 (en) 2015-03-27 2015-03-27 Mobile surveillance apparatus, program, and control method
JP2017508860A JP6229816B2 (ja) 2015-03-27 2015-03-27 モバイル監視装置、プログラム、及び制御方法
PCT/JP2015/059747 WO2016157330A1 (ja) 2015-03-27 2015-03-27 モバイル監視装置、プログラム、及び制御方法
US16/223,167 US10650263B2 (en) 2015-03-27 2018-12-18 Mobile surveillance apparatus, program, and control method
US16/223,177 US10769468B2 (en) 2015-03-27 2018-12-18 Mobile surveillance apparatus, program, and control method
US16/782,162 US20200175298A1 (en) 2015-03-27 2020-02-05 Mobile surveillance apparatus, program, and control method
US16/824,820 US11144776B2 (en) 2015-03-27 2020-03-20 Mobile surveillance apparatus, program, and control method
US17/470,794 US11644968B2 (en) 2015-03-27 2021-09-09 Mobile surveillance apparatus, program, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/059747 WO2016157330A1 (ja) 2015-03-27 2015-03-27 モバイル監視装置、プログラム、及び制御方法

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US15/561,548 A-371-Of-International US10192128B2 (en) 2015-03-27 2015-03-27 Mobile surveillance apparatus, program, and control method
US16/223,177 Continuation US10769468B2 (en) 2015-03-27 2018-12-18 Mobile surveillance apparatus, program, and control method
US16/223,167 Continuation US10650263B2 (en) 2015-03-27 2018-12-18 Mobile surveillance apparatus, program, and control method

Publications (1)

Publication Number Publication Date
WO2016157330A1 true WO2016157330A1 (ja) 2016-10-06

Family

ID=57005871

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/059747 WO2016157330A1 (ja) 2015-03-27 2015-03-27 モバイル監視装置、プログラム、及び制御方法

Country Status (3)

Country Link
US (6) US10192128B2 (ja)
JP (1) JP6229816B2 (ja)
WO (1) WO2016157330A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018116494A1 (ja) * 2016-12-22 2018-06-28 日本電気株式会社 監視カメラ、監視システム、監視カメラの制御方法及びプログラム
JP2019074948A (ja) * 2017-10-17 2019-05-16 株式会社Nttドコモ 情報処理装置
JP2021097299A (ja) * 2019-12-16 2021-06-24 パナソニックi−PROセンシングソリューションズ株式会社 パラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI547177B (zh) * 2015-08-11 2016-08-21 晶睿通訊股份有限公司 視角切換方法及其攝影機
GB2565923A (en) * 2016-05-05 2019-02-27 Animal Apps Pty Ltd Method and apparatus for monitoring animals
KR20180020689A (ko) * 2016-08-19 2018-02-28 엘지전자 주식회사 이동 단말기
GB2556926A (en) * 2016-11-25 2018-06-13 Metrasens Ltd Monitoring system for a detection system
US11650029B1 (en) * 2019-10-09 2023-05-16 Armorworks Holdings, Inc. Digital transparent armor system
US11475640B2 (en) * 2020-02-28 2022-10-18 Manuel Martinello Detection-area fencing with polarity and object ingress/egress monitoring
US11556098B2 (en) 2020-02-28 2023-01-17 Ricoh Company, Ltd. Tracking conditions concerning an area to automatically generate artificial intelligence based responsive actions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000513168A (ja) * 1997-04-14 2000-10-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マスク可能な動き検出及び調節可能視野を具備したセキュリティシステム
JP2002229718A (ja) * 2001-02-02 2002-08-16 Sharp Corp 仮想キーボードおよび仮想キーボードのタッチ位置決定方法
JP2012213042A (ja) * 2011-03-31 2012-11-01 Denso Wave Inc 携帯型設定端末、及び監視システム
JP2013140436A (ja) * 2011-12-28 2013-07-18 Canon Inc 入力表示装置、その制御方法、及びプログラム
WO2014050180A1 (ja) * 2012-09-26 2014-04-03 株式会社日立国際電気 映像表示システム、操作端末、操作方法およびプログラム

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3082018A (en) 1958-06-23 1963-03-19 Borg Warner Leveling valve mechanism
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7065140B1 (en) * 1999-10-06 2006-06-20 Fairchild Semiconductor Corporation Method and apparatus for receiving video signals from a plurality of video cameras
JP2002034032A (ja) 2000-07-13 2002-01-31 Asahi Optical Co Ltd 監視カメラシステム用コントローラ
JP2003091370A (ja) 2001-09-19 2003-03-28 Nec Eng Ltd タッチパネル清掃方法
US6696945B1 (en) 2001-10-09 2004-02-24 Diamondback Vision, Inc. Video tripwire
US6970083B2 (en) 2001-10-09 2005-11-29 Objectvideo, Inc. Video tripwire
JP2005148863A (ja) 2003-11-11 2005-06-09 Konica Minolta Holdings Inc 人数計数システム
JP4763695B2 (ja) 2004-07-30 2011-08-31 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
US20060171453A1 (en) * 2005-01-04 2006-08-03 Rohlfing Thomas R Video surveillance system
JP4362728B2 (ja) 2005-09-20 2009-11-11 ソニー株式会社 制御装置、監視カメラシステム、およびその制御プログラム
ITMI20071016A1 (it) * 2007-05-19 2008-11-20 Videotec Spa Metodo e sistema per sorvegliare un ambiente
JP4976939B2 (ja) 2007-07-04 2012-07-18 株式会社日立国際電気 画像処理装置
US9786164B2 (en) * 2008-05-23 2017-10-10 Leverage Information Systems, Inc. Automated camera response in a surveillance architecture
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
NO332170B1 (no) * 2009-10-14 2012-07-16 Cisco Systems Int Sarl Anordning og fremgangsmate for kamerakontroll
US8570286B2 (en) 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
IL204436A (en) * 2010-03-11 2016-03-31 Deutsche Telekom Ag A system and method for remote control of online TV by waving hands
TWI426782B (zh) 2010-05-19 2014-02-11 Hon Hai Prec Ind Co Ltd 手持裝置及利用其動態監控特定區域的方法
US10645344B2 (en) * 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
US9007432B2 (en) * 2010-12-16 2015-04-14 The Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
JP5691614B2 (ja) * 2011-02-21 2015-04-01 株式会社竹屋 遊技機固定装置
US8957967B2 (en) * 2011-06-03 2015-02-17 Honeywell International Inc. System and method to control surveillance cameras via three dimensional metaphor and cursor
JP2013020062A (ja) 2011-07-11 2013-01-31 Canon Inc 現像装置
US9124783B2 (en) * 2011-09-30 2015-09-01 Camiolog, Inc. Method and system for automated labeling at scale of motion-detected events in video surveillance
US9292195B2 (en) * 2011-12-29 2016-03-22 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
US9361021B2 (en) * 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
JP2014006654A (ja) 2012-06-22 2014-01-16 Fujifilm Corp 情報表示装置、ユーザーインターフェースの提供方法並びにプログラム
JP5638570B2 (ja) 2012-06-22 2014-12-10 ヤフー株式会社 画像表示装置、画像表示方法、及び、画像表示プログラム
US20130346921A1 (en) * 2012-06-26 2013-12-26 Google Inc. Light field lockscreen
WO2014027567A1 (ja) 2012-08-15 2014-02-20 日本電気株式会社 画像処理システム、画像処理方法、及びプログラム
JP5813881B2 (ja) 2012-08-21 2015-11-17 株式会社Nttドコモ 情報処理装置、情報処理システムおよび情報処理方法
US9007402B2 (en) 2012-09-18 2015-04-14 Facebook, Inc. Image processing for introducing blurring effects to an image
JP2014064241A (ja) 2012-09-24 2014-04-10 Hitachi Kokusai Electric Inc 監視カメラ所在公開システム
US9197861B2 (en) * 2012-11-15 2015-11-24 Avo Usa Holding 2 Corporation Multi-dimensional virtual beam detection for video analytics
US9560284B2 (en) * 2012-12-27 2017-01-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
CN103971082A (zh) 2013-01-31 2014-08-06 威联通科技股份有限公司 基于区域转换的视频对象检测系统及相关方法
US9568902B2 (en) * 2013-03-15 2017-02-14 Vivint, Inc. Home security system with touch-sensitive control panel
JP6226539B2 (ja) 2013-03-15 2017-11-08 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
WO2015068854A1 (ja) * 2013-11-11 2015-05-14 日本電気株式会社 回避行動検出装置及び回避原因処理装置並びにそれらの方法
US9544636B2 (en) * 2014-07-07 2017-01-10 Google Inc. Method and system for editing event categories
JP6532217B2 (ja) * 2014-11-19 2019-06-19 キヤノン株式会社 画像処理装置、画像処理方法、及び画像処理システム
JP5866551B1 (ja) 2014-11-20 2016-02-17 パナソニックIpマネジメント株式会社 監視システム及び監視システムにおける監視方法
US10225650B2 (en) * 2014-12-22 2019-03-05 Panasonic Intellectual Property Management Co., Ltd. Directivity control system, directivity control device, abnormal sound detection system provided with either thereof and directivity control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000513168A (ja) * 1997-04-14 2000-10-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マスク可能な動き検出及び調節可能視野を具備したセキュリティシステム
JP2002229718A (ja) * 2001-02-02 2002-08-16 Sharp Corp 仮想キーボードおよび仮想キーボードのタッチ位置決定方法
JP2012213042A (ja) * 2011-03-31 2012-11-01 Denso Wave Inc 携帯型設定端末、及び監視システム
JP2013140436A (ja) * 2011-12-28 2013-07-18 Canon Inc 入力表示装置、その制御方法、及びプログラム
WO2014050180A1 (ja) * 2012-09-26 2014-04-03 株式会社日立国際電気 映像表示システム、操作端末、操作方法およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018116494A1 (ja) * 2016-12-22 2018-06-28 日本電気株式会社 監視カメラ、監視システム、監視カメラの制御方法及びプログラム
JPWO2018116494A1 (ja) * 2016-12-22 2019-11-07 日本電気株式会社 監視カメラ、監視システム、監視カメラの制御方法及びプログラム
JP2022023992A (ja) * 2016-12-22 2022-02-08 日本電気株式会社 監視カメラ、監視システム、監視カメラの制御方法及びプログラム
JP2019074948A (ja) * 2017-10-17 2019-05-16 株式会社Nttドコモ 情報処理装置
JP2021097299A (ja) * 2019-12-16 2021-06-24 パナソニックi−PROセンシングソリューションズ株式会社 パラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラム
JP7444431B2 (ja) 2019-12-16 2024-03-06 i-PRO株式会社 パラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラム

Also Published As

Publication number Publication date
US10192128B2 (en) 2019-01-29
US20200218921A1 (en) 2020-07-09
JP6229816B2 (ja) 2017-11-15
US11644968B2 (en) 2023-05-09
US20200175298A1 (en) 2020-06-04
JPWO2016157330A1 (ja) 2018-01-18
US20190122062A1 (en) 2019-04-25
US10769468B2 (en) 2020-09-08
US11144776B2 (en) 2021-10-12
US20190147282A1 (en) 2019-05-16
US10650263B2 (en) 2020-05-12
US20180082140A1 (en) 2018-03-22
US20210406574A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
JP6229816B2 (ja) モバイル監視装置、プログラム、及び制御方法
US10628010B2 (en) Quick review of captured image data
JP5954106B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
KR102644782B1 (ko) 모니터링 장치 및 시스템
US20120139827A1 (en) Method and apparatus for interacting with projected displays using shadows
WO2023207145A1 (zh) 截屏方法、装置、电子设备及计算机可读介质
TWI578798B (zh) 監控視訊顯示方法及電腦程式產品
WO2022037535A1 (zh) 显示设备及摄像头追踪方法
JP2016213677A (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
CN113873151A (zh) 录像方法、装置及电子设备
CN117918057A (zh) 显示设备及设备控制方法
JP7120337B2 (ja) 制御方法、プログラム、及びシステム
JP6299602B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
CN109033100B (zh) 提供页面内容的方法及装置
JP6515975B2 (ja) モバイル監視装置、モバイル監視システム、プログラム、及び制御方法
JP7276576B2 (ja) カメラ端末、情報処理方法、及びプログラム
JP6996758B2 (ja) モバイル監視装置、制御方法、及びプログラム
CN114895813A (zh) 信息显示方法、装置、电子设备及可读存储介质
JP2015111371A (ja) 情報処理装置、情報処理方法およびプログラム
JP7180473B2 (ja) 表示制御装置、表示制御方法、プログラムおよび表示制御システム
CN112363787A (zh) 图像处理方法、装置和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15887483

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2017508860

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15561548

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15887483

Country of ref document: EP

Kind code of ref document: A1