WO2018193813A1 - 滞在状況表示システムおよび滞在状況表示方法 - Google Patents

滞在状況表示システムおよび滞在状況表示方法 Download PDF

Info

Publication number
WO2018193813A1
WO2018193813A1 PCT/JP2018/013652 JP2018013652W WO2018193813A1 WO 2018193813 A1 WO2018193813 A1 WO 2018193813A1 JP 2018013652 W JP2018013652 W JP 2018013652W WO 2018193813 A1 WO2018193813 A1 WO 2018193813A1
Authority
WO
WIPO (PCT)
Prior art keywords
stay
person
area
status
target area
Prior art date
Application number
PCT/JP2018/013652
Other languages
English (en)
French (fr)
Inventor
園子 平澤
藤松 健
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017084135A external-priority patent/JP6489386B2/ja
Priority claimed from JP2017084132A external-priority patent/JP6489384B2/ja
Priority claimed from JP2017084134A external-priority patent/JP6489385B2/ja
Priority claimed from JP2017084136A external-priority patent/JP6583831B2/ja
Priority claimed from JP2017084130A external-priority patent/JP6489383B2/ja
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to GB201914973A priority Critical patent/GB2575210A/en
Priority to US16/606,463 priority patent/US11212487B2/en
Priority to DE112018001440.1T priority patent/DE112018001440T5/de
Priority to CN201880025251.1A priority patent/CN110520879A/zh
Publication of WO2018193813A1 publication Critical patent/WO2018193813A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/16Real estate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present disclosure relates to a stay status display system and a stay status display method for generating display information related to a person's stay status in a target area based on video captured by a camera installed in a facility.
  • a monitoring system that installs a camera for photographing the inside of the facility and monitors the inside of the facility with the image of the camera is widely spread.
  • This camera video By using this camera video to obtain information about the staying status of people in the facility and presenting that information to the user, it is easy to see whether the person you want to meet for the purpose is at your seat. The convenience of the user can be improved.
  • the user can select and use a conference room that is not being used.
  • the conference room is normally available by reservation, even if the conference room is not currently used, the conference room cannot be used if it is reserved. Therefore, a technique is desired that allows the user to easily confirm whether or not a conference room that is not currently used is reserved.
  • the user can check the use status of the conference room, but the request that the user wants to check the current reservation status of the conference room that is not used is not considered and is not used. There was a problem that the conference room left unattended could not be used effectively.
  • stay map extended map
  • an image representing the stay status of each person is superimposed on the seat (fixed position) of each person on the area map representing the layout of the target area.
  • the present disclosure relates to a stay status display system and a stay status display method capable of presenting to a user information of appropriate contents according to an area where a person stays as information on the stay status of a person in each area in a facility.
  • the first purpose is to provide it.
  • a second object is to provide a system and a stay status display method.
  • the present disclosure makes it possible for the user to easily check the reservation status of the target area as well as the usage status of the target area such as a conference room, and to effectively use the area that is left unused despite being reserved. It is a third object to provide a stay status display system and a stay status display method that can be achieved.
  • the present disclosure also provides a stay status display system and a stay status display method that can accurately detect the stay status of a person even in a place where the position of an object such as a chair that defines the stay location of the person can be changed. Is the fourth purpose.
  • a fifth object is to provide a system and a stay status display method.
  • the stay status display system is a stay status display system in which a processor acquires a video captured by a camera installed in a facility and generates display information related to a person's stay status in a target area.
  • the processor detects a stay of a person in a detection area where a person is expected to stay based on the video, acquires stay information regarding a stay state of the person for each detection area, and the target area.
  • the display information reflecting the stay information is generated according to display items corresponding to preset area attributes.
  • the stay status display system acquires, in real time, a video captured by a camera installed in a facility, and executes a process of generating display information regarding the current status of a person staying in a target area by a processor.
  • the stay status display system wherein the processor detects a stay of a person in a detection area where a person is expected to stay in the target area based on the video, and a stay status of the person for each detection area Based on the stay information, generating a person image having a different display form according to a person's stay state, and superimposing the person image on an area image representing the target area.
  • the stay status display system is a process for acquiring video captured by a camera installed in a facility in real time and generating display information related to a current person's stay status in a target area that can be used by reservation Is a stay status display system that executes a process of detecting a person's stay in the target area based on the video, and acquiring stay information related to the person's stay status in the target area, Based on the stay information, the usage status of the target area is determined, the reservation information regarding the target area is acquired, the fixed image representing the current usage status of the target area, and the current reservation status of the target area The display information including information is generated.
  • the stay status display system is a stay status display system in which a processor acquires a video image captured by a camera installed in a facility and generates display information related to a person's stay status in a target area.
  • the processor performs object detection for detecting a fixed object arranged in the target area from the video, and detects a detection area where a person is expected to stay based on the detection result of the fixed object.
  • Set the area to be set above detect the stay of a person in the detection area based on the video, obtain stay information on the stay status of the person for each detection area, and based on the stay information
  • the display information is generated.
  • the stay status display system acquires a video captured by a camera installed in a facility, displays a stay map representing a stay status of a person in the target area, and according to an editing operation of the operator
  • a stay status display system for executing a process for generating the stay map by a processor, wherein the processor displays an area image representing the target area, and the display form is changed according to the stay status of the person.
  • the person images displayed on the stay map are displayed in a list, and the person images are selected at a fixed position of each person in the area image according to an editing operation of an operator who selects the person image and moves the person image onto the area image.
  • the stay map in which is arranged is generated.
  • the stay status display method is a stay status display method in which a processor acquires a video image captured by a camera installed in a facility and generates display information related to a person's stay status in a target area. Then, based on the video, the stay of the person in the detection area where the stay of the person is assumed is detected, the stay information regarding the stay status of the person for each of the detection areas is acquired, and for each target area The display information reflecting the stay information is generated according to display items corresponding to preset area attributes.
  • the stay status display method includes a process of acquiring video captured by a camera installed in a facility in real time and generating display information related to a current person's stay status in a target area in the facility.
  • a stay status display method executed by a processor, wherein the processor detects a person's stay in a detection area where a person's stay is assumed in the target area based on the video, and Obtaining stay information related to a person's stay status, generating a person image having a different display form according to the person's stay status based on the stay information, and superimposing the person image on an area image representing the target area
  • the display information is generated.
  • the stay status display method of the present disclosure is a process of acquiring video captured by a camera installed in a facility in real time and generating display information related to a current person's stay status in a target area that can be used by reservation
  • a stay status display method executed by a processor wherein the processor detects stay of a person in the target area based on the video, and acquires stay information related to the stay status of the person in the target area, Based on the stay information, the usage status of the target area is determined, the reservation information regarding the target area is acquired, the fixed image representing the current usage status of the target area, and the current reservation status of the target area
  • the display information including information is generated.
  • the stay status display method is a stay status display method in which a processor acquires a video image captured by a camera installed in a facility and generates display information related to a person's stay status in a target area.
  • the processor performs object detection for detecting a fixed object arranged in the target area from the video, and detects a detection area where a person is expected to stay based on the detection result of the fixed object.
  • Set the area to be set above detect the stay of a person in the detection area based on the video, obtain stay information on the stay status of the person for each detection area, and based on the stay information
  • the display information is generated.
  • the stay status display method of the present disclosure acquires video captured by a camera installed in a facility, displays a stay map representing a person's stay status in the target area, and according to an editing operation by the operator
  • a stay status display method in which processing for generating the stay map is executed by a processor, wherein the stay map is displayed so that an area image representing the target area is displayed and a display form is changed according to a stay status of a person.
  • the person images displayed on the area image are displayed in a list, and the person images are arranged at a fixed position of each person in the area image according to an editing operation of an operator who selects the person image and moves it on the area image.
  • the stay map is generated.
  • the display information reflecting the stay information according to the display item corresponding to the area attribute set in advance for each target area in order to generate the display information reflecting the stay information according to the display item corresponding to the area attribute set in advance for each target area, the information of the appropriate content according to the place where the person stays It can be presented to the user.
  • the user can grasp the staying status of each person from the person image superimposed on the area image.
  • the presence status of a plurality of persons can be confirmed collectively, and display information with excellent visibility that can easily identify each person can be presented to the user.
  • the user can easily check the reservation status of the target area as well as the usage status of the target area, and the effective use of the area that is left unused even though the reservation is made can be achieved. Can do.
  • a fixed object for example, a chair
  • a detection area is set based on the detection result
  • the position of the fixed object is changed
  • a stay map is generated by an editing operation of an operator who selects a person image and moves it onto the area image, so that the work of creating or updating the stay map can be performed efficiently.
  • FIG. 1 is an overall configuration diagram of a stay status display system according to the first embodiment.
  • FIG. 2A is an explanatory diagram illustrating the layout of the office in the facility and the installation status of the camera 1 according to the first embodiment.
  • FIG. 2B is an explanatory diagram showing the layout of the conference room in the facility and the installation status of the camera 1 according to the first embodiment.
  • FIG. 2C is an explanatory diagram showing the layout of the shared room in the facility and the installation status of the camera 1 according to the first embodiment.
  • FIG. 3A is an explanatory diagram illustrating a setting state of a detection area for an image of the camera 1 in the office according to the first embodiment.
  • FIG. 3A is an explanatory diagram illustrating a setting state of a detection area for an image of the camera 1 in the office according to the first embodiment.
  • FIG. 3B is an explanatory diagram illustrating a detection area setting state for the video of the camera 1 in the conference room according to the first embodiment.
  • FIG. 3C is an explanatory diagram illustrating a setting state of a detection area for an image of the camera 1 in the common room according to the first embodiment.
  • FIG. 4 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the first embodiment.
  • FIG. 5 is an explanatory diagram showing the contents of the camera setting information according to the first embodiment.
  • FIG. 6 is an explanatory diagram showing an attendance map screen according to the first embodiment.
  • FIG. 7A is an explanatory diagram illustrating a 1F area list screen according to the first embodiment.
  • FIG. 7B is an explanatory diagram illustrating a 2F area list screen according to the first embodiment.
  • FIG. 8 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the second embodiment.
  • FIG. 9 is an explanatory diagram showing an area list screen according to the second embodiment.
  • FIG. 10 is an explanatory diagram showing an attendance map screen according to the second embodiment.
  • FIG. 11A is an explanatory diagram showing a change state (attended, absent) of the person icon according to the second embodiment.
  • FIG. 11B is an explanatory diagram showing a change state (absence time) of the person icon according to the second embodiment.
  • FIG. 12A is an explanatory diagram showing a pop-up menu on the attendance map screen according to the second embodiment.
  • FIG. 12B is an explanatory diagram showing a balloon display on an attendance map screen according to the second embodiment.
  • FIG. 13 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the third embodiment.
  • FIG. 14 is an explanatory diagram showing an area list screen according to the third embodiment.
  • FIG. 15A is an explanatory diagram showing a pop-up menu of the area list screen according to the third embodiment.
  • FIG. 15B is an explanatory diagram showing balloon display on the area list screen according to the third embodiment.
  • FIG. 16 is an explanatory diagram illustrating a modification of the area list screen according to the third embodiment.
  • FIG. 17 is a flowchart showing a processing procedure of the facility management apparatus 3 according to the third embodiment.
  • FIG. 18 is a flowchart showing a modification of the processing procedure of the facility management apparatus 3 according to the third embodiment.
  • FIG. 19 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the fourth embodiment.
  • FIG. 20 is an explanatory diagram illustrating a setting state of detection areas according to the fourth embodiment.
  • FIG. 21 is a flowchart showing a processing procedure of the facility management apparatus 3 according to the fourth embodiment.
  • FIG. 22 is a flowchart showing a modification of the processing procedure of the facility management apparatus 3 according to the fourth embodiment.
  • FIG. 23 is an explanatory diagram showing a detection area editing screen according to the fourth embodiment.
  • FIG. 24 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the fifth embodiment.
  • FIG. 24 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the fifth embodiment.
  • FIG. 25 is an explanatory diagram showing an attendance map edit screen according to the fifth embodiment.
  • FIG. 26 is an explanatory diagram showing a main part of an attendance map editing screen according to the fifth embodiment.
  • FIG. 27 is an explanatory diagram showing an area map editing screen according to the fifth embodiment.
  • a processor executes a process of acquiring video captured by a camera installed in a facility and generating display information related to a person's staying state in a target area.
  • a stay status display system wherein the processor detects a stay of a person in a detection area where a person is expected to stay based on the video, and stores stay information related to the stay status of the person for each detection area. It is set as the structure which acquires the said display information reflecting the said stay information according to the display item according to the area attribute acquired beforehand for every said target area.
  • the information of the appropriate content according to the place where the person stays is given to the user can be presented.
  • the processor generates the display information according to the display item according to whether the area attribute of the room to be the target area is an office room, a conference room, or a common room.
  • the configuration is as follows.
  • information suitable for each of the office room, the conference room, and the common room can be presented to the user.
  • the third invention is configured such that the processor generates the display information by using a use state of an aggregate area in which a plurality of the detection areas are aggregated as the display item.
  • the area attribute includes a first area attribute having a person's presence status in each of the detection areas as the display item, and a use status of the entire target area as the display item. And a third area attribute for displaying the usage status of each section set in the target area as a display item.
  • the fifth invention is configured such that the processor generates the display information in which a fixed image indicating the staying state is superimposed on an area map representing the layout of the target area.
  • the sixth aspect of the invention is a stay status display method in which a processor acquires a video image taken by a camera installed in a facility and generates display information related to a person's stay status in a target area by a processor. Based on the video, the stay of a person in a detection area where a person's stay is assumed is detected, stay information regarding the stay status of the person for each detection area is acquired, and preset for each target area.
  • the display information reflecting the stay information is generated according to display items corresponding to the area attributes.
  • a stay status display system executed by a processor, wherein the processor detects a person's stay in a detection area where a person's stay is assumed in the target area based on the video, and Obtaining stay information related to a person's stay status, generating a person image having a different display form according to the person's stay status based on the stay information, and superimposing the person image on an area image representing the target area
  • the display information is generated.
  • the user can grasp the staying status of each person from the person image superimposed on the area image.
  • the presence status of a plurality of persons can be confirmed collectively, and display information with excellent visibility that can easily identify each person can be presented to the user.
  • the processor generates display information for displaying a list of a plurality of target areas, and generates the display information related to the selected target area in response to an operation of a user selecting the target area.
  • the configuration is as follows.
  • the user when there are a large number of target persons in a large-scale facility, the user can easily grasp the stay status of the person by setting multiple target areas and displaying information for each target area. be able to.
  • the person image includes a face image registered in advance.
  • the user can easily identify the person.
  • a tenth aspect of the invention is configured such that the processor changes the display color of the person image according to whether or not the person is currently staying.
  • the user can easily grasp the current staying status of the person.
  • the eleventh invention is configured such that the processor changes the display color of the person image according to the length of the person's absence time.
  • the user can easily grasp the absence time of the person.
  • the twelfth invention is configured such that the processor displays the past and future staying status of the person involved in the selection in accordance with the operation of the user who selects the person image.
  • the user can confirm the past and future attendance status of the person who is currently absent.
  • the thirteenth aspect of the invention is configured such that the processor displays a schedule of persons involved in the selection in response to a user operation for selecting the person image.
  • the user can easily confirm the schedule of the person who is currently absent.
  • the fourteenth invention is configured such that the processor displays a screen for creating an e-mail addressed to the person involved in the selection in response to an operation of the user selecting the person image.
  • the user can easily create an e-mail addressed to a person who is currently absent.
  • a processor executes processing for acquiring video captured by a camera installed in a facility in real time and generating display information related to a current person's staying status in a target area in the facility.
  • a stay status display method for detecting the stay of a person in a detection area where a person is expected to stay in the target area based on the video, and the stay of the person in each detection area.
  • the display information obtained by acquiring stay information relating to the situation, generating a person image having a different display form according to the stay situation of the person based on the stay information, and superimposing the person image on an area image representing the target area Is generated.
  • the seventh aspect it is possible to confirm the presence status of a plurality of persons at once, and to present information with excellent visibility that can easily identify each person to the user. be able to.
  • display information related to a current person's staying status in a target area that can be used by reservation by acquiring in real time video captured by a camera installed in a facility.
  • a stay status display system in which a processor generates a stay status display system that detects the stay of a person in the target area based on the video and the stay information on the stay status of the person in the target area Based on the stay information, determining the usage status of the target area, acquiring reservation information regarding the target area, a fixed image representing the current usage status of the target area, and the current status of the target area
  • the display information including the information related to the reservation status is generated.
  • the processor relates to the current reservation status of the target area corresponding to the selected fixed image in response to a user operation to select the fixed image indicating that the processor is not in use. Is displayed.
  • the reservation status of the target area that the user wants to use can be confirmed immediately.
  • the processor executes a control for canceling information related to a current reservation status of the target area when a predetermined time has passed without the usage status of the target area being used.
  • a nineteenth aspect of the present invention when the processor already has a reservation for use in the target area corresponding to the selected fixed image in response to a user operation to select the fixed image representing that the processor is not in use. Is configured to notify the reservation person to cancel the reservation for use of the target area.
  • the processor in response to a notification that the use reservation of the target area is to be canceled, the processor immediately receives a reply to accept the cancellation of the use reservation.
  • the reservation information is updated by canceling the use reservation.
  • the processor does not receive a reply to accept the cancellation of the usage reservation in response to the notification that the usage reservation of the target area is canceled, and the usage status of the target area is When the state that does not change during use continues for a predetermined time, the use reservation of the target area is canceled and the reservation information is updated.
  • the twenty-second aspect of the invention has a configuration in which the processor sets the fixed image to an inoperable state or a non-display state when the setting for disabling the use reservation of the target area is made.
  • a processor performs processing for acquiring in real time an image captured by a camera installed in a facility and generating display information relating to a current person's stay in a target area that can be used by reservation.
  • a stay status display method to be executed wherein the processor detects a stay of a person in the target area based on the video, acquires stay information related to a stay status of the person in the target area, and the stay information Based on the target area, the usage status of the target area is determined, reservation information related to the target area is acquired, a fixed image representing the current usage status of the target area, and information related to the current reservation status of the target area are included.
  • the display information is generated.
  • the user can easily confirm the reservation status of the target area as well as the usage status of the target area, and the validity of the area that is left unused even though it is reserved. Can be used.
  • a processor executes a process of acquiring video captured by a camera installed in a facility and generating display information related to a person's staying state in the target area.
  • a stay status display system wherein the processor performs object detection for detecting a fixed object arranged in the target area from the video, and detects a person's stay based on a detection result of the fixed object
  • An area setting for setting an area on the video is performed, and based on the video, a stay of a person in the detection area is detected, stay information regarding a stay status of the person for each detection area is acquired, and the stay The display information is generated based on the information.
  • the 25th invention is configured such that the processor detects a person who detects a person from the video, and performs the object detection and the area setting at a timing when the person is not detected.
  • the processor performs a person detection for detecting a person from the video, and performs the object detection and the area setting for a place where no person is detected.
  • the processor performs the object detection and the area setting at regular intervals.
  • the detection area is updated at any time, so that the stay of a person can be detected in an appropriate detection area.
  • the processor displays a detection area image representing a range of the detection area on the video, and the detection area according to an operator's editing operation performed on the detection area image. It is set as the structure which corrects.
  • an appropriate detection area can be set.
  • a twenty-ninth aspect of the invention is a stay status display method in which a processor acquires a video image taken by a camera installed in a facility and generates display information related to a person's stay status in a target area by a processor.
  • the processor performs object detection for detecting a fixed object arranged in the target area from the video, and sets a detection area on the video based on a detection result of the fixed object. And setting the area to be detected, detecting the stay of the person in the detection area based on the video, obtaining the stay information on the stay status of the person for each detection area, and displaying the display information based on the stay information Is generated.
  • a thirtieth aspect of the present invention in which a video captured by a camera installed in a facility is acquired, a stay map representing a person's stay in the target area is displayed, and an operator edit A stay status display system that executes processing for generating the stay map according to an operation by a processor, wherein the processor displays an area image representing the target area and has a display form according to a stay status of a person.
  • the position of each person in the area image is displayed according to an editing operation of an operator that displays a list of person images displayed on the stay map so as to be changed, selects the person image, and moves the person image onto the area image.
  • the stay map in which the person image is arranged is generated.
  • the stay map is generated by the editing operation of the operator who selects the person image and moves it on the area image, so that the work of creating or updating the stay map can be performed efficiently.
  • the processor detects a pre-registered object from the video, acquires position information of the object in the target area, and represents the object based on the position information of the object.
  • the area image on which the object image is drawn is generated.
  • the processor displays the object image on the video, and displays the area image in which the object image is corrected in accordance with an editing operation performed by the operator on the object image.
  • an appropriate area image can be generated.
  • the position and size of the object image may be changed (enlarged or reduced), the unnecessary object image may be deleted, and a necessary object image may be added.
  • the person image includes at least one of a face image, a character representing a name, and a character representing an attribute.
  • the user can easily identify the person by the person image.
  • the person image includes a face image, the staying status of the person can be grasped even when the name of the person is unknown.
  • the thirty-fourth aspect of the present invention acquires a video shot by a camera installed in a facility, displays a stay map indicating a person's stay status in the target area, and also displays the stay map according to an operator's editing operation.
  • the stay map in which the person image is arranged at a fixed position of each person in the area image according to an editing operation of an operator who displays a list of person images and selects the person image and moves the person image onto the area image Is generated.
  • FIG. 1 is an overall configuration diagram of a stay status display system according to the first embodiment.
  • This stay status display system presents to a user information related to the stay status of a person in each room (target area) in a facility, and includes a camera 1, a recorder 2, a facility management device 3, and a user terminal 4. It is equipped with.
  • the camera 1, the recorder 2, the facility management apparatus 3, and the user terminal 4 are connected via a network.
  • the camera 1 is installed in each room (target area) in the facility, and photographs a person staying in each room.
  • Recorder 2 accumulates video transmitted from camera 1.
  • the facility management device 3 receives the video transmitted from the camera 1 and the recorder 2 and analyzes the video to generate display information regarding the staying status of the person in each room (target area) in the facility.
  • the user terminal 4 is a PC or tablet terminal operated by the user. Based on the display information transmitted from the facility management device 3, the user terminal 4 displays a screen regarding the staying status of the person in each room (target area) in the facility, and the user browses this screen, The user can check the staying status of the person in each room in the facility.
  • FIG. 1 is explanatory diagrams showing the layout of each room in the facility and the installation status of the camera 1.
  • the facility is provided with an office (office) shown in FIG. 2A, a conference room shown in FIG. 2B, and a common room shown in FIG. 2C.
  • desks and chairs are arranged side by side, and a seat composed of a pair of desks and chairs is assigned to each person, and each person sits on his / her seat and performs business. .
  • a plurality of chairs are arranged around one table, and one group rents the entire room for use.
  • a plurality of tables are arranged, and a plurality of chairs are arranged around each table, and one table (divided area) is composed of one table and a plurality of chairs around it. ) Is formed, and one group is rented out and used by one group.
  • a camera 1 is installed on the ceiling of each room in the office, meeting room, and common room, and photographs the person staying in each room.
  • the camera 1 may be an omnidirectional camera that captures a 360-degree range using a fisheye lens, but a box camera that captures a range of a predetermined angle of view is also possible.
  • 3A, 3 ⁇ / b> B, and 3 ⁇ / b> C are explanatory diagrams illustrating detection area setting states for the video of the camera 1.
  • a detection area (a dotted rectangular area) is set in advance on the video of the camera 1. This detection area is set to a position where the body of the person seated in the seat is assumed to exist, and the size of the person's body is used as a reference so that one detection area corresponds to one person. Is set.
  • the presence detection process is performed based on the detection area set on the video of the camera 1.
  • the presence detection process the stay of a person in the detection area on the video is detected, and stay information regarding the stay status of the person for each detection area is acquired.
  • room attributes area attributes set in advance for each room (target area), specifically, display items corresponding to each of the office (office room), the conference room, and the common room are displayed. Therefore, the display information reflecting the stay information is generated.
  • the staying status of a person in each detection area that is, the seating status for each seat is a display item, and based on the stay information, The presence status regarding whether or not a person is present in each seat is displayed.
  • display information is generated with the use status of an aggregate area in which a plurality of detection areas are aggregated as a display item.
  • the usage status of one room (target area) as a whole is a display item, and the usage status regarding whether each room is in use is displayed.
  • the entire room (target area) as one determination area it is determined whether each room is in use based on the stay information. Note that if a stay of one or more persons is detected in one room, the room may be determined to be in use.
  • display information is generated using the usage status of an aggregate area in which a plurality of detection areas are aggregated as a display item, as in a conference room.
  • the usage status of each section (divided area) set in a room (target area) is a display item, and the usage status regarding whether each section is in use is displayed.
  • using one section including a plurality of detection areas as one determination area it is determined whether each section is in use based on the stay information. If a stay of one or more persons is detected in one section, it may be determined that the section is in use.
  • the detection area may be set by performing an operation in which the user specifies the range of the detection area on the screen on which the video of the camera 1 is displayed.
  • An object a chair and a desk
  • a detection area may be set based on the detection result.
  • FIG. 4 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4.
  • the facility management device 3 includes a communication unit 21, a processor 22, a storage unit 23, a monitor 24 (display device), and an input device 25.
  • the communication unit 21 communicates with the camera 1 and the recorder 2 and receives video transmitted from the camera 1 and the recorder 2.
  • the storage unit 23 stores various types of setting information such as video received by the communication unit 21, setting information regarding the detection area and setting information regarding the camera (see FIG. 5), a program executed by the processor 22, and the like.
  • the monitor 24 displays a screen (not shown) for inputting a detection area.
  • a screen for inputting a detection area.
  • an operator performs an operation of inputting a detection area.
  • the processor 22 performs various processes by executing a program stored in the storage unit 23. In this embodiment, each process of presence detection, area determination, and screen control is performed.
  • a person's stay in a detection area in which a person's stay set in advance on the video is assumed is detected at regular intervals, and the regular time in each detection area is detected.
  • the stay information on the stay situation of each person is acquired.
  • a video of a detection area at each time is cut out from a video at each time with a predetermined sampling period (for example, 1 minute). Then, the video change rate is acquired for the video in the detection area at each time. At this time, the video change rate with respect to the video at the immediately preceding time is obtained by comparison with the video at the immediately preceding time after the sampling period. Next, the presence or absence of a person staying in the detection area is determined based on the video change rate at each time.
  • the stay information indicating whether or not the person stays at each time with the sampling period is generated.
  • the presence detection process it is possible to use a discriminator that has previously learned two classes of the presence state and the absence state by deep learning.
  • the classifier obtains the likelihood (probability) as the presence state and the likelihood as the absence state with respect to the image of the detection area, and compares the two likelihoods. It can be determined whether the user is present or absent.
  • the usage status of the aggregate area in which a plurality of detection areas are aggregated is determined according to the room attribute (area attribute). That is, in a room where one group exclusively uses the entire room, such as a conference room, the use status regarding whether or not the room is in use is determined. Further, in a room where a plurality of sections are set in the target area, such as a shared room, the use status regarding whether or not each section is in use is determined.
  • the screen displayed on the user terminal 4 is controlled.
  • display information related to the stay status presentation screen (see FIGS. 6, 7A, and 7B) is generated.
  • This stay status presentation screen is updated at regular intervals according to the detection result (stay information) of presence detection and the determination result of area determination.
  • the facility management device 3 can present the current stay status to the user in real time by performing processing using the current video acquired from the camera 1. Moreover, the past stay situation can be presented to the user by performing processing using the past video acquired from the recorder 2. As a result, the administrator can grasp the usage status of each room in the past, review the room layout, etc., and check the improvement status when the room layout is changed. .
  • the user terminal 4 includes a communication unit 31, a processor 32, a storage unit 33, a monitor 34, and an input device 35.
  • the communication unit 31 communicates with the facility management apparatus 3.
  • the storage unit 33 stores a program executed by the processor 22 and the like.
  • the processor 32 controls the operation of each unit of the user terminal 4 and, in response to the operation of the input device 35 by the user, issues a request for displaying a stay status presentation screen (see FIGS. 6, 7A, and 7B) from the communication unit 31 to the facility. It transmits to the management apparatus 3. And if the display information regarding the stay status presentation screen transmitted from the facility management apparatus 3 is received by the communication unit 31, the stay status presentation screen is displayed on the monitor 34 based on the display information.
  • the input device 35 is a touch panel and is combined with a display panel serving as the monitor 34 to constitute a touch panel display.
  • FIG. 5 is an explanatory diagram showing the contents of the camera setting information.
  • the processor 22 acquires the room attribute of each room, and generates display information according to the display item corresponding to the room attribute.
  • one room is set as one target area, and a room attribute (area attribute) is set for each room.
  • a room attribute area attribute
  • one room is divided into a plurality of divided areas, and the division is performed.
  • An area attribute may be set for each area.
  • FIG. 6 is an explanatory diagram showing an attendance map screen as a stay status presentation screen.
  • 7A and 7B are explanatory diagrams illustrating an area list screen as a stay status presentation screen.
  • a stay status presentation screen showing the stay status of a person in each room in the facility is displayed on the user terminal 4.
  • a presence map 42 (stay map) representing the presence status (stay status) of each person is displayed.
  • a seat icon 43 (standard image) representing the seating status for each seat is superimposed on an area map 44 (map image) representing the layout of the office (target area).
  • a desk image 45 is drawn on the area map 44.
  • the seat icon 43 displays the characters “present” or “not present” depending on the presence status (present or absent). Further, the seat icon 43 changes in color according to the presence status, and is displayed in red when the user is present, and is displayed in green when the user is absent. Note that the display mode of the seat icon 43 in the office is not limited to this, and it is only necessary to be able to identify the presence status (present and absent), and a person icon or the like described later can be used.
  • the usage status of the entire conference room is a display item, and as shown in FIG. 7A, an area icon 46 indicating the usage status of each conference room is displayed on the area list screen.
  • this area icon 46 characters “in use” or “available” are displayed according to the use situation. Further, the area icon 46 changes its color according to the use situation, and is displayed in red when in use, and is displayed in green when available in an empty state.
  • the usage status of each section (divided area) set in the shared room (target area) is a display item, and as shown in FIG. 7B, the area list screen shows the usage status for each section.
  • a partition icon 47 is displayed.
  • characters “in use” or “available” are displayed according to the use status.
  • the section icon 47 changes in color according to the usage status, and is displayed in red when in use, and in green when available in an empty state.
  • the seat icon 43 is superimposed on the area map 44 representing the office layout in the office stay status presentation screen (attended map screen) shown in FIG. You may make it superimpose the seat icon 43 on. In this case, it is preferable to perform processing for correcting the distortion of the video.
  • FIG. 8 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the second embodiment.
  • an attendance map (see FIG. 6) is displayed.
  • this attendance map the presence status of a person in the office can be confirmed, but each person can be easily identified. Can not. Therefore, in the present embodiment, a person icon including a person's face image is displayed on an attendance map so that the attendance status of a plurality of persons can be checked together and each person can be easily identified.
  • the facility management apparatus 3 includes a communication unit 21, a processor 22, a storage unit 23, a monitor 24, and an input device 25, as in the first embodiment.
  • the communication unit 21, the storage unit 23, the monitor 24, and the input device 25 are the same as those in the first embodiment, but in addition to this, the storage unit 23 stores schedule information of each person.
  • the processor 22 performs each process of presence detection and screen control as in the first embodiment, but also performs each process of schedule cooperation and mail cooperation.
  • the presence detection process is the same as in the first embodiment.
  • the mail application program installed in the user terminal 4 is activated in response to a user operation on the attendance map screen (see FIG. 10), and an e-mail creation screen is displayed on the user terminal 4. .
  • the facility management device 3 stores the schedule information of each person, but this schedule information may be acquired from a device dedicated to schedule management.
  • the facility management device 3 itself may perform schedule management.
  • the user terminal 4 includes a communication unit 31, a processor 32, a storage unit 33, a monitor 34, and an input device 35 as in the first embodiment.
  • the communication unit 31 communicates with the facility management apparatus 3.
  • the storage unit 33 stores a program executed by the processor 22 and the like.
  • the processor 32 controls the operation of each unit of the user terminal 4, and in response to an operation of the input device 35 by the user, displays a request for displaying an area list screen (see FIG. 9) or an attendance map screen (see FIG. 10) as a communication unit. 31 to the facility management apparatus 3. And if the display information regarding the area list screen and stay status presentation screen transmitted from the facility management apparatus 3 is received by the communication unit 31, the area list screen and the stay status presentation screen are displayed on the monitor 34 based on the display information.
  • the processor 32 executes a mail application program stored in the storage unit 33 in accordance with a user operation on the attendance map screen (see FIG. 10), and displays an e-mail creation screen on the monitor 34.
  • FIG. 9 is an explanatory diagram showing an area list screen.
  • This area list screen is provided with tabs 41 for each floor (1F, 2F, 3F).
  • the area list screen for the selected floor is displayed.
  • the tab 41 of the floor (3F) where the office (office) is located is selected, a plurality of area icons 51 representing each office (target area) are displayed side by side.
  • a scroll operation that is, when the pointer is overlaid on the area icon 51 and the scroll button of the mouse is operated, the area icon 51 is displayed. Is enlarged and transitions to the attendance map screen. Further, when the input device 35 is a touch panel, a pinch out or swipe operation may be performed.
  • FIG. 10 is an explanatory diagram showing an attendance map screen.
  • FIG. 11A and FIG. 11B are explanatory diagrams showing a change state of the person icon 53.
  • 12A and 12B are explanatory diagrams showing the main part of the attendance map screen.
  • an attendance map 52 (stay map) representing the attendance status (stay status) of each person is displayed on the attendance map screen.
  • a person icon 53 person image
  • an area map 44 map image representing the layout of the office (target area).
  • a desk image 45 is drawn on the area map 44.
  • the person icon 53 is displayed at a position corresponding to each person's seat, specifically at the position of the chair on which each person is seated.
  • a person's face image (face image) is embedded. Thereby, a person can be easily identified.
  • a room (target area) is selected on the area list screen (see FIG. 9), and the attendance map screen is displayed.
  • the attendance map screen is displayed.
  • the person icon 53 in which a face image is embedded is arranged on the area map 44 as a person image for identifying each person.
  • This person image is a feature of the appearance of the person. It may be an image (caricature, avatar) that is drawn schematically, or a character that identifies an individual, that is, a character that represents a person's name or a person's attribute (affiliation or title). There may be.
  • the display form of the person icon 53 changes depending on the person's presence status.
  • the color of the face image of the person icon 53 changes depending on the presence / absence of a person. Specifically, the face image is displayed in color when the user is present, and the face image is displayed in gray when the user is absent. As a result, the user can immediately confirm whether or not a person is present.
  • the display form changes according to the absence time.
  • the color of the portion other than the face image of the person icon 53 changes according to the presence or absence of a person. For example, when the absence time is short, it is displayed in blue, when the absence time is long, it is displayed in red, and when the absence time is long, it changes from blue to red.
  • the absence time includes the past absence time, that is, the time from when the person left the seat to the present time, and the future absence time (predicted absence time), that is, from the present time to the time when the person is scheduled to return to the seat.
  • the user can specify in which absence time the person icon 53 is to be displayed.
  • the past absence time can be calculated based on the stay information acquired by the presence detection. Further, the future absence time can be calculated from the schedule information.
  • this attendance map screen when a predetermined operation is performed on the person icon 53, a transition is made to a schedule screen (not shown), and the schedule of the person can be confirmed.
  • a schedule screen not shown
  • the schedule of the person can be confirmed.
  • FIG. 12A when “schedule” is selected from the pop-up menu 55 displayed by performing a left click operation on the person icon 53, a transition is made to the schedule screen for that person. Thereby, the user can confirm the schedule of the person.
  • a transition is made to a mail creation screen (not shown), and an e-mail addressed to that person can be created.
  • a mail creation screen (not shown), and an e-mail addressed to that person can be created.
  • the screen changes to a mail creation screen.
  • the destination address is set in advance, it is possible to save the trouble of inputting the address.
  • “schedule” and “e-mail” may be selected from a list box (not shown) displayed by right-clicking on the area icon.
  • the input device 35 is a touch panel, such as when the user terminal 4 is a tablet terminal, a transition to the schedule screen or the mail creation screen is made by an operation such as tap, double tap, or long tap (long press). You can do it.
  • the balloon 57 is displayed by a mouse-over operation in which the pointer is over the person icon 53.
  • the balloon 57 includes information indicating the past presence status, that is, information indicating when the user has been absent (from 15:00), and future presence status, that is, when the user is present (from when the user is absent) ) (Information not scheduled from 17:00).
  • the user can confirm the presence status of the person in the past and the future.
  • the past presence status of the person may be acquired from the stay information indicating whether or not the person stays at each time, which is acquired by the presence detection process. Moreover, what is necessary is just to acquire the future seating condition of a person from schedule information.
  • the pop-up menu 55 is displayed by the left click operation
  • the list box (not shown) is displayed by the right click operation
  • the balloon 57 is displayed by the mouse over operation.
  • the operation is not limited to such an operation.
  • FIG. 13 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the third embodiment.
  • the usage status of the conference room (target area) is presented to the user.
  • the conference room can be used by reservation, the conference room is not currently used. But if it is reserved, the conference room cannot be used. Therefore, in this embodiment, the reservation status is presented to the user as well as the conference room usage status.
  • the facility management apparatus 3 includes a communication unit 21, a processor 22, a storage unit 23, a monitor 24, and an input device 25, as in the first embodiment.
  • the communication unit 21, the storage unit 23, the monitor 24, and the input device 25 are the same as those in the first embodiment.
  • the storage unit 23 stores schedule information related to conference room use reservation.
  • the processor 22 performs each process of presence detection, area determination, screen control, reservation management, schedule cooperation, and mail cooperation.
  • the stay of a person in the detection area is detected at regular intervals based on the video of the camera 1, and the stay information relating to the stay status of the person at regular intervals in the conference room is acquired.
  • the stay status of the person in the conference room that is, the use status regarding whether or not the conference room is currently being used is determined at regular intervals.
  • display information related to the area list screen (see FIG. 14) that displays the usage status and reservation status of the conference room (target area) is generated.
  • the schedule for conference room use reservation is managed. Specifically, a reservation screen (not shown) is displayed on the user terminal 4 to cause the user to perform a conference room use reservation operation, and a process of accepting a conference room use reservation according to the operation is performed. . In addition, a cancel screen (not shown) is displayed on the user terminal 4 to cause the user to perform an operation of canceling the use reservation, and according to the operation, a process of canceling the use reservation and updating the reservation information is performed. .
  • a cancel disable flag that disables the cancellation of the use reservation is set by the user specifying at the time of reservation.
  • the reservation schedule information of the conference room is acquired from the storage unit 23 in accordance with the user operation on the area list screen (see FIG. 14), and the reservation schedule information is displayed on the screen.
  • the mail application program installed in the user terminal 4 is activated in response to a user operation on the area list screen (see FIG. 14), and an e-mail creation screen is displayed on the user terminal 4.
  • the facility management apparatus 3 manages the schedule related to the conference room use reservation, but a reservation management-dedicated apparatus may be provided separately.
  • the schedule information is acquired from the reservation management apparatus, and when the use reservation needs to be canceled, a notification instructing the cancellation of the use reservation is transmitted from the facility management apparatus 3 to the reservation management apparatus. do it.
  • the user terminal 4 includes a communication unit 31, a processor 32, a storage unit 33, a monitor 34, and an input device 35 as in the first embodiment.
  • the communication unit 31 communicates with the facility management apparatus 3.
  • the storage unit 33 stores a program executed by the processor 22 and the like.
  • the processor 32 controls the operation of each unit of the user terminal 4 and transmits a display request for an area list screen (see FIG. 14) from the communication unit 31 to the facility management apparatus 3 in accordance with the operation of the input device 35 by the user.
  • the communication unit 31 receives display information related to the area list screen transmitted from the facility management device 3, the area list screen is displayed on the monitor 34 based on the display information.
  • the processor 32 executes the mail application program stored in the storage unit 33 in accordance with the user operation on the area list screen (see FIG. 14), and displays the e-mail creation screen on the monitor 34.
  • FIG. 14 is an explanatory diagram showing an area list screen.
  • FIG. 15A and FIG. 15B are explanatory diagrams showing the main part of the area list screen.
  • the area list screen (usage status presentation screen) is provided with a tab 41 for each floor (1F, 2F, 3F).
  • this tab 41 is selected, the area of the selected floor is displayed.
  • a list screen is displayed.
  • a plurality of area icons 61 standard images representing each conference room (target area) are displayed side by side.
  • the display form of the area icon 61 changes according to the current usage status of the conference room. For example, it is displayed in red when in use, and is displayed in green when not in use.
  • this area list screen when a predetermined operation is performed on the area icon 61, a transition to a schedule screen (not shown) can be made and the conference room reservation schedule can be confirmed.
  • a transition to a schedule screen (not shown) can be made and the conference room reservation schedule can be confirmed.
  • the screen changes to a conference room reservation schedule screen.
  • a mail creation screen not shown
  • the screen changes to a mail creation screen.
  • the destination address is set in advance, it is possible to save the trouble of inputting the address.
  • “schedule” and “e-mail” may be selected from a list box (not shown) displayed by performing a right-click operation on the area icon 61.
  • the input device 35 is a touch panel such as when the user terminal 4 is a tablet terminal, a transition to the reservation schedule screen or the mail creation screen is made by an operation such as tap, double tap, or long tap (long press). What should I do?
  • the current reservation status of the conference room (target area) is displayed.
  • the balloon 67 is displayed by a mouse-over operation of placing the pointer on the area icon 61. This balloon 67 describes the current reservation status of the conference room (no reservation) and the current usage status of the conference room (not used from 15:00).
  • the pop-up menu 65 is displayed by the left click operation
  • the list box (not shown) is displayed by the right click operation
  • the balloon 67 is displayed by the mouse over operation.
  • the operation is not limited to such an operation.
  • FIG. 16 is an explanatory diagram showing a modification of the area list screen.
  • the display form (color) of the area icon 61 representing each conference room (target area) is changed according to the current usage status of the conference room.
  • the area icon 61 is displayed as grayed out in an inoperable state.
  • the area icon 61 may be hidden when the cancel impossible flag is set.
  • FIG. 17 is a flowchart showing the processing procedure of the facility management apparatus 3.
  • the process of canceling the use reservation of the conference room that is left unused is periodically performed.
  • the process shown below is sequentially performed for each conference room.
  • the processor 22 determines whether or not a reservation is currently made in the target conference room (ST101). If no reservation is currently made in the target conference room (No in ST101), the process ends.
  • the conference room is reserved but not used, the conference room is not used at all from the beginning of the reservation time, or the conference is finished earlier than scheduled and the conference room is empty There is. For this reason, in the elapse determination of the predetermined time (ST104), if no use is made from the beginning of the reservation time, the determination may be made based on the elapse time (left time) from the start time of the reserved use time. In addition, when the reserved usage time is in an empty state, it may be determined based on the elapsed time after the empty state.
  • the updated reservation information is reflected in the area list screen (see FIG. 14) that displays the usage status of the conference room and displayed by a mouse-over operation.
  • the balloon 67 see FIG. 15B, it is displayed that the reservation has been canceled.
  • FIG. 18 is a flowchart showing a modification of the processing procedure of the facility management apparatus 3.
  • an operation for selecting a conference room (target area) on the area list screen specifically, a click or mouse-over operation on the area icon 61 was performed. Is detected (Yes in ST111), it is determined whether or not a reservation is currently made in the target conference room (ST101). If no reservation is currently made in the target conference room (No in ST101), the process ends.
  • a notification (cancellation notification) for canceling the reservation is transmitted to the user terminal 4 of the reservation by e-mail or the like (ST105). Then, it is determined whether or not there is a reply to accept the cancellation of the reservation (ST112).
  • a process for canceling the use reservation and updating the reservation information is performed (ST106).
  • the user who wants to use the conference room browses the area list screen (see FIG. 14, the usage status presentation screen), confirms the usage status of the conference room, and further selects the conference room to be used.
  • the reservation status is confirmed, processing for canceling the conference room use reservation is started.
  • the user waits for cancellation, and the use reservation of the conference room that is left unused is quickly canceled, and the conference room can be used early. Note that there are cases where a plurality of users confirm the usage status of the conference room, and waiting for cancellation may conflict.
  • the area list screen (see FIG. 14, usage status presentation screen) is displayed, and the user terminal 4 on which the user has operated the screen indicates that the usage reservation has been canceled.
  • the notification may be transmitted by e-mail or the like.
  • a conference room is a target area
  • the target area is not limited to this and may be a room used for purposes other than a conference. The same applies to a case where a reservation is required for each of a plurality of sections set in one room serving as a target area, such as a shared room.
  • FIG. 19 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the fourth embodiment.
  • a fixed object that is installed in a store and defines the staying position of a person, specifically, the position of a table and a chair is detected, and a detection area is set based on the detection result.
  • the detection area can be updated as needed, and even if the customer or store clerk moves the chair and the table, it is possible to avoid a decrease in the accuracy of presence detection.
  • the facility management apparatus 3 includes a communication unit 21, a processor 22, a storage unit 23, a monitor 24 (display device), and an input device 25, as in the first embodiment.
  • the communication unit 21, the storage unit 23, the monitor 24, and the input device 25 are the same as those in the first embodiment.
  • the processor 22 performs processes of person detection, object detection, detection area setting, and detection area correction. In addition, the processor performs each process of presence detection and screen control as in the first embodiment.
  • the person detection process a person is detected from the video acquired from the camera 1. If a person is present in the video, the detection accuracy of the chair and the table is lowered in the object detection process. Therefore, when a person is detected from the video, the subsequent object detection and detection area setting processes are not performed.
  • the chair and the table are detected from the video acquired from the camera 1, and the position information of the chair and the table is acquired.
  • the classifiers learn in advance the chairs and tables (fixed objects) installed in the store, and the object detection is performed by learning the fixed objects. Can be improved.
  • the detection area setting process based on the position information of the chair and table acquired in the object detection process, a detection area that is a target for presence detection of whether or not a person is present is set. At this time, since the chair and the table at a position away from the camera 1 appear small in the video, the size of the detection area is corrected according to the distance from the camera 1.
  • the detection area edit screen (see FIG. 23) is displayed on the monitor 24, and the detection area edit screen is displayed. The position and size of the detection area are corrected according to the operation of the operator.
  • the stay information related to the stay status of the person is acquired by the presence detection, and the display information is generated based on the stay information. Similar to the first embodiment, a stay map (attended map) may be generated. Thereby, in a large-scale store, a customer's stay situation can be grasped at a glance.
  • statistical information related to the operation status of the store such as the customer seat occupancy time, the seating rate, and the average stay time, may be generated, and display information related to the statistical information may be generated.
  • FIG. 20 is an explanatory diagram showing the setting status of the detection area.
  • the video of the camera 1 shows a table and a chair installed in the store, and the table and the chair are detected by object detection for the video, and a detection area is set on the video based on the detection result. .
  • FIG. 21 is a flowchart showing the processing procedure of the facility management apparatus 3.
  • a fixed object that is installed in a store and defines the staying position of a person, specifically the position of a table and a chair, is detected, and a detection area is set based on the detection result.
  • the detection area is updated at any time by periodically performing this process at regular intervals (for example, 15 minutes or 30 minutes).
  • the processor 22 acquires the video of the camera 1 and performs processing for detecting a person from the video (ST201). Then, it is determined whether or not a person has been detected in the person detection process (ST202).
  • the detection area is set based on the position information of the detected object, and the area setting information is updated (ST205). That is, the position information of the detection area newly set based on the position of the detected object is registered in the area setting information.
  • the person detection is performed prior to the object detection.
  • the person detection may not be performed.
  • the user may be able to select whether or not to perform person detection in the user settings.
  • FIG. 22 is a flowchart showing a modification of the processing procedure of the facility management apparatus 3.
  • the object detection and area setting processes are performed at a timing when no person is detected.
  • object detection and area setting are performed for a place where no person is detected.
  • Do processing That is, the target area is divided into a plurality of divided areas, and object detection and area setting processing are performed on the divided areas where no person is detected.
  • the divided area may be, for example, a cell obtained by dividing the target area with a uniform size.
  • the processor 22 performs a process of detecting a person from the video of the camera 1 for the first divided area (ST211). Then, it is determined whether or not a person has been detected in the person detection process (ST212).
  • the detection area is set based on the detected position information of the object, and the area setting information is updated (ST215). That is, the position information of the detection area newly set based on the position of the detected object is registered in the area setting information.
  • FIG. 23 is an explanatory diagram showing a detection area editing screen.
  • the position information of the chair and the table is acquired by detecting the object with respect to the image, and the detection area is set based on the position information.
  • the object detection process for example, the baggage is erroneously detected as the chair or the table. In this case, the position and size of the detection area are inappropriate. Therefore, in the present embodiment, the position and size of the detection area can be corrected on the detection area edit screen shown in FIG.
  • a frame line 71 (detection area image) representing the range of the detection area is displayed on the video 72 of the camera 1 based on the position information of the detection area acquired in the area setting process. It can be checked whether the position and size of the area are different from the actual one. Here, when the position and size of the detection area are different from the actual one, the position and size of the detection area can be corrected by selecting the frame line 71 of the detection area and performing the movement or size change operation. Can do.
  • a correction operation can be performed by selecting the detection area frame 71 by left-clicking, and the detection area frame 71 can be moved to the correct position by a drag-and-drop operation.
  • the pointer changes to a double-pointed arrow, and the size of the detection area frame 71 can be corrected. it can.
  • an “add” button 75 and a “delete” button 76 are provided in the detection area correction screen.
  • the “add” button 75 is operated, a new detection area frame line 71 appears on the image 72, and the detection area frame line 71 is moved or resized to operate the detection area frame line 71. Can be set to an appropriate position and size.
  • the “delete” button 76 is operated, the frame line 71 of the detection area in the selected state can be deleted.
  • the frame line 71 of the detection area is displayed on the video 72 of the camera 1, but at this time, image processing for correcting distortion appearing in the video of the omnidirectional camera may be performed. .
  • FIG. 24 is a block diagram illustrating a schematic configuration of the facility management apparatus 3 and the user terminal 4 according to the fifth embodiment.
  • the presence map 52 (see FIG. 10) indicating the presence status of each person is displayed on the user terminal 4, but in the present embodiment, the facility management device 3 allows the operator to perform an editing operation. An attendance map 52 is created.
  • the attendance map 52 is created by the facility management apparatus 3, but an application program for attendance map editing is installed on the user terminal 4 operated by the administrator, and the user The presence map 52 may be created by the terminal 4.
  • the facility management apparatus 3 includes a communication unit 21, a processor 22, a storage unit 23, a monitor 24 (display device), and an input device 25, as in the first embodiment.
  • the communication unit 21, the storage unit 23, the monitor 24, and the input device 25 are the same as those in the first embodiment, but in addition to this, the storage unit 23 stores the affiliation information and face image of each person.
  • the processor 22 performs processes such as person list generation, person icon generation, object detection, area map generation, area map correction, and presence map generation. In addition, the processor 22 performs each process of presence detection and screen control, as in the first embodiment.
  • a person list 81 (see FIG. 25) to be displayed on the attendance map editing screen is generated based on the affiliation information of each person acquired from the storage unit 23.
  • a person icon 53 (see FIG. 25) in which the face image of each person acquired from the storage unit 23 is embedded is generated.
  • the object is detected from the video of the camera 1 and the position information of the object in the office (target area) is acquired.
  • the chair and the desk are detected from the video, and the position information of the chair and the desk is acquired.
  • an area map 44 (see FIG. 25) representing the layout of the office (target area) is generated based on the chair and desk position information.
  • an attendance map edit screen (see FIG. 25) is displayed on the monitor 24, and the seat of each person on the area map 44 is displayed in accordance with the operator's operation on the attendance map edit screen.
  • An attendance map 52 in which a person icon 53 is arranged at a position is generated.
  • an area map editing screen (see FIG. 27) is displayed on the monitor 24, and the operator operates on the area map editing screen. Then, the area map 44 is corrected.
  • the facility management apparatus 3 stores the affiliation information and face image of each person.
  • the affiliation information and face image may be acquired from an apparatus dedicated to organization management. Further, the facility management apparatus 3 itself may perform organization management.
  • FIG. 25 is an explanatory diagram showing an attendance map editing screen.
  • FIG. 26 is an explanatory diagram showing the main part of the attendance map editing screen.
  • the attendance map editing screen shown in FIG. 25 is displayed on the monitor 24, and the attendance map 52 is created when the operator performs an editing operation.
  • the attendance map is edited when the system is introduced. It is also performed when the layout of the office (target area) is changed or when a person is changed.
  • a tab 41 for each floor (1F, 2F, 3F) is provided on the attendance map editing screen.
  • this tab 41 is selected, the screen of the selected floor is displayed.
  • a screen similar to the area list screen (see FIG. 9) shown in the second embodiment is displayed.
  • the screen changes to an attendance map editing screen shown in FIG.
  • a person list 81 is displayed on the attendance map editing screen.
  • the person list 81 displays a list of person names and person icons 53 (person images) in a state of being classified based on the organization structure to which the person belongs. Specifically, the names of the groups, the names of the teams constituting each group, the names of the persons belonging to each team, and the person icon 53 are displayed side by side. A person face image is embedded in the person icon 53.
  • an area map 44 (area image) representing the target room is displayed on the attendance map editing screen.
  • a seat frame 83 (object image) in which a person icon 53 is arranged is drawn at the position of the seat (chair) (fixed position of each person), and the desk image 45 (object image) is placed at the desk position. ) Is drawn.
  • the person icon 53 displayed in the person list 81 can be moved onto the area map 44 and pasted on the seat frame 83 of the area map 44 by a predetermined operation, for example, a drag and drop operation.
  • a predetermined operation for example, a drag and drop operation.
  • the person icon 53 is arranged on the area map 44 on which the seat frame 83 and the desk image 45 are drawn as the area image representing the target area.
  • the person icon 53 is displayed on the video of the camera 1. 53 may be arranged. In this case, it is preferable to perform image processing for correcting image distortion.
  • the balloon 85 is displayed by a mouse-over operation.
  • the present invention is not limited to such an operation.
  • FIG. 27 is an explanatory diagram showing an area map editing screen.
  • the position information of the chair and the desk is acquired by object detection on the video, and the area map 44 on which the seat frame 83 and the image 45 of the desk are drawn is generated based on the position information.
  • the position and size of the seat frame 83 and the desk image 45 on the area map 44 become different from the actual ones. Therefore, in the present embodiment, the position and size of the seat frame 83 and the desk image 45 on the area map can be corrected on the area map editing screen shown in FIG.
  • the area map 44 generated by the area map generation processing is displayed on the video 86 of the camera 1 to check whether the position and size of the seat frame 83 and the desk image 45 are different from the actual ones. Can do.
  • the seat frame 83 and the desk image 45 are selected, and the seat frame is moved and resized. 83 and the position and size of the desk image 45 can be corrected.
  • a correction operation can be performed by left-clicking to select the seat frame 83, and the seat frame 83 can be moved to a correct position by a drag and drop operation.
  • the seat frame 83 when the seat frame 83 is selected, when the pointer is overlaid on the frame line of the seat frame 83, the pointer changes to a double-sided arrow, and the size of the seat frame 83 can be corrected. Note that the position and size of the desk image 45 can also be corrected in the same manner as the seat frame 83.
  • an “add” button 87 and a “delete” button 88 are provided.
  • the “add” button 87 is operated, a new seat frame 83 and a desk image 45 appear on the area map 44, and the seat frame 83 and the desk image 45 are moved and resized to perform a seat frame.
  • 83 and the desk image 45 can be set to an appropriate position and size.
  • the “delete” button 88 is operated, the seat frame 83 and the desk image 45 in the selected state can be deleted.
  • the area map 44 is displayed on the video 86 of the camera 1. However, at this time, image processing for correcting distortion appearing in the video of the omnidirectional camera may be performed.
  • the embodiment has been described as an example of the technique disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can be applied to embodiments in which changes, replacements, additions, omissions, and the like have been performed.
  • the stay status display system and the stay status display method according to the present disclosure may present the user with appropriate information according to the area where the person stays as information regarding the stay status of the person in each area within the facility.
  • the present invention is useful as a stay status display system, a stay status display method, and the like that generate display information related to the stay status of a person in a target area based on video captured by a camera installed in a facility.

Abstract

施設内の各エリアでの人物の滞在状況に関する情報として、人物が滞在するエリアに応じた適切な内容の情報をユーザに提示できるようにする。カメラの映像に基づいて、施設管理装置のプロセッサは、オフィス、会議室などの対象エリアにおいて、在席検知、エリア判定、および画面制御の各処理を実行し、人物の滞在状況に関する滞在情報を取得し、対象エリアごとの表示項目にしたがって、滞在情報を反映させた表示情報を生成する。

Description

滞在状況表示システムおよび滞在状況表示方法
 本開示は、施設に設置されたカメラにより撮影される映像に基づいて、対象エリアにおける人物の滞在状況に関する表示情報を生成する滞在状況表示システムおよび滞在状況表示方法に関するものである。
 オフィスビルなどの施設においては、施設内を撮影するカメラを設置して、そのカメラの映像で施設内の状況を監視する監視システムが広く普及している。このようなカメラの映像を利用して、施設内での人物の滞在状況に関する情報を取得して、その情報をユーザに提示するようにすると、所用で面会したい人物が自席にいるかどうかなどを簡単に確認することができ、ユーザの利便性が向上する。
 このような人物の滞在状況をユーザに提示する技術として、従来、カメラの映像に基づいて、人物の在席状況に関する情報、具体的には、在席・空席、会議中、電話中、面会拒否などに関する情報を取得して、その情報をユーザに提示し、また、在席率・空席率などの占有率、混雑度、混雑場所などに関する統計情報をユーザに提示する技術が知られている(特許文献1参照)。
特開2002-260110号公報
 さて、人物がオフィス(事務室)にある自席に在席しているか否かを知りたいユーザには、その人物が自席に在席しているか否かに関する滞在状況(在席状況)を提示すればよいが、この他に、ユーザが希望する情報として、会議室に人物がいるか否か、すなわち、会議室が利用中か否かを知りたい場合があり、人物が滞在する場所ごとに、ユーザが希望する情報の内容が異なる。
 しかしながら、従来の技術では、人物が特定の場所にいるか否かに関する情報をユーザに提示するだけであり、人物が滞在する場所に応じて、ユーザが希望する内容の情報をユーザに提示することができないという問題があった。
 また、複数の人物の在席状況を一括して確認したいといった要望がある。例えば、特定の人物の在席状況を確認したいユーザは、その人物の在席状況の他に、その周辺に座席がある別の人物、例えば特定の人物と同じチームに所属する別の人物の在席状況も確認したい場合がある。
 しかしながら、従来の技術では、人物が特定の場所にいるか否かに関する滞在情報をユーザに提示するだけであり、複数の人物の滞在状況を一括して確認できないという問題があった。また、複数の人物の滞在状況をユーザに提示する場合、各人物を簡単に識別できるようにすることが望まれる。
 また、会議室の利用状況をユーザに提示するようにすると、利用されていない会議室をユーザが選んで利用できるようになる。ところが、会議室は、通常、予約により利用できるようになっているため、会議室が現在利用されていない場合でも、予約されている場合には、その会議室は利用することができない。そこで、現在利用されていない会議室が予約されているか否かをユーザが簡単に確認できる技術が望まれる。
 しかしながら、従来の技術では、会議室の利用状況をユーザが確認することができるが、利用されていない会議室の現在の予約状況をユーザが確認したいという要望についてなんら考慮されておらず、利用されないまま放置されている会議室を有効利用できないという問題があった。
 また、飲食店などの店舗では、フリーレイアウト、すなわち、営業時間内に顧客や店員が椅子およびテーブルを自由に移動させることができる場合がある。この場合、人物の在席を検知するために映像上に予め設定された検知エリアが、実際の座席の位置からずれた状態となるため、在席検知の精度が低下する。そこで、座席の位置が変更された場合でも人物の在席状況を精度よく検知することができる技術が望まれる。
 しかしながら、従来の技術では、人物が特定の場所にいるか否かに関する滞在情報をユーザに提示するだけであり、座席の位置が変更された場合の対応についてなんら考慮されておらず、座席の位置が変更された場合に人物の在席状況を精度よく検知できないという問題があった。
 また、オフィスのように多数の人物が滞在する場所では、視認性に優れた滞在情報をユーザに提示して、各人物の滞在状況をユーザが簡単に確認できるようにするとよい。そこで、対象エリアのレイアウトを表すエリアマップ上の各人物の座席(定位置)に、各人物の滞在状況を表す画像を重畳した滞在マップ(在席マップ)を表示することが考えられる。
 一方、オフィスでは、組織変更などに伴って、机や椅子の位置や席割りがしばしば変更されることがある。このため、滞在マップの作成や更新が頻繁に必要になり、大変な手間がかかる。そこで、滞在マップの作成や更新の作業を効率よく行うことができる技術が望まれる。
 しかしながら、従来の技術では、人物が特定の場所にいるか否かに関する滞在情報をユーザに提示するだけであり、視認性に優れた滞在マップをユーザに提示することに関してなんら考慮されておらず、滞在マップの作成や更新の作業を効率よく行うことができないという問題があった。
 本開示は、施設内の各エリアでの人物の滞在状況に関する情報として、人物が滞在するエリアに応じた適切な内容の情報をユーザに提示することができる滞在状況表示システムおよび滞在状況表示方法を提供することを第1の目的とする。
 また、本開示は、複数の人物の在席状況を一括して確認することができ、さらに、各人物を簡単に識別可能な視認性に優れた情報をユーザに提示することができる滞在状況表示システムおよび滞在状況表示方法を提供することを第2の目的とする。
 また、本開示は、会議室などの対象エリアの利用状況とともに、対象エリアの予約状況もユーザが簡単に確認できるようにして、予約したにも拘わらず利用されないまま放置されるエリアの有効利用を図ることができる滞在状況表示システムおよび滞在状況表示方法を提供することを第3の目的とする。
 また、本開示は、人物の滞在位置を規定する椅子などの物体の位置を変更できる場所でも、人物の滞在状況を精度よく検知することができる滞在状況表示システムおよび滞在状況表示方法を提供することを第4の目的とする。
 また、本開示は、多数の人物が滞在する場所を対象にして各人物の滞在状況を提示する場合の視認性に優れた滞在マップの作成や更新の作業を効率よく行うことができる滞在状況表示システムおよび滞在状況表示方法を提供することを第5の目的とする。
 本開示の滞在状況表示システムは、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記映像に基づいて、人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記対象エリアごとに予め設定されたエリア属性に応じた表示項目にしたがって前記滞在情報を反映させた前記表示情報を生成する構成とする。
 また、本開示の滞在状況表示システムは、施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記映像に基づいて、前記対象エリアにおいて人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて、人物の滞在状況に応じて表示形態が異なる人物画像を生成し、前記対象エリアを表すエリア画像上に前記人物画像を重畳した前記表示情報を生成する構成とする。
 また、本開示の滞在状況表示システムは、施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、予約により利用可能な対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記映像に基づいて、前記対象エリアにおける人物の滞在を検知して、前記対象エリアにおける人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて、前記対象エリアの利用状況を判定し、前記対象エリアに関する予約情報を取得し、前記対象エリアの現在の利用状況を表す定形画像、および前記対象エリアの現在の予約状況に関する情報を含む前記表示情報を生成する構成とする。
 また、本開示の滞在状況表示システムは、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記対象エリアに配置された定形物体を前記映像から検出する物体検出を行い、前記定形物体の検出結果に基づいて、人物の滞在が想定される検知エリアを前記映像上に設定するエリア設定を行い、前記映像に基づいて、前記検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて前記表示情報を生成する構成とする。
 また、本開示の滞在状況表示システムは、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況を表す滞在マップを表示するとともに、オペレータの編集操作に応じて前記滞在マップを生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記対象エリアを表すエリア画像を表示するとともに、人物の滞在状況に応じて表示形態が変更されるように前記滞在マップに表示される人物画像を一覧表示し、前記人物画像を選択して前記エリア画像上に移動させるオペレータの編集操作に応じて、前記エリア画像における各人物の定位置に前記人物画像が配置された前記滞在マップを生成する構成とする。
 また、本開示の滞在状況表示方法は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記映像に基づいて、人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記対象エリアごとに予め設定されたエリア属性に応じた表示項目にしたがって前記滞在情報を反映させた前記表示情報を生成する構成とする。
 また、本開示の滞在状況表示方法は、施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、前記施設内の対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記プロセッサは、前記映像に基づいて、前記対象エリアにおいて人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて、人物の滞在状況に応じて表示形態が異なる人物画像を生成し、前記対象エリアを表すエリア画像上に前記人物画像を重畳した前記表示情報を生成する構成とする。
 また、本開示の滞在状況表示方法は、施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、予約により利用可能な対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記プロセッサは、前記映像に基づいて、前記対象エリアにおける人物の滞在を検知して、前記対象エリアにおける人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて、前記対象エリアの利用状況を判定し、前記対象エリアに関する予約情報を取得し、前記対象エリアの現在の利用状況を表す定形画像、および前記対象エリアの現在の予約状況に関する情報を含む前記表示情報を生成する構成とする。
 また、本開示の滞在状況表示方法は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記プロセッサは、前記対象エリアに配置された定形物体を前記映像から検出する物体検出を行い、前記定形物体の検出結果に基づいて、人物の滞在が想定される検知エリアを前記映像上に設定するエリア設定を行い、前記映像に基づいて、前記検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて前記表示情報を生成する構成とする。
 また、本開示の滞在状況表示方法は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況を表す滞在マップを表示するとともに、オペレータの編集操作に応じて前記滞在マップを生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記対象エリアを表すエリア画像を表示するとともに、人物の滞在状況に応じて表示形態が変更されるように前記滞在マップに表示される人物画像を一覧表示し、前記人物画像を選択して前記エリア画像上に移動させるオペレータの編集操作に応じて、前記エリア画像における各人物の定位置に前記人物画像が配置された前記滞在マップを生成する構成とする。
 本開示によれば、対象エリアごとに予め設定されたエリア属性に応じた表示項目にしたがって滞在情報を反映させた表示情報を生成するため、人物が滞在する場所に応じた適切な内容の情報をユーザに提示することができる。
 また、本開示によれば、エリア画像上に重畳された人物画像により、各人物の滞在状況をユーザが把握することができる。これにより、複数の人物の在席状況を一括して確認することができ、さらに、各人物を簡単に識別可能な視認性に優れた表示情報をユーザに提示することができる。
 また、本開示によれば、対象エリアの利用状況とともに、対象エリアの予約状況もユーザが簡単に確認できるようになり、予約したにも拘わらず利用されないまま放置されるエリアの有効利用を図ることができる。
 また、本開示によれば、人物の滞在位置を規定する定形物体(例えば椅子)を映像から検出して、その検出結果に基づいて検知エリアを設定するため、定形物体の位置が変更された場合でも人物の滞在状況を精度よく検知することができる。
 また、本開示によれば、人物画像を選択してエリア画像上に移動させるオペレータの編集操作で、滞在マップが生成されるため、滞在マップの作成や更新の作業を効率よく行うことができる。
図1は、第1実施形態に係る滞在状況表示システムの全体構成図である。 図2Aは、第1実施形態に係る施設内のオフィスのレイアウトおよびカメラ1の設置状況を示す説明図である。 図2Bは、第1実施形態に係る施設内の会議室のレイアウトおよびカメラ1の設置状況を示す説明図である。 図2Cは、第1実施形態に係る施設内の共用室のレイアウトおよびカメラ1の設置状況を示す説明図である。 図3Aは、第1実施形態に係るオフィスでのカメラ1の映像に対する検知エリアの設定状況を示す説明図である。 図3Bは、第1実施形態に係る会議室でのカメラ1の映像に対する検知エリアの設定状況を示す説明図である。 図3Cは、第1実施形態に係る共用室でのカメラ1の映像に対する検知エリアの設定状況を示す説明図である。 図4は、第1実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。 図5は、第1実施形態に係るカメラ設定情報の内容を示す説明図である。 図6は、第1実施形態に係る在席マップ画面を示す説明図である。 図7Aは、第1実施形態に係る1Fのエリア一覧画面を示す説明図である。 図7Bは、第1実施形態に係る2Fのエリア一覧画面を示す説明図である。 図8は、第2実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。 図9は、第2実施形態に係るエリア一覧画面を示す説明図である。 図10は、第2実施形態に係る在席マップ画面を示す説明図である。 図11Aは、第2実施形態に係る人物アイコンの変化状況(在席、不在)を示す説明図である。 図11Bは、第2実施形態に係る人物アイコンの変化状況(不在時間)を示す説明図である。 図12Aは、第2実施形態に係る在席マップ画面でのポップアップメニューを示す説明図である。 図12Bは、第2実施形態に係る在席マップ画面の吹き出し表示を示す説明図である。 図13は、第3実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。 図14は、第3実施形態に係るエリア一覧画面を示す説明図である。 図15Aは、第3実施形態に係るエリア一覧画面のポップアップメニューを示す説明図である。 図15Bは、第3実施形態に係るエリア一覧画面の吹き出し表示を示す説明図である。 図16は、第3実施形態に係るエリア一覧画面の変形例を示す説明図である。 図17は、第3実施形態に係る施設管理装置3の処理手順を示すフロー図である。 図18は、第3実施形態に係る施設管理装置3の処理手順の変形例を示すフロー図である。 図19は、第4実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。 図20は、第4実施形態に係る検知エリアの設定状況を示す説明図である。 図21は、第4実施形態に係る施設管理装置3の処理手順を示すフロー図である。 図22は、第4実施形態に係る施設管理装置3の処理手順の変形例を示すフロー図である。 図23は、第4実施形態に係る検知エリア編集画面を示す説明図である。 図24は、第5実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。 図25は、第5実施形態に係る在席マップ編集画面を示す説明図である。 図26は、第5実施形態に係る在席マップ編集画面の要部を示す説明図である。 図27は、第5実施形態に係るエリアマップ編集画面を示す説明図である。
 前記課題を解決するためになされた第1の発明は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記映像に基づいて、人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記対象エリアごとに予め設定されたエリア属性に応じた表示項目にしたがって前記滞在情報を反映させた前記表示情報を生成する構成とする。
 これによると、対象エリアごとに予め設定されたエリア属性に応じた表示項目にしたがって滞在情報を反映させた表示情報を生成するため、人物が滞在する場所に応じた適切な内容の情報をユーザに提示することができる。
 また、第2の発明は、前記プロセッサは、前記対象エリアとなる部屋の前記エリア属性が、事務室、会議室および共用室のいずれであるかに応じた前記表示項目にしたがって前記表示情報を生成する構成とする。
 これによると、事務室、会議室、共用室の各々に適した内容の情報をユーザに提示することができる。
 また、第3の発明は、前記プロセッサは、複数の前記検知エリアを集約した集約エリアの利用状況を前記表示項目として前記表示情報を生成する構成とする。
 これによると、人物が滞在する場所に応じた適切な内容の情報をユーザに提示することができる。
 また、第4の発明は、前記エリア属性には、前記検知エリアの各々での人物の在席状況を前記表示項目とする第1のエリア属性と、前記対象エリア全体の利用状況を前記表示項目とする第2のエリア属性と、前記対象エリア内に複数設定された各区画の利用状況を前記表示項目する第3のエリア属性とがある構成とする。
 これによると、人物が滞在する場所に応じた適切な内容の情報をユーザに提示することができる。
 また、第5の発明は、前記プロセッサは、前記対象エリアのレイアウトを表わすエリアマップ上に、前記滞在状況を示す定形画像を重畳した前記表示情報を生成する構成とする。
 これによると、人物が滞在する場所に応じ適切な内容の情報をわかりやすくユーザに提示することができる。
 また、第6の発明は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記映像に基づいて、人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記対象エリアごとに予め設定されたエリア属性に応じた表示項目にしたがって前記滞在情報を反映させた前記表示情報を生成する構成とする。
 これによると、第1の発明と同様に、人物が滞在する場所に応じた適切な内容の情報をユーザに提示することができる。
 前記課題を解決するためになされた第7の発明は、施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記映像に基づいて、前記対象エリアにおいて人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて、人物の滞在状況に応じて表示形態が異なる人物画像を生成し、前記対象エリアを表すエリア画像上に前記人物画像を重畳した前記表示情報を生成する構成とする。
 これによると、エリア画像上に重畳された人物画像により、各人物の滞在状況をユーザが把握することができる。これにより、複数の人物の在席状況を一括して確認することができ、さらに、各人物を簡単に識別可能な視認性に優れた表示情報をユーザに提示することができる。
 また、第8の発明は、前記プロセッサは、複数の対象エリアを一覧表示する表示情報を生成し、ユーザが前記対象エリアを選択する操作に応じて、選択した前記対象エリアに関する前記表示情報を生成する構成とする。
 これによると、大規模な施設で対象となる人物の人数が多い場合に、対象エリアを複数設定して、対象エリアごとに情報を表示することで、人物の滞在状況をユーザが容易に把握することができる。
 また、第9の発明は、前記人物画像は、予め登録された顔画像を含む構成とする。
 これによると、人物をユーザが容易に識別することができる。
 また、第10の発明は、前記プロセッサは、人物の現在の滞在の有無に応じて、前記人物画像の表示色を変化させる構成とする。
 これによると、人物の現在の滞在状況をユーザが容易に把握することができる。
 また、第11の発明は、前記プロセッサは、人物の不在時間の長さに応じて、前記人物画像の表示色を変化させる構成とする。
 これによると、人物の不在時間をユーザが容易に把握することができる。
 また、第12の発明は、前記プロセッサは、前記人物画像を選択するユーザの操作に応じて、その選択にかかる人物の過去および未来の滞在状況を表示する構成とする。
 これによると、現在不在である人物の過去および未来の在席状況をユーザが確認することができる。
 また、第13の発明は、前記プロセッサは、前記人物画像を選択するユーザの操作に応じて、その選択にかかる人物のスケジュールを表示する構成とする。
 これによると、現在不在である人物のスケジュールをユーザが容易に確認することができる。
 また、第14の発明は、前記プロセッサは、前記人物画像を選択するユーザの操作に応じて、その選択にかかる人物を宛先とした電子メールを作成する画面を表示する構成とする。
 これによると、現在不在である人物を宛先とした電子メールをユーザが容易に作成することができる。
 また、第15の発明は、施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、前記施設内の対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記プロセッサは、前記映像に基づいて、前記対象エリアにおいて人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて、人物の滞在状況に応じて表示形態が異なる人物画像を生成し、前記対象エリアを表すエリア画像上に前記人物画像を重畳した前記表示情報を生成する構成とする。
 これによると、第7の発明と同様に、複数の人物の在席状況を一括して確認することができ、さらに、各人物を簡単に識別可能な視認性に優れた情報をユーザに提示することができる。
 前記課題を解決するためになされた第16の発明は、施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、予約により利用可能な対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記映像に基づいて、前記対象エリアにおける人物の滞在を検知して、前記対象エリアにおける人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて、前記対象エリアの利用状況を判定し、前記対象エリアに関する予約情報を取得し、前記対象エリアの現在の利用状況を表す定形画像、および前記対象エリアの現在の予約状況に関する情報を含む前記表示情報を生成する構成とする。
 これによると、対象エリアの利用状況とともに、対象エリアの予約状況もユーザが簡単に確認できるようになり、予約したにも拘わらず利用されないまま放置されるエリアの有効利用を図ることができる。
 また、第17の発明は、前記プロセッサは、利用中でないことを表す前記定形画像を選択するユーザの操作に応じて、選択された前記定形画像に対応する前記対象エリアの現在の予約状況に関する情報を表示する構成とする。
 これによると、ユーザが利用したい対象エリアの予約状況を即座に確認することができる。
 また、第18の発明は、前記プロセッサは、前記対象エリアの利用状況が利用中にならずに所定時間経過すると、前記対象エリアの現在の予約状況に関する情報を解除する制御を実行する構成とする。
 これによると、利用される可能性の低い対象エリアの利用予約を迅速に解除することができる。
 また、第19の発明は、前記プロセッサは、利用中でないことを表す前記定形画像を選択するユーザの操作に応じて、選択された前記定形画像に対応する前記対象エリアに既に利用予約がある場合には、予約者に対して、前記対象エリアの利用予約を解除する旨の通知を行う構成とする。
 これによると、利用しない対象エリアの利用予約の解除を予約者に促すことができる。
 また、第20の発明は、前記プロセッサは、前記対象エリアの利用予約を解除する旨の通知に対して、利用予約の解除を承諾する旨の返信があった場合には、直ちに前記対象エリアの利用予約を解除して前記予約情報を更新する構成とする。
 これによると、利用しない対象エリアの利用予約を迅速に解除することができる。
 また、第21の発明は、前記プロセッサは、前記対象エリアの利用予約を解除する旨の通知に対して、利用予約の解除を承諾する旨の返信がなく、かつ、前記対象エリアの利用状況が利用中に変化しない状態が、所定時間継続すると、前記対象エリアの利用予約を解除して前記予約情報を更新する構成とする。
 これによると、利用される可能性の低い対象エリアの利用予約を解除することができる。
 また、第22の発明は、前記プロセッサは、前記対象エリアの利用予約の解除を不可とする設定がなされている場合には、前記定形画像を操作不能状態または非表示状態とする構成とする。
 これによると、利用予約の解除が不可であることをユーザが即座に把握して無駄な操作を行うことを避けることができる。
 また、第23の発明は、施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、予約により利用可能な対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記プロセッサは、前記映像に基づいて、前記対象エリアにおける人物の滞在を検知して、前記対象エリアにおける人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて、前記対象エリアの利用状況を判定し、前記対象エリアに関する予約情報を取得し、前記対象エリアの現在の利用状況を表す定形画像、および前記対象エリアの現在の予約状況に関する情報を含む前記表示情報を生成する構成とする。
 これによると、第16の発明と同様に、対象エリアの利用状況とともに、対象エリアの予約状況もユーザが簡単に確認できるようにして、予約したにも拘わらず利用されないまま放置されるエリアの有効利用を図ることができる。
 前記課題を解決するためになされた第24の発明は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記対象エリアに配置された定形物体を前記映像から検出する物体検出を行い、前記定形物体の検出結果に基づいて、人物の滞在が想定される検知エリアを前記映像上に設定するエリア設定を行い、前記映像に基づいて、前記検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて前記表示情報を生成する構成とする。
 これによると、人物の滞在位置を規定する定形物体(例えば椅子)を映像から検出して、その検出結果に基づいて検知エリアを設定するため、定形物体の位置が変更された場合でも人物の滞在状況を精度よく検知することができる。
 また、第25発明は、前記プロセッサは、前記映像から人物を検出する人物検出を行い、人物が検出されないタイミングで、前記物体検出および前記エリア設定を行う構成とする。
 これによると、映像内に存在する人物により定形物体の誤検出が発生することで、誤った検知エリアが設定されることを避けることができる。
 また、第26の発明は、前記プロセッサは、前記映像から人物を検出する人物検出を行い、人物が検出されない場所を対象にして、前記物体検出および前記エリア設定を行う構成とする。
 これによると、映像内に存在する人物により定形物体の誤検出が発生することで、誤った検知エリアが設定されることを避けることができる。
 また、第27の発明は、前記プロセッサは、前記物体検出および前記エリア設定を一定時間ごとに行う構成とする。
 これによると、椅子やテーブルなどの定形物体の位置が変化しても、検知エリアが随時更新されるため、適切な検知エリアで人物の滞在を検知することができる。
 また、第28の発明は、前記プロセッサは、前記検知エリアの範囲を表す検知エリア画像を前記映像上に表示し、前記検知エリア画像に対して行われるオペレータの編集操作に応じて、前記検知エリアを修正する構成とする。
 これによると、映像から物体を検出する際に誤検出が発生しても、適切な検知エリアを設定することができる。なお、検知エリアの修正では、検知エリアの位置およびサイズの変更(拡大や縮小)を行う他、余分な検知エリアの削除や、必要な検知エリアの追加を行うことができるようにするとよい。
 また、第29の発明は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記プロセッサは、前記対象エリアに配置された定形物体を前記映像から検出する物体検出を行い、前記定形物体の検出結果に基づいて、人物の滞在が想定される検知エリアを前記映像上に設定するエリア設定を行い、前記映像に基づいて、前記検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、前記滞在情報に基づいて前記表示情報を生成する構成とする。
 これによると、第24の発明と同様に、定形物体の位置が変更された場合でも人物の滞在状況を精度よく検知することができる。
 前記課題を解決するためになされた第30の発明は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況を表す滞在マップを表示するとともに、オペレータの編集操作に応じて前記滞在マップを生成する処理をプロセッサにより実行する滞在状況表示システムであって、前記プロセッサは、前記対象エリアを表すエリア画像を表示するとともに、人物の滞在状況に応じて表示形態が変更されるように前記滞在マップに表示される人物画像を一覧表示し、前記人物画像を選択して前記エリア画像上に移動させるオペレータの編集操作に応じて、前記エリア画像における各人物の定位置に前記人物画像が配置された前記滞在マップを生成する構成とする。
 これによると、人物画像を選択してエリア画像上に移動させるオペレータの編集操作で、滞在マップが生成されるため、滞在マップの作成や更新の作業を効率よく行うことができる。
 また、第31の発明は、前記プロセッサは、予め登録された物体を前記映像から検出して、前記対象エリアにおける物体の位置情報を取得し、前記物体の位置情報に基づいて、前記物体を表す物体画像が描画された前記エリア画像を生成する構成とする。
 これによると、人物画像をエリア画像上の適切な位置に貼り付けることができる。
 また、第32の発明は、前記プロセッサは、前記物体画像を前記映像上に表示し、前記物体画像に対して行われるオペレータの編集操作に応じて、前記物体画像が修正された前記エリア画像を生成する構成とする。
 これによると、映像から物体を検出する際に誤検出が発生しても、適切なエリア画像を生成することができる。なお、物体画像の修正では、物体画像の位置およびサイズの変更(拡大や縮小)を行う他、余分な物体画像の削除や、必要な物体画像の追加を行うことができるようにするとよい。
 また、第33の発明は、前記人物画像は、顔画像、名前を表す文字、および属性を表す文字のうちの少なくとも1つを含む構成とする。
 これによると、人物画像によりユーザが人物を簡単に識別することができる。特に、人物画像が顔画像を含むものとすると、人物の名前がわからない場合でも、その人物の滞在状況を把握することができる。
 また、第34の発明は、施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況を表す滞在マップを表示するとともに、オペレータの編集操作に応じて前記滞在マップを生成する処理をプロセッサにより実行する滞在状況表示方法であって、前記対象エリアを表すエリア画像を表示するとともに、人物の滞在状況に応じて表示形態が変更されるように前記滞在マップに表示される人物画像を一覧表示し、前記人物画像を選択して前記エリア画像上に移動させるオペレータの編集操作に応じて、前記エリア画像における各人物の定位置に前記人物画像が配置された前記滞在マップを生成する構成とする。
 これによると、第30の発明と同様に、滞在マップの作成や更新の作業を効率よく行うことができる。
 以下、実施の形態を、図面を参照しながら説明する。
 (第1実施形態)
 図1は、第1実施形態に係る滞在状況表示システムの全体構成図である。
 この滞在状況表示システムは、施設内の各部屋(対象エリア)における人物の滞在状況に関する情報をユーザに提示するものであり、カメラ1と、レコーダ2と、施設管理装置3と、ユーザ端末4と、を備えている。カメラ1、レコーダ2、施設管理装置3、およびユーザ端末4は、ネットワークを介して接続されている。
 カメラ1は、施設内の各部屋(対象エリア)に設置されており、各部屋に滞在する人物を撮影する。
 レコーダ2は、カメラ1から送信される映像を蓄積する。
 施設管理装置3は、カメラ1およびレコーダ2から送信される映像を受信して、その映像を解析することで、施設内の各部屋(対象エリア)における人物の滞在状況に関する表示情報を生成する。
 ユーザ端末4は、ユーザが操作するPCやタブレット端末などである。このユーザ端末4は、施設管理装置3から送信される表示情報に基づいて、施設内の各部屋(対象エリア)における人物の滞在状況に関する画面を表示し、この画面をユーザが閲覧することで、施設内の各部屋における人物の滞在状況をユーザが確認することができる。
 次に、第1実施形態に係る施設内の各部屋のレイアウトおよびカメラ1の設置状況について説明する。図2A,図2B,図2Cは、施設内の各部屋のレイアウトおよびカメラ1の設置状況を示す説明図である。
 本実施形態では、施設に、図2Aに示すオフィス(事務室)、図2Bに示す会議室、および図2Cに示す共用室が設けられている。
 図2Aに示すオフィスには、机および椅子が並べて配置されており、1対の机および椅子で構成される座席が各人物に割り当てられて、各人物は自分の座席に着席して業務を行う。図2Bに示す会議室には、1つのテーブルの周囲に複数の椅子が配置されており、1つのグループが部屋全体を貸し切って利用する。図2Cに示す共用室には、複数のテーブルが配置されるとともに、各テーブルの周囲に複数の椅子が配置されており、1つのテーブルとその周囲の複数の椅子とにより1つの区画(分割エリア)が形成され、この1つの区画を1つのグループが貸し切って利用する。
 オフィス、会議室および共用室の各部屋の天井には、カメラ1が設置されており、各部屋に滞在する人物を撮影する。この場合、カメラ1には、魚眼レンズを用いて360度の範囲を撮影する全方位カメラを採用するとよいが、所定の画角の範囲を撮影するボックスカメラも可能である。
 次に、第1実施形態に係るカメラ1の映像に対する検知エリアの設定状況について説明する。図3A,図3B,図3Cは、カメラ1の映像に対する検知エリアの設定状況を示す説明図である。
 本実施形態では、図3A,図3B,図3Cに示すように、カメラ1の映像上に検知エリア(点線の矩形エリア)が予め設定される。この検知エリアは、座席に着席した人物の身体が存在することが想定される位置に設定され、1つの検知エリアが1人の人物に対応するように、人物の身体の大きさを基準にして設定される。
 また、本実施形態では、カメラ1の映像上に設定される検知エリアに基づいて在席検知の処理が行われる。この在席検知の処理では、映像上の検知エリアにおける人物の滞在を検知して、検知エリアごとの人物の滞在状況に関する滞在情報を取得する。
 ここで、本実施形態では、各部屋(対象エリア)に予め設定された部屋属性(エリア属性)、具体的には、オフィス(事務室)、会議室および共用室の各々に応じた表示項目にしたがって滞在情報を反映させた表示情報を生成する。
 図3Aに示すように、オフィス(第1のエリア属性)の場合には、検知エリアの各々での人物の滞在状況、すなわち、座席ごとの在席状況が表示項目となり、滞在情報に基づいて、各座席に人物が在席するか否かに関する在席状況を表示する。
 図3Bに示すように、会議室(第2のエリア属性)の場合には、複数の検知エリアを集約した集約エリアの利用状況を表示項目として表示情報を生成する。特にここでは、1つの部屋(対象エリア)全体の利用状況が表示項目となり、各部屋が利用中か否かに関する利用状況を表示する。このとき、部屋(対象エリア)全体を1つの判定エリアとして、滞在情報に基づいて、各部屋が利用中か否かの判定を行う。なお、1つの部屋で1人以上の人物の滞在が検知されると、その部屋は利用中と判定すればよい。
 図3Cに示すように、共用室(第3のエリア属性)の場合には、会議室と同様に、複数の検知エリアを集約した集約エリアの利用状況を表示項目として表示情報を生成する。特にここでは、1つの部屋(対象エリア)の中に複数設定された各区画(分割エリア)の利用状況が表示項目となり、各区画が利用中か否かに関する利用状況を表示する。このとき、複数の検知エリアを含む1つの区画を1つの判定エリアとして、滞在情報に基づいて、各区画が利用中か否かの判定を行う。なお、1つの区画で1人以上の人物の滞在が検知されると、その区画は利用中と判定すればよい。
 なお、検知エリアは、カメラ1の映像を表示した画面上で検知エリアの範囲をユーザが指定する操作を行うことで設定されるようにすればよいが、後述の第4実施形態と同様に、カメラ1の映像から物体(椅子および机)を検出して、その検出結果に基づいて検知エリアを設定するようにしてもよい。
 次に、第1実施形態に係る施設管理装置3およびユーザ端末4の概略構成について説明する。図4は、施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。
 施設管理装置3は、通信部21と、プロセッサ22と、記憶部23と、モニタ24(表示装置)と、入力デバイス25と、を備えている。
 通信部21は、カメラ1およびレコーダ2との間で通信を行い、カメラ1およびレコーダ2から送信される映像を受信する。
 記憶部23は、通信部21で受信した映像や、検知エリアに関する設定情報やカメラに関する設定情報(図5参照)などの各種の設定情報や、プロセッサ22で実行されるプログラムなどを記憶する。
 モニタ24では、検知エリアを入力する画面(図示せず)などが表示される。入力デバイス25では、オペレータが検知エリアを入力する操作などを行う。
 プロセッサ22は、記憶部23に記憶されたプログラムを実行することで、各種の処理を行う。本実施形態では、在席検知、エリア判定、および画面制御の各処理を行う。
 在席検知の処理では、カメラ1の映像に基づいて、映像上に予め設定された人物の滞在が想定される検知エリアにおける人物の滞在を一定時間ごとに検知して、各検知エリアにおける一定時間ごとの人物の滞在状況に関する滞在情報を取得する。
 本実施形態では、人物が滞在すると映像に何らかの変化が生じることから、検知エリアにおける映像の変化状況に基づいて、座席に人物が在席しているか否かを検知する。具体的には、まず、所定のサンプリング周期(例えば1分間)をおいた各時刻の映像から、各時刻の検知エリアの映像を切り出す。そして、各時刻の検知エリアの映像について映像変化率を取得する。このとき、サンプリング周期をおいた直前の時刻の映像と比較して、その直前の時刻の映像に対する映像変化率を取得する。次に、各時刻の映像変化率に基づいて、検知エリアにおける人物の滞在の有無を判定する。そして、判定結果に基づいて、サンプリング周期をおいた各時刻での人物の滞在の有無を表す滞在情報を生成する。なお、在席検知処理において、ディープラーニングにより、在席状態と不在状態との2クラスを予め学習させた識別器を用いることができる。在席検知処理の際には、識別器により、検知エリアの画像に関して在席状態としての尤度(確からしさ)と不在状態としての尤度とを求めて、2つの尤度を比較することで、在席と不在とのいずれであるかを判定することができる。
 エリア判定の処理では、滞在情報に基づいて、部屋属性(エリア属性)に応じて、複数の検知エリアを集約した集約エリアの利用状況を判定する。すなわち、会議室のように、部屋全体を1つのグループが独占的に利用する部屋では、部屋が利用中か否かに関する利用状況を判定する。また、共用室のように、対象エリア内に複数の区画が設定されている部屋では、各区画が利用中か否かに関する利用状況を判定する。
 画面制御の処理では、ユーザ端末4に表示させる画面を制御する。本実施形態では、滞在状況提示画面(図6,図7A,図7B参照)に関する表示情報を生成する。この滞在状況提示画面は、在席検知の検知結果(滞在情報)およびエリア判定の判定結果に応じて一定時間ごとに更新される。
 なお、施設管理装置3では、カメラ1から取得した現在の映像を用いた処理を行うことで、現在の滞在状況をリアルタイムにユーザに提示することができる。また、レコーダ2から取得した過去の映像を用いた処理を行うことで、過去の滞在状況をユーザに提示することができる。これにより、管理者は、過去の各部屋の利用状況を把握して、部屋のレイアウトなどの検討を行うことができ、また、部屋のレイアウトなどを変更した際の改善状況を確認することができる。
 ユーザ端末4は、通信部31と、プロセッサ32と、記憶部33と、モニタ34と、入力デバイス35と、を備えている。
 通信部31は、施設管理装置3との間で通信を行う。記憶部33は、プロセッサ22で実行されるプログラムなどを記憶する。プロセッサ32は、ユーザ端末4の各部の動作を制御し、ユーザによる入力デバイス35の操作に応じて、滞在状況提示画面(図6,図7A,図7B参照)の表示要求を通信部31から施設管理装置3に送信する。そして、施設管理装置3から送信される滞在状況提示画面に関する表示情報を通信部31で受信すると、その表示情報に基づいてモニタ34に滞在状況提示画面を表示する。
 なお、ユーザ端末4がタブレット端末などである場合には、入力デバイス35はタッチパネルとなり、モニタ34となる表示パネルと組み合わされてタッチパネルディスプレイを構成する。
 次に、第1実施形態に係る施設管理装置3の記憶部23に記憶されるカメラ設定情報について説明する。図5は、カメラ設定情報の内容を示す説明図である。
 カメラ設定情報には、カメラID、カメラ名称、部屋番号、および部屋属性(エリア属性)が登録されている。このカメラ設定情報に基づいて、プロセッサ22において、各部屋の部屋属性を取得して、その部屋属性に応じた表示項目にしたがって表示情報を生成する。
 なお、本実施形態では、1つの部屋を1つの対象エリアとして、部屋ごとに部屋属性(エリア属性)が設定されるようにしたが、1つの部屋を複数の分割エリアに分割して、その分割エリアごとにエリア属性が設定されるようにしてもよい。
 次に、第1実施形態に係るユーザ端末4に表示される滞在状況提示画面について説明する。図6は、滞在状況提示画面としての在席マップ画面を示す説明図である。図7A,図7Bは、滞在状況提示画面としてのエリア一覧画面を示す説明図である。
 本実施形態では、施設内の各部屋における人物の滞在状況を示す滞在状況提示画面が、ユーザ端末4に表示される。
 図6に示す在席マップ画面および図7A,図7Bに示すエリア一覧画面には、各フロア(1F、2F、3F)のタブ41が設けられている。このタブ41を選択すると、選択されたフロアの画面が表示される。なお、オフィス(3F)の場合には、第2実施形態で示すエリア一覧画面(図9参照)と同様の画面で部屋を選択することで、図6に示す在席マップ画面に遷移する。
 オフィス(事務室)では、座席ごとに設定された検知エリアの各々での人物の在席状況が表示項目となり、図6に示すように、オフィスにおける滞在状況提示画面としての在席マップ画面には、各人物の在席状況(滞在状況)を表す在席マップ42(滞在マップ)が表示される。この在席マップ42では、座席ごとの在席状況を表す座席アイコン43(定形画像)が、オフィス(対象エリア)のレイアウトを表わすエリアマップ44(地図画像)上に重畳されている。エリアマップ44には机の画像45が描画されている。
 座席アイコン43には、在席状況(在席および不在)に応じて「在」または「不」の文字が表示される。また、座席アイコン43は、在席状況に応じて色が変化し、在席の場合には赤色で表示され、不在の場合には緑色で表示される。なお、オフィスでの座席アイコン43の表示態様は、これに限らず、在席状況(在席および不在)が識別できればよく、後述の人物アイコン等を用いることができる。
 会議室では、会議室(対象エリア)全体の利用状況が表示項目となり、図7Aに示すように、エリア一覧画面には、会議室ごとの利用状況を表すエリアアイコン46が表示される。このエリアアイコン46には、利用状況に応じて「使用中」または「利用可」の文字が表示される。また、エリアアイコン46は、利用状況に応じて色が変化し、使用中の場合には赤色で表示され、空き状態で利用可の場合には緑色で表示される。
 共用室では、共用室(対象エリア)内に複数設定された各区画(分割エリア)の利用状況が表示項目となり、図7Bに示すように、エリア一覧画面には、区画ごとの利用状況を表す区画アイコン47が表示される。この区画アイコン47には、利用状況に応じて「使用中」または「利用可」の文字が表示される。また、区画アイコン47は、利用状況に応じて色が変化し、使用中の場合には赤色で表示され、空き状態で利用可の場合には緑色で表示される。
 なお、本実施形態では、図6に示すオフィスの滞在状況提示画面(在席マップ画面)で、オフィスのレイアウトを表わすエリアマップ44上に座席アイコン43を重畳するようにしたが、カメラ1の映像上に座席アイコン43を重畳するようにしてもよい。この場合、映像の歪みを補正する処理を行うようにするとよい。
 (第2実施形態)
 次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図8は、第2実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。
 第1実施形態では、在席マップ(図6参照)を表示するようにしたが、この在席マップでは、オフィスでの人物の在席状況を確認できるが、各人物を簡単に識別することができない。そこで、本実施形態では、人物の顔画像を含む人物アイコンを在席マップに表示して、複数の人物の在席状況を一括して確認するとともに、各人物を簡単に識別できるようにする。
 施設管理装置3は、第1実施形態と同様に、通信部21と、プロセッサ22と、記憶部23と、モニタ24と、入力デバイス25と、を備えている。
 通信部21、記憶部23、モニタ24、および入力デバイス25は、第1実施形態と同様であるが、この他に、記憶部23は、各人物のスケジュール情報を記憶する。
 プロセッサ22は、第1実施形態と同様に、在席検知、および画面制御の各処理を行うが、この他に、スケジュール連携、およびメール連携の各処理を行う。在席検知の処理は第1実施形態と同様である。
 画面制御の処理では、エリア一覧画面(図9参照)および在席マップ画面(図10参照)に関する表示情報を生成する。
 スケジュール連携の処理では、在席マップ画面(図10参照)でのユーザの操作に応じて、記憶部から人物のスケジュール情報を取得して、そのスケジュール情報を画面に表示させる。
 メール連携の処理では、在席マップ画面(図10参照)でのユーザの操作に応じて、ユーザ端末4にインストールされたメールアプリケーションプログラムを起動させて、ユーザ端末4に電子メール作成画面を表示させる。
 なお、本実施形態では、施設管理装置3が、各人物のスケジュール情報を記憶するようにしたが、このスケジュール情報は、スケジュール管理専用の装置から取得すればよい。また、施設管理装置3自体がスケジュール管理を行うものとしてもよい。
 ユーザ端末4は、第1実施形態と同様に、通信部31と、プロセッサ32と、記憶部33と、モニタ34と、入力デバイス35と、を備えている。
 通信部31は、施設管理装置3との間で通信を行う。記憶部33は、プロセッサ22で実行されるプログラムなどを記憶する。プロセッサ32は、ユーザ端末4の各部の動作を制御し、ユーザによる入力デバイス35の操作に応じて、エリア一覧画面(図9参照)や在席マップ画面(図10参照)の表示要求を通信部31から施設管理装置3に送信する。そして、施設管理装置3から送信されるエリア一覧画面や滞在状況提示画面に関する表示情報を通信部31で受信すると、その表示情報に基づいてモニタ34にエリア一覧画面や滞在状況提示画面を表示する。
 また、プロセッサ32は、在席マップ画面(図10参照)でのユーザの操作に応じて、記憶部33に記憶されたメールアプリケーションプログラムを実行して、モニタ34に電子メール作成画面を表示させる。
 次に、第2実施形態に係るユーザ端末4に表示されるエリア一覧画面について説明する。図9は、エリア一覧画面を示す説明図である。
 このエリア一覧画面には、各フロア(1F、2F、3F)のタブ41が設けられており、このタブ41を選択すると、選択されたフロアのエリア一覧画面が表示される。ここで、オフィス(事務室)があるフロア(3F)のタブ41を選択すると、各オフィス(対象エリア)を表す複数のエリアアイコン51が並べて表示される。
 このエリア一覧画面で、ユーザが在席状況を確認したい人物の座席がある部屋のエリアアイコン51を選択して画面を遷移させる操作を行うと、在席マップ画面(図10参照)に遷移し、この在席マップ画面に、選択した部屋における各人物の在席状況が表示される。
 ここで、画面を遷移させる操作としては、例えば、入力デバイス35がマウスの場合には、スクロールの操作、すなわち、ポインタをエリアアイコン51上に重ねて、マウスのスクロールボタンを操作すると、エリアアイコン51が拡大されて、在席マップ画面に遷移する。また、入力デバイス35がタッチパネルの場合には、ピンチアウトやスワイプの操作を行うようにするとよい。
 次に、第2実施形態に係るユーザ端末4に表示される在席マップ画面について説明する。図10は、在席マップ画面を示す説明図である。図11A,図11Bは、人物アイコン53の変化状況を示す説明図である。図12A,図12Bは、在席マップ画面の要部を示す説明図である。
 図10に示すように、在席マップ画面には、各人物の在席状況(滞在状況)を表す在席マップ52(滞在マップ)が表示される。この在席マップ52では、対象となる部屋の中に座席を有する人物ごとの人物アイコン53(人物画像)が、オフィス(対象エリア)のレイアウトを表すエリアマップ44(地図画像)上に重畳されている。エリアマップ44には机の画像45が描画されている。
 人物アイコン53は、各人物の座席に対応する位置、具体的には各人物が着座する椅子の位置に表示される。この人物アイコン53には、人物の顔画像(顔の撮影画像)が埋め込まれている。これにより、人物を容易に識別することができる。
 なお、本実施形態では、エリア一覧画面(図9参照)で部屋(対象エリア)を選択することで在席マップ画面に遷移するようにしたが、組織構成を表す部署リストを表示して、その部署リストの中から1つの部署を選択することで、選択した部署がある部屋の在席マップ画面が表示されるようにしてもよい。
 また、本実施形態では、各人物を識別するための人物画像として、顔画像が埋め込まれた人物アイコン53を、エリアマップ44上に配置するようにしたが、この人物画像は、人物の外観の特徴を模式的に描画した画像(似顔絵、アバター)であってもよく、また、個人を識別する文字、すなわち、人物の名前や、人物の属性(所属や肩書き)を表す文字が描画されたものであってもよい。
 図11A,図11Bに示すように、人物アイコン53は、人物の在席状況に応じて表示形態が変化する。図11Aに示す例では、在席の有無に応じて人物アイコン53の顔画像の色が変化する。具体的には、在席時には顔画像がカラーで表示され、不在時には顔画像がグレーで表示される。これにより、人物が在席しているか否かをユーザが即座に確認することができる。
 また、人物アイコン53は、現在不在である場合に、不在時間に応じて表示形態が変化する。図11Bに示す例では、在席の有無に応じて人物アイコン53の顔画像以外の部分の色が変化する。例えば、不在時間が短いと青色で表示され、不在時間が長いと赤色で表示され、不在時間が長くなるのに応じて青色から赤色に変化する。
 ここで、不在時間には、過去の不在時間、すなわち、人物が退席した時点から現時点までの時間と、未来の不在時間(不在予想時間)、すなわち、現時点から人物が座席に戻る予定の時点までの時間と、があり、いずれの不在時間で人物アイコン53を表示させるかをユーザが指定することができる。なお、過去の不在時間は、在席検知で取得した滞在情報に基づいて算出することができる。また、未来の不在時間は、スケジュール情報から算出することができる。
 なお、図10に示した在席マップ画面には、人物アイコン53の色で表現される不在時間の長さを示す凡例54が表示される。
 また、この在席マップ画面では、人物アイコン53に対して所定の操作を行うと、スケジュール画面(図示せず)に遷移し、人物のスケジュールを確認することができる。図12Aに示す例では、人物アイコン53上で左クリックの操作を行うことで表示されるポップアップメニュー55で「スケジュール」を選択すると、その人物のスケジュール画面に遷移する。これにより、ユーザが人物のスケジュールを確認することができる。
 また、人物アイコン53に対して所定の操作を行うと、メール作成画面(図示せず)に遷移し、その人物を宛先とした電子メールを作成することができる。図12Aに示す例では、ポップアップメニュー55で「電子メール」を選択すると、メール作成画面に遷移する。なお、メール作成画面では、宛先のアドレスが予め設定されるため、アドレスを入力する手間を省くことができる。
 なお、エリアアイコン上で右クリックの操作を行うことで表示されるリストボックス(図示せず)で、「スケジュール」や「電子メール」を選択できるようにしてもよい。また、ユーザ端末4がタブレット端末である場合など、入力デバイス35がタッチパネルである場合には、タップ、ダブルタップ、ロングタップ(長押し)などの操作で、スケジュール画面やメール作成画面に遷移するようにすればよい。
 また、人物アイコン53に対して所定の操作を行うと、人物の過去および未来の在席状況が表示される。図12Bに示す例では、人物アイコン53上にポインタを重ねるマウスオーバーの操作で、吹き出し57が表示される。この吹き出し57には、過去の在席状況、すなわち、いつから不在であるかを表す情報(15:00から不在)と、未来の在席状況、すなわち、いつから在席するか(いつまで不在であるか)を表す情報(17:00から予定なし)と、が記載される。これにより、人物の過去および未来の在席状況をユーザが確認することができる。
 ここで、人物の過去の在席状況は、在席検知の処理で取得した、各時刻における人物の滞在の有無を表す滞在情報から取得すればよい。また、人物の未来の在席状況は、スケジュール情報から取得すればよい。
 なお、本実施形態では、左クリックの操作でポップアップメニュー55を表示させ、右クリックの操作でリストボックス(図示せず)を表示させ、マウスオーバーの操作で吹き出し57を表示させるようにしたが、このような操作に限定されるものではない。
 (第3実施形態)
 次に、第3実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図13は、第3実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。
 第1実施形態(図7A参照)では、会議室(対象エリア)の利用状況をユーザに提示するようにしたが、会議室が予約により利用できる場合には、会議室が現在利用されていない場合でも予約されている場合には、その会議室は利用することができない。そこで、本実施形態では、会議室の利用状況とともに予約状況もユーザに提示するようにする。
 施設管理装置3は、第1実施形態と同様に、通信部21と、プロセッサ22と、記憶部23と、モニタ24と、入力デバイス25と、を備えている。
 通信部21、記憶部23、モニタ24、および入力デバイス25は、第1実施形態と同様であるが、この他に、記憶部23は、会議室の利用予約に関するスケジュール情報を記憶する。
 プロセッサ22は、在席検知、エリア判定、画面制御、予約管理、スケジュール連携、およびメール連携の各処理を行う。
 在席検知の処理では、カメラ1の映像に基づいて、検知エリアにおける人物の滞在を一定時間ごとに検知して、会議室における一定時間ごとの人物の滞在状況に関する滞在情報を取得する。
 エリア判定の処理では、滞在情報に基づいて、会議室における人物の滞在状況、すなわち、会議室が現在利用されているか否かに関する利用状況を、一定時間ごとに判定する。
 画面制御の処理では、会議室(対象エリア)の利用状況および予約状況を表示するエリア一覧画面(図14参照)に関する表示情報を生成する。
 予約管理の処理では、会議室の利用予約に関するスケジュールを管理する。具体的には、ユーザ端末4に予約画面(図示せず)を表示させて、会議室の利用予約の操作をユーザに行わせて、その操作に応じて会議室の利用予約を受け付ける処理を行う。また、ユーザ端末4にキャンセル画面(図示せず)を表示させて、利用予約を解除する操作をユーザに行わせて、その操作に応じて利用予約を解除して予約情報を更新する処理を行う。
 また、予約管理の処理では、予約時にユーザが指定することで、利用予約の解除を不可とするキャンセル不可フラグが設定される。
 また、予約管理の処理では、会議室が予約されているにも拘わらず会議室が利用されないまま放置されている場合に、その会議室の利用予約を解除する処理を定期的に行う。
 スケジュール連携の処理では、エリア一覧画面(図14参照)でのユーザの操作に応じて、記憶部23から会議室の予約スケジュール情報を取得して、その予約スケジュール情報を画面に表示させる。
 メール連携の処理では、エリア一覧画面(図14参照)でのユーザの操作に応じて、ユーザ端末4にインストールされたメールアプリケーションプログラムを起動させて、ユーザ端末4に電子メール作成画面を表示させる。
 なお、本実施形態では、施設管理装置3が、会議室の利用予約に関するスケジュールを管理するようにしたが、予約管理専用の装置を別に設けるようにとしてもよい。この場合、予約管理専用の装置からスケジュール情報を取得し、利用予約の解除が必要な場合には、利用予約の解除を指示する通知を施設管理装置3から予約管理専用の装置に送信するようにすればよい。
 ユーザ端末4は、第1実施形態と同様に、通信部31と、プロセッサ32と、記憶部33と、モニタ34と、入力デバイス35と、を備えている。
 通信部31は、施設管理装置3との間で通信を行う。記憶部33は、プロセッサ22で実行されるプログラムなどを記憶する。プロセッサ32は、ユーザ端末4の各部の動作を制御し、ユーザによる入力デバイス35の操作に応じて、エリア一覧画面(図14参照)の表示要求を通信部31から施設管理装置3に送信する。そして、施設管理装置3から送信されるエリア一覧画面に関する表示情報を通信部31で受信すると、その表示情報に基づいてモニタ34にエリア一覧画面を表示する。
 また、プロセッサ32は、エリア一覧画面(図14参照)でのユーザの操作に応じて、記憶部33に記憶されたメールアプリケーションプログラムを実行して、モニタ34に電子メール作成画面を表示させる。
 次に、第3実施形態に係るエリア一覧画面について説明する。図14は、エリア一覧画面を示す説明図である。図15A,図15Bは、エリア一覧画面の要部を示す説明図である。
 図14に示すように、エリア一覧画面(利用状況提示画面)には、各フロア(1F、2F、3F)のタブ41が設けられており、このタブ41を選択すると、選択されたフロアのエリア一覧画面が表示される。ここで、会議室があるフロア(1F)のタブ41を選択すると、各会議室(対象エリア)を表す複数のエリアアイコン61(定形画像)が並べて表示される。
 エリアアイコン61は、会議室の現在の利用状況に応じて表示形態が変化する。例えば、利用中であれば赤色で表示され、利用中でなければ緑色で表示される。
 また、このエリア一覧画面では、エリアアイコン61に対して所定の操作を行うと、スケジュール画面(図示せず)に遷移し、会議室の予約スケジュールを確認することができる。図15Aに示す例では、エリアアイコン61上で左クリックの操作を行うことで表示されるポップアップメニュー65で「スケジュール」を選択すると、会議室の予約スケジュール画面に遷移する。
 また、エリアアイコン61に対して所定の操作を行うと、メール作成画面(図示せず)に遷移し、選択した会議室(対象エリア)の現在の予約者を宛先とした電子メールを作成することができる。図15Aに示す例では、ポップアップメニュー65で「電子メール」を選択すると、メール作成画面に遷移する。なお、メール作成画面では、宛先のアドレスが予め設定されるため、アドレスを入力する手間を省くことができる。
 なお、エリアアイコン61上で右クリックの操作を行うことで表示されるリストボックス(図示せず)で、「スケジュール」や「電子メール」を選択できるようにしてもよい。また、ユーザ端末4がタブレット端末である場合など、入力デバイス35がタッチパネルである場合には、タップ、ダブルタップ、ロングタップ(長押し)などの操作で、予約スケジュール画面やメール作成画面に遷移するようにすればよい。
 また、エリアアイコン61に対して所定の操作を行うと、会議室(対象エリア)の現在の予約状況が表示される。図15Bに示す例では、エリアアイコン61上にポインタを重ねるマウスオーバーの操作で、吹き出し67が表示される。この吹き出し67には、会議室の現在の予約状況(予約なし)と、会議室の現在の利用状況(15:00から利用なし)と、が記載されている。
 これにより、現在利用されていない会議室が予約されているか否かをユーザが簡単に確認することができる。さらに、利用されていない会議室がもともと予約されていないのか、あるいは、会議が予定より早く終了して会議室が空き状態になっているのかをユーザが簡単に確認することができる。
 なお、本実施形態では、左クリックの操作でポップアップメニュー65を表示させ、右クリックの操作でリストボックス(図示せず)を表示させ、マウスオーバーの操作で吹き出し67を表示させるようにしたが、このような操作に限定されるものではない。
 次に、第3実施形態に係るエリア一覧画面の変形例について説明する。図16は、エリア一覧画面の変形例を示す説明図である。
 図14に示した例では、会議室の現在の利用状況に応じて各会議室(対象エリア)を表すエリアアイコン61の表示形態(色)を変更するようにしたが、本変形例では、予約が入っている会議室で、予約の解除を不可とするキャンセル不可フラグが設定されている場合に、エリアアイコン61を操作不能状態として、グレーアウトで表示するようにしている。
 なお、キャンセル不可フラグが設定されている場合に、エリアアイコン61を非表示状態にしてもよい。
 次に、第3実施形態に係る施設管理装置3の処理手順について説明する。図17は、施設管理装置3の処理手順を示すフロー図である。
 本実施形態では、利用されないまま放置されている会議室の利用予約を解除する処理を定期的に行う。なお、以下に示す処理は各会議室を対象にして順次行われる。
 具体的には、まず、プロセッサ22において、対象とする会議室に現在予約が入っているか否かを判定する(ST101)。ここで、対象とする会議室に現在予約が入っていない場合には(ST101でNo)、終了する。
 一方、対象とする会議室に現在予約が入っている場合には(ST101でYes)、次に、予約にキャンセル不可フラグが設定されているか否かを判定する(ST102)。ここで、キャンセル不可フラグが設定されている場合には(ST102でYes)、終了する。
 一方、キャンセル不可フラグが設定されていない場合には(ST102でNo)、次に、会議室が現在利用中か否かを判定する(ST103)。ここで、会議室が現在利用中である場合には(ST103でYes)、終了する。
 一方、会議室が現在利用中でない場合には(ST103でNo)、次に、利用されないまま所定時間(例えば15分間)経過したか否かを判定する(ST104)。ここで、利用されないまま所定時間経過していない場合には(ST104でYes)、終了する。
 一方、利用されないまま所定時間経過した場合には(ST104でNo)、予約者のユーザ端末4に、予約を解除する旨の通知(キャンセル通知)を電子メールなどで送信する(ST105)。そして、利用予約を解除して予約情報を更新する処理を行う(ST106)。
 なお、会議室が予約されているのに利用されていない場合には、予約時間の最初から全く利用しなかった場合と、会議が予定より早く終了して会議室が空き状態になっている場合とがある。このため、所定時間の経過判定(ST104)では、予約時間の最初から全く利用しなかった場合には、予約した利用時間の開始時刻からの経過時間(放置時間)で判定すればよい。また、予約した利用時間の途中から空き状態になっている場合には、空き状態になった以降の経過時間で判定すればよい。
 このようにして予約が解除されて予約情報が更新されると、更新された予約情報が、会議室の利用状況を表示するエリア一覧画面(図14参照)に反映され、マウスオーバーの操作で表示される吹き出し67(図15B参照)に、予約が解除されたことが表示される。
 次に、第3実施形態に係る施設管理装置3の処理手順の変形例について説明する。図18は、施設管理装置3の処理手順の変形例を示すフロー図である。
 図17に示した例では、利用されないまま放置されている会議室の利用予約を解除する処理を定期的に行うようにしたが、本変形例では、会議室の利用状況を表示するエリア一覧画面(図14参照)においてユーザが会議室を選択する操作をトリガとして、会議室の利用予約を解除する処理を開始するようにする。
 具体的には、まず、プロセッサ22において、エリア一覧画面(図14参照)において会議室(対象エリア)を選択する操作、具体的にはエリアアイコン61に対するクリックやマウスオーバーの操作が行われたことを検知すると(ST111でYes)、対象とする会議室に現在予約が入っているか否かを判定する(ST101)。ここで、対象とする会議室に現在予約が入っていない場合には(ST101でNo)、終了する。
 一方、対象とする会議室に現在予約が入っている場合には(ST101でYes)、次に、予約にキャンセル不可フラグが設定されているか否かを判定する(ST102)。ここで、キャンセル不可フラグが設定されている場合には(ST102でYes)、終了する。
 一方、キャンセル不可フラグが設定されていない場合には(ST102でNo)、次に、会議室が現在利用中か否かを判定する(ST103)。ここで、会議室が現在利用中である場合には(ST103でYes)、終了する。
 一方、会議室が現在利用中でない場合には(ST103でNo)、予約者のユーザ端末4に、予約を解除する旨の通知(キャンセル通知)を電子メールなどで送信する(ST105)。そして、予約の解除を承諾する旨の返信があるか否かを判定する(ST112)。ここで、予約の解除を承諾する旨の返信があった場合には(ST112でYes)、利用予約を解除して予約情報を更新する処理を行う(ST106)。
 一方、利用予約の解除を承諾する旨の返信がない場合には(ST112でNo)、次に、利用状況が利用中に変化したか否かを判定する(ST113)。ここで、利用状況が利用中に変化している場合には(ST113でYes)、終了する。
 一方、利用状況が利用中に変化していない場合には(ST113でNo)、次に、キャンセル通知を送信してから所定時間経過したか否かを判定する(ST114)。ここで、キャンセル通知を送信してから所定時間経過していない場合には(ST114でNo)、予約の解除を承諾する旨の返信があるか否かの判定(ST112)に戻る。
 一方、キャンセル通知を送信してから所定時間経過した場合には(ST114でYes)、予約を解除して予約情報を更新する(ST1016)。
 このように本変形例では、会議室を利用したいユーザが、エリア一覧画面(図14参照、利用状況提示画面)を閲覧して、会議室の利用状況を確認し、さらに、利用したい会議室の予約状況を確認したタイミングで、会議室の利用予約を解除する処理を開始する。これにより、ユーザはキャンセル待ちとなり、利用されないまま放置されている会議室の利用予約が迅速に解除されて、早期に会議室を利用することができる。なお、複数のユーザから会議室の利用状況の確認があり、キャンセル待ちが競合することがある。この場合は、最初にアクセスしたユーザのみをキャンセル待ちユーザとして受け付け、2番目以降のユーザに対しては会議室の利用不可(キャンセル待ち登録あり)とする旨の表示(図示せず)を吹き出し67に表示させるようにするとよい。
 特に、本変形例では、利用予約を解除する旨の通知(キャンセル通知)に対して、利用予約の解除を承諾する旨の返信があった場合に、利用予約を解除して予約情報を更新する。また、利用予約を解除する旨の通知を送信してから、利用予約の解除を承諾する旨の返信がなく、かつ、会議室の利用状況が利用中に変化しないまま、所定時間経過した場合に、利用予約を強制的に解除して予約情報を更新する。これにより、利用しない会議室や、利用される可能性の低い会議室の利用予約を迅速に解除して、会議室の有効利用を図ることができる。
 なお、会議室の利用予約が解除されると、エリア一覧画面(図14参照、利用状況提示画面)を表示してユーザが画面操作を行ったユーザ端末4に、利用予約が解除された旨の通知を電子メールなどにより送信するようにしてもよい。これにより、会議室の利用予約が解除されたことをユーザが迅速に把握することができるため、早期に会議室を利用することができる。
 また、本実施形態では、会議室を対象エリアとした例について説明したが、対象エリアはこれに限定されるものではなく、会議以外の用途で利用される部屋でもよい。また、共用室のように、対象エリアとなる1つの部屋の中に複数設定された区画ごとに予約が必要な場合でも同様である。
 (第4実施形態)
 次に、第4実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図19は、第4実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。
 飲食店などの店舗では、フリーレイアウト、すなわち、営業時間内に顧客や店員が椅子およびテーブルを自由に移動させることができる場合がある。この場合、人物の在席を検知するために映像上に設定される検知エリアが、実際の座席の位置からずれた状態となるため、在席検知の精度が低下する。
 そこで、本実施形態では、店舗に設置されて人物の滞在位置を規定する定形物体、具体的にはテーブルおよび椅子の位置を検出して、その検出結果に基づいて検知エリアを設定する。この処理を定期的に行うことで、検知エリアが随時更新され、顧客や店員が椅子およびテーブルを移動させた場合でも、在席検知の精度低下を避けることができる。
 施設管理装置3は、第1実施形態と同様に、通信部21と、プロセッサ22と、記憶部23と、モニタ24(表示装置)と、入力デバイス25と、を備えている。
 通信部21、記憶部23、モニタ24、および入力デバイス25は、第1実施形態と同様である。
 プロセッサ22は、人物検出、物体検出、検知エリア設定、および検知エリア修正の各処理を行う。この他、プロセッサは、第1実施形態と同様に、在席検知、および画面制御の各処理を行う。
 人物検出の処理では、カメラ1から取得した映像から人物を検出する。映像内に人物が存在すると、物体検出の処理において椅子およびテーブルの検出精度が低下するため、映像から人物が検出された場合には、以降の物体検出および検知エリア設定の処理は行わない。
 物体検出の処理では、カメラ1から取得した映像から椅子およびテーブルを検出して、椅子およびテーブルの位置情報を取得する。なお、物体検出の処理に先だって、店舗に設置される椅子およびテーブル(定形物体)を識別器に予め学習させて物体検出を行うようにするとよく、この定形物体の学習により、物体検出の検出精度を向上させることができる。
 検知エリア設定の処理では、物体検出の処理で取得した椅子およびテーブルの位置情報に基づいて、人物が在席するか否かの在席検知の対象となる検知エリアを設定する。このとき、カメラ1から離れた位置にある椅子およびテーブルは映像に小さく映るため、カメラ1からの距離に応じて検知エリアの大きさを補正する。
 検知エリア修正の処理では、検知エリア設定の処理で設定された検知エリアに誤りがある場合に、検知エリア編集画面(図23参照)をモニタ24に表示して、この検知エリア編集画面上でのオペレータの操作に応じて、検知エリアの位置やサイズを修正する。
 なお、本実施形態では、第1実施形態と同様に、在席検知により人物の滞在状況に関する滞在情報を取得して、その滞在情報に基づいて表示情報を生成するが、この表示情報として、第1実施形態と同様に、滞在マップ(在席マップ)を生成するようにしてもよい。これにより、大規模な店舗において、顧客の滞在状況を一目で把握することができる。
 また、滞在情報に基づいて、顧客の座席占有時間、在席率、および平均滞在時間など、店舗の運営状況に関する統計情報を生成して、その統計情報に関する表示情報を生成するようにしてもよい。
 次に、第4実施形態に係る検知エリアの設定状況について説明する。図20は、検知エリアの設定状況を示す説明図である。
 カメラ1の映像には、店舗内に設置されたテーブルおよび椅子が映っており、この映像に対する物体検出によりテーブルおよび椅子が検出され、その検出結果に基づいて、映像上に検知エリアが設定される。
 次に、第4実施形態に係る施設管理装置3の処理手順について説明する。図21は、施設管理装置3の処理手順を示すフロー図である。
 本実施形態では、店舗に設置されて人物の滞在位置を規定する定形物体、具体的にはテーブルおよび椅子の位置を検出して、その検出結果に基づいて検知エリアを設定する。この処理を一定時間(例えば15分間や30分間)ごとに定期的に行うことで、検知エリアが随時更新される。
 具体的には、まず、プロセッサ22において、カメラ1の映像を取得して、その映像から人物を検出する処理を行う(ST201)。そして、人物検出の処理で人物が検出されたか否かを判定する(ST202)。
 ここで、人物が検出されない場合には(ST202でNo)、次に、カメラ1の映像から物体(椅子およびテーブル)を検出する処理を行う(ST203)。そして、検出された物体の位置と、記憶部23のエリア設定情報に登録された物体の位置とを比較して、物体の位置に変更があるか否かを判定する(ST204)。
 ここで、物体の位置に変更がある場合には(ST204でYes)、検出された物体の位置情報に基づいて検知エリアを設定してエリア設定情報を更新する(ST205)。すなわち、検出された物体の位置に基づいて新たに設定された検知エリアの位置情報をエリア設定情報に登録する。
 一方、人物が検出された場合や(ST202でYes)、物体の位置に変更がない場合には(ST204でNo)、物体検出やエリア設定の処理は行わない。
 なお、本実施形態では、物体検出に先だって人物検出を行うようにしたが、人物検出を行わないようにしてよい。また、ユーザ設定で人物検出を行うか否かをユーザが選択できるようにしてよい。
 次に、第4実施形態に係る施設管理装置3の処理手順の変形例について説明する。図22は、施設管理装置3の処理手順の変形例を示すフロー図である。
 図21に示した例では、人物が検出されないタイミングで、物体検出およびエリア設定の処理を行うようにしたが、本変形例では、人物が検出されない場所を対象にして、物体検出およびエリア設定の処理を行うようにする。すなわち、対象エリアを複数の分割エリアに分割して、人物が検出されない分割エリアを対象にして、物体検出およびエリア設定の処理を行う。分割エリアは、例えば、対象エリアを均一な大きさで分割したセルとすればよい。
 具体的には、まず、プロセッサ22において、最初の分割エリアを対象にしてカメラ1の映像から人物を検出する処理を行う(ST211)。そして、人物検出の処理で人物が検出されたか否かを判定する(ST212)。
 ここで、人物が検出されない場合には(ST21でNo)、次に、分割エリアを対象にして映像から物体を検出する処理を行う(ST213)。そして、検出された物体の位置と、記憶部23のエリア設定情報に登録された物体の位置とを比較して、物体の位置に変更があるか否かを判定する(ST214)。
 ここで、物体の位置に変更がある場合には(ST214でYes)、検出された物体の位置情報に基づいて検知エリアを設定してエリア設定情報を更新する(ST215)。すなわち、検出された物体の位置に基づいて新たに設定された検知エリアの位置情報をエリア設定情報に登録する。
 次に、全ての分割エリアが終了したか否かを判定する(ST216)。ここで、全ての分割エリアが終了していない場合には(ST216でNo)、次の分割エリアの処理に進む。
 一方、人物検出の処理で人物が検出された場合(ST212でYes)や、物体の位置に変更がない場合には(ST214でNo)、分割エリアを対象にした物体検出やエリア設定の処理は行わず、分割エリアの終了判定(ST216)に進む。
 次に、第4実施形態に係る検知エリア編集画面について説明する。図23は、検知エリア編集画面を示す説明図である。
 本実施形態では、映像に対する物体検出により椅子およびテーブルの位置情報を取得して、その位置情報に基づいて検知エリアを設定するが、物体検出の処理では、例えば、荷物を椅子やテーブルと誤検出する場合があり、この場合、検知エリアの位置やサイズが不適切なものとなる。そこで、本実施形態では、図23に示す検知エリア編集画面で、検知エリアの位置およびサイズを修正することができるようにする。
 この検知エリア編集画面には、エリア設定の処理で取得した検知エリアの位置情報に基づいて、検知エリアの範囲を表す枠線71(検知エリア画像)がカメラ1の映像72上に表示され、検知エリアの位置およびサイズが実際と異なるか否かを確認することができる。ここで、検知エリアの位置やサイズが実際と異なる場合には、その検知エリアの枠線71を選択して、移動やサイズ変更の操作を行うことで、検知エリアの位置やサイズを修正することができる。
 例えば、左クリックで検知エリアの枠線71を選択状態とすることで修正操作が可能になり、ドラッグ&ドロップ操作により、検知エリアの枠線71を正しい位置に移動させることができる。また、検知エリアの枠線71の選択状態で、その検知エリアの枠線71上にポインタを重ねると、ポインタが両方向の矢印に変化して、検知エリアの枠線71のサイズを修正することができる。
 また、検知エリア修正画面には、「追加」のボタン75と、「削除」のボタン76と、が設けられている。「追加」のボタン75を操作すると、新規の検知エリアの枠線71が映像72上に出現し、検知エリアの枠線71の移動やサイズ変更の操作を行うことで、検知エリアの枠線71を適切な位置およびサイズに設定することができる。また、「削除」のボタン76を操作すると、選択状態の検知エリアの枠線71を削除することができる。
 なお、本実施形態では、検知エリアの枠線71をカメラ1の映像72上に表示するようにしたが、このとき、全方位カメラの映像に現れる歪みを補正する画像処理を行うようにするとよい。
 (第5実施形態)
 次に、第5実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図24は、第5実施形態に係る施設管理装置3およびユーザ端末4の概略構成を示すブロック図である。
 第2実施形態では、人物ごとの在席状況を表す在席マップ52(図10参照)をユーザ端末4に表示するようにしたが、本実施形態では、施設管理装置3においてオペレータの編集操作で在席マップ52を作成する。
 なお、本実施形態では、在席マップ52の作成を施設管理装置3で行うようにしたが、管理者が操作するユーザ端末4に、在席マップ編集用のアプリケーションプログラムをインストールして、そのユーザ端末4で在席マップ52の作成を行うようにしてもよい。
 施設管理装置3は、第1実施形態と同様に、通信部21と、プロセッサ22と、記憶部23と、モニタ24(表示装置)と、入力デバイス25と、を備えている。
 通信部21、記憶部23、モニタ24、および入力デバイス25は、第1実施形態と同様であるが、この他に、記憶部23は、各人物の所属情報および顔画像を記憶する。
 プロセッサ22は、人物リスト生成、人物アイコン生成、物体検出、エリアマップ生成、エリアマップ修正、および在席マップ生成の各処理を行う。この他、プロセッサ22は、第1実施形態と同様に、在席検知および画面制御の各処理を行う。
 人物リスト生成の処理では、記憶部23から取得した各人物の所属情報に基づいて、在席マップ編集画面に表示させる人物リスト81(図25参照)を生成する。
 人物アイコン生成の処理では、記憶部23から取得した各人物の顔画像が埋め込まれた人物アイコン53(図25参照)を生成する。
 物体検出の処理では、カメラ1の映像から物体を検出して、オフィス(対象エリア)における物体の位置情報を取得する。本実施形態では、映像から椅子および机を検出して、椅子および机の位置情報を取得する。
 エリアマップ生成の処理では、椅子および机の位置情報に基づいて、オフィス(対象エリア)のレイアウトを表すエリアマップ44(図25参照)を生成する。
 在席マップ生成の処理では、在席マップ編集画面(図25参照)をモニタ24に表示して、在席マップ編集画面上でのオペレータの操作に応じて、エリアマップ44上の各人物の座席の位置に人物アイコン53が配置された在席マップ52を生成する。
 エリアマップ修正の処理では、エリアマップ生成の処理で生成したエリアマップ44に誤りがある場合に、エリアマップ編集画面(図27参照)をモニタ24に表示して、このエリアマップ編集画面上でのオペレータの操作に応じて、エリアマップ44を修正する。
 なお、本実施形態では、施設管理装置3が、各人物の所属情報および顔画像を記憶するようにしたが、この所属情報および顔画像は、組織管理専用の装置から取得すればよい。また、施設管理装置3自体が組織管理を行うものとしてもよい。
 次に、第5実施形態に係るモニタ24に表示される在席マップ編集画面について説明する。図25は、在席マップ編集画面を示す説明図である。図26は、在席マップ編集画面の要部を示す説明図である。
 施設管理装置3では、図25に示す在席マップ編集画面をモニタ24に表示させて、オペレータが編集操作を行うことで、在席マップ52が作成される。この在席マップの編集は、システム導入時に実施される。また、オフィス(対象エリア)のレイアウトが変更されたときや、人物に異動があったときに実施される。
 在席マップ編集画面には、各フロア(1F、2F、3F)のタブ41が設けられている。このタブ41を選択すると、選択されたフロアの画面が表示される。このとき、第2実施形態で示したエリア一覧画面(図9参照)と同様の画面が表示され、編集対象となる部屋を選択することで、図25に示す在席マップ編集画面に遷移する。
 また、在席マップ編集画面には、人物リスト81が表示される。この人物リスト81には、人物が所属する組織の構成に基づいて分類された状態で人物の名前および人物アイコン53(人物画像)が一覧表示される。具体的には、グループの名称、各グループを構成するチームの名称、各チームに所属する人物の名前および人物アイコン53が並べて表示される。人物アイコン53には人物の顔画像が埋め込まれている。
 また、在席マップ編集画面には、対象となる部屋を表すエリアマップ44(エリア画像)が表示される。このエリアマップ44には、座席(椅子)の位置(各人物の定位置)に、人物アイコン53が配置される座席枠83(物体画像)が描画され、机の位置に机の画像45(物体画像)が描画されている。
 人物リスト81に表示された人物アイコン53は、オペレータが所定の操作、例えばドラッグ&ドロップの操作により、エリアマップ44上に移動させて、エリアマップ44の座席枠83上に貼り付けることができる。この人物アイコン53のエリアマップ44への貼り付けの操作を、各人物について順次行うことで、各人物の座席の位置に各人物の人物アイコン53が配置された在席マップが完成する。
 このとき、エリアマップ44の座席枠83上にのみ人物アイコン53が貼り付けられるように制御すると、人物アイコン53をエリアマップ44上に貼り付けるオペレータの編集操作が容易になる。
 なお、本実施形態では、対象エリアを表すエリア画像として、座席枠83や机の画像45が描画されたエリアマップ44上に人物アイコン53を配置するようにしたが、カメラ1の映像上に人物アイコン53を配置するようにしてもよい。この場合、映像の歪みを補正する画像処理を行うようにするとよい。
 また、図26に示すように、エリアマップ44の座席枠83に貼り付けられた人物アイコン53に対して所定の操作、例えばマウスオーバーの操作を行うと、その人物アイコン53に対応する人物の名前および所属(グループ、チーム)が記載された吹き出し85が表示される。これにより、エリアマップ44に配置された人物アイコン53に誤りがないかをオペレータが確認することができる。
 なお、本実施形態では、マウスオーバーの操作で吹き出し85を表示させるようにしたが、このような操作に限定されるものではない。
 次に、第5実施形態に係るエリアマップ編集画面について説明する。図27は、エリアマップ編集画面を示す説明図である。
 本実施形態では、映像に対する物体検出により椅子および机の位置情報を取得して、その位置情報に基づいて、座席枠83や机の画像45が描画されたエリアマップ44を生成するが、物体検出で誤検出が発生すると、エリアマップ44上の座席枠83や机の画像45の位置やサイズが実際と異なるものとなる。そこで、本実施形態では、図27に示すエリアマップ編集画面で、エリアマップ上の座席枠83や机の画像45の位置およびサイズを修正することができるようにする。
 このエリアマップ編集画面には、エリアマップ生成の処理で生成したエリアマップ44がカメラ1の映像86上に表示され、座席枠83や机の画像45の位置およびサイズが実際と異なるか否かを確認することができる。ここで、座席枠83や机の画像45の位置およびサイズが実際と異なる場合には、その座席枠83や机の画像45を選択して、移動やサイズ変更の操作を行うことで、座席枠83や机の画像45の位置やサイズを修正することができる。
 例えば、左クリックで座席枠83を選択状態とすることで修正操作が可能になり、ドラッグ&ドロップ操作により、座席枠83を正しい位置に移動させることができる。また、座席枠83の選択状態で、その座席枠83の枠線上にポインタを重ねると、ポインタが両方向の矢印に変化して、座席枠83のサイズを修正することができる。なお、机の画像45も、座席枠83と同様の要領で位置やサイズを修正することができる。
 また、このエリアマップ編集画面には、「追加」のボタン87と、「削除」のボタン88と、が設けられている。「追加」のボタン87を操作すると、エリアマップ44上に新規の座席枠83や机の画像45が出現し、座席枠83や机の画像45の移動やサイズ変更の操作を行うことで、座席枠83や机の画像45を適切な位置およびサイズに設定することができる。また、「削除」のボタン88を操作すると、選択状態の座席枠83や机の画像45を削除することができる。
 なお、本実施形態では、エリアマップ44をカメラ1の映像86上に表示するようにしたが、このとき、全方位カメラの映像に現れる歪みを補正する画像処理を行うようにするとよい。
 以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
 本開示に係る滞在状況表示システムおよび滞在状況表示方法は、施設内の各エリアでの人物の滞在状況に関する情報として、人物が滞在するエリアに応じた適切な内容の情報をユーザに提示することができる効果を有し、施設に設置されたカメラにより撮影される映像に基づいて、対象エリアにおける人物の滞在状況に関する表示情報を生成する滞在状況表示システムおよび滞在状況表示方法などとして有用である。
1 カメラ
2 レコーダ
3 施設管理装置
4 ユーザ端末
22 プロセッサ
42 在席マップ
43 座席アイコン
44 エリアマップ
46 エリアアイコン
47 区画アイコン
51 エリアアイコン
52 在席マップ
53 人物アイコン
55 ポップアップメニュー
57 吹き出し
61 エリアアイコン(定形画像)
65 ポップアップメニュー
67 吹き出し
71 検知エリアの枠線
72 映像
81 人物リスト
83 座席枠
85 吹き出し
86 映像

Claims (34)

  1.  施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、
     前記プロセッサは、
     前記映像に基づいて、人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、
     前記対象エリアごとに予め設定されたエリア属性に応じた表示項目にしたがって前記滞在情報を反映させた前記表示情報を生成することを特徴とする滞在状況表示システム。
  2.  前記プロセッサは、
     前記対象エリアとなる部屋の前記エリア属性が、事務室、会議室および共用室のいずれであるかに応じた前記表示項目にしたがって前記表示情報を生成することを特徴とする請求項1に記載の滞在状況表示システム。
  3.  前記プロセッサは、
     複数の前記検知エリアを集約した集約エリアの利用状況を前記表示項目として前記表示情報を生成することを特徴とする請求項1または請求項2のいずれかに記載の滞在状況表示システム。
  4.  前記エリア属性には、前記検知エリアの各々での人物の在席状況を前記表示項目とする第1のエリア属性と、前記対象エリア全体の利用状況を前記表示項目とする第2のエリア属性と、前記対象エリア内に複数設定された各区画の利用状況を前記表示項目とする第3のエリア属性とがあることを特徴とする請求項3に記載の滞在状況表示システム。
  5.  前記プロセッサは、
     前記対象エリアのレイアウトを表わすエリアマップ上に、前記滞在状況を示す定形画像を重畳した前記表示情報を生成することを特徴とする請求項1または請求項4のいずれかに記載の滞在状況表示システム。
  6.  施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、
     前記映像に基づいて、人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、
     前記対象エリアごとに予め設定されたエリア属性に応じた表示項目にしたがって前記滞在情報を反映させた前記表示情報を生成することを特徴とする滞在状況表示方法。
  7.  施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、
     前記プロセッサは、
     前記映像に基づいて、前記対象エリアにおいて人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、
     前記滞在情報に基づいて、人物の滞在状況に応じて表示形態が異なる人物画像を生成し、
     前記対象エリアを表すエリア画像上に前記人物画像を重畳した前記表示情報を生成することを特徴とする滞在状況表示システム。
  8.  前記プロセッサは、
     複数の対象エリアを一覧表示する表示情報を生成し、
     ユーザが前記対象エリアを選択する操作に応じて、選択した前記対象エリアに関する前記表示情報を生成することを特徴とする請求項7に記載の滞在状況表示システム。
  9.  前記人物画像は、予め登録された顔画像を含むことを特徴とする請求項7または請求項8のいずれかに記載の滞在状況表示システム。
  10.  前記プロセッサは、
     人物の現在の滞在の有無に応じて、前記人物画像の表示色を変化させることを特徴とする請求項7から請求項9のいずれかに記載の滞在状況表示システム。
  11.  前記プロセッサは、
     人物の不在時間の長さに応じて、前記人物画像の表示色を変化させることを特徴とする請求項7から請求項10のいずれかに記載の滞在状況表示システム。
  12.  前記プロセッサは、
     前記人物画像を選択するユーザの操作に応じて、その選択にかかる人物の過去および未来の滞在状況を表示することを特徴とする請求項7から請求項11のいずれかに記載の滞在状況表示システム。
  13.  前記プロセッサは、
     前記人物画像を選択するユーザの操作に応じて、その選択にかかる人物のスケジュールを表示することを特徴とする請求項7から請求項12のいずれかに記載の滞在状況表示システム。
  14.  前記プロセッサは、
     前記人物画像を選択するユーザの操作に応じて、その選択にかかる人物を宛先とした電子メールを作成する画面を表示することを特徴とする請求項7から請求項13のいずれかに記載の滞在状況表示システム。
  15.  施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、前記施設内の対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、
     前記プロセッサは、
     前記映像に基づいて、前記対象エリアにおいて人物の滞在が想定される検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、
     前記滞在情報に基づいて、人物の滞在状況に応じて表示形態が異なる人物画像を生成し、
     前記対象エリアを表すエリア画像上に前記人物画像を重畳した前記表示情報を生成することを特徴とする滞在状況表示方法。
  16.  施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、予約により利用可能な対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、
     前記プロセッサは、
     前記映像に基づいて、前記対象エリアにおける人物の滞在を検知して、前記対象エリアにおける人物の滞在状況に関する滞在情報を取得し、
     前記滞在情報に基づいて、前記対象エリアの利用状況を判定し、
     前記対象エリアに関する予約情報を取得し、
     前記対象エリアの現在の利用状況を表す定形画像、および前記対象エリアの現在の予約状況に関する情報を含む前記表示情報を生成することを特徴とする滞在状況表示システム。
  17.  前記プロセッサは、
     利用中でないことを表す前記定形画像を選択するユーザの操作に応じて、選択された前記定形画像に対応する前記対象エリアの現在の予約状況に関する情報を表示することを特徴とする請求項16に記載の滞在状況表示システム。
  18.  前記プロセッサは、
     前記対象エリアの利用状況が利用中にならずに所定時間経過すると、前記対象エリアの現在の予約状況に関する情報を解除する制御を実行することを特徴とする請求項16または請求項17に記載の滞在状況表示システム。
  19.  前記プロセッサは、
     利用中でないことを表す前記定形画像を選択するユーザの操作に応じて、選択された前記定形画像に対応する前記対象エリアに既に利用予約がある場合には、予約者に対して、前記対象エリアの利用予約を解除する旨の通知を行うことを特徴とすることを特徴とする請求項16から請求項18のいずれかに記載の滞在状況表示システム。
  20.  前記プロセッサは、
     前記対象エリアの利用予約を解除する旨の通知に対して、利用予約の解除を承諾する旨の返信があった場合には、直ちに前記対象エリアの利用予約を解除して前記予約情報を更新することを特徴とする請求項19に記載の滞在状況表示システム。
  21.  前記プロセッサは、
     前記対象エリアの利用予約を解除する旨の通知に対して、利用予約の解除を承諾する旨の返信がなく、かつ、前記対象エリアの利用状況が利用中に変化しない状態が、所定時間継続すると、前記対象エリアの利用予約を解除して前記予約情報を更新することを特徴とする請求項19に記載の滞在状況表示システム。
  22.  前記プロセッサは、
     前記対象エリアの利用予約の解除を不可とする設定がなされている場合には、前記定形画像を操作不能状態または非表示状態とすることを特徴とする請求項16から請求項21のいずれかに記載の滞在状況表示システム。
  23.  施設に設置されたカメラにより撮影される映像をリアルタイムに取得して、予約により利用可能な対象エリアにおける現在の人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、
     前記プロセッサは、
     前記映像に基づいて、前記対象エリアにおける人物の滞在を検知して、前記対象エリアにおける人物の滞在状況に関する滞在情報を取得し、
     前記滞在情報に基づいて、前記対象エリアの利用状況を判定し、
     前記対象エリアに関する予約情報を取得し、
     前記対象エリアの現在の利用状況を表す定形画像、および前記対象エリアの現在の予約状況に関する情報を含む前記表示情報を生成することを特徴とする滞在状況表示方法。
  24.  施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示システムであって、
     前記プロセッサは、
     前記対象エリアに配置された定形物体を前記映像から検出する物体検出を行い、
     前記定形物体の検出結果に基づいて、人物の滞在が想定される検知エリアを前記映像上に設定するエリア設定を行い、
     前記映像に基づいて、前記検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、
     前記滞在情報に基づいて前記表示情報を生成することを特徴とする滞在状況表示システム。
  25.  前記プロセッサは、
     前記映像から人物を検出する人物検出を行い、
     人物が検出されないタイミングで、前記物体検出および前記エリア設定を行うことを特徴とする請求項24に記載の滞在状況表示システム。
  26.  前記プロセッサは、
     前記映像から人物を検出する人物検出を行い、
     人物が検出されない場所を対象にして、前記物体検出および前記エリア設定を行うことを特徴とする請求項24に記載の滞在状況表示システム。
  27.  前記プロセッサは、
     前記物体検出および前記エリア設定を一定時間ごとに行うことを特徴とする請求項24または請求項26のいずれかに記載の滞在状況表示システム。
  28.  前記プロセッサは、
     前記検知エリアの範囲を表す検知エリア画像を前記映像上に表示し、
     前記検知エリア画像に対して行われるオペレータの編集操作に応じて、前記検知エリアを修正することを特徴とする請求項24または請求項27のいずれかに記載の滞在状況表示システム。
  29.  施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況に関する表示情報を生成する処理をプロセッサにより実行する滞在状況表示方法であって、
     前記プロセッサは、
     前記対象エリアに配置された定形物体を前記映像から検出する物体検出を行い、
     前記定形物体の検出結果に基づいて、人物の滞在が想定される検知エリアを前記映像上に設定するエリア設定を行い、
     前記映像に基づいて、前記検知エリアでの人物の滞在を検知して、前記検知エリアごとの人物の滞在状況に関する滞在情報を取得し、
     前記滞在情報に基づいて前記表示情報を生成することを特徴とする滞在状況表示方法。
  30.  施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況を表す滞在マップを表示するとともに、オペレータの編集操作に応じて前記滞在マップを生成する処理をプロセッサにより実行する滞在状況表示システムであって、
     前記プロセッサは、
     前記対象エリアを表すエリア画像を表示するとともに、人物の滞在状況に応じて表示形態が変更されるように前記滞在マップに表示される人物画像を一覧表示し、
     前記人物画像を選択して前記エリア画像上に移動させるオペレータの編集操作に応じて、前記エリア画像における各人物の定位置に前記人物画像が配置された前記滞在マップを生成することを特徴とする滞在状況表示システム。
  31.  前記プロセッサは、
     予め登録された物体を前記映像から検出して、前記対象エリアにおける物体の位置情報を取得し、
     前記物体の位置情報に基づいて、前記物体を表す物体画像が描画された前記エリア画像を生成することを特徴とする請求項30に記載の滞在状況表示システム。
  32.  前記プロセッサは、
     前記物体画像を前記映像上に表示し、
     前記物体画像に対して行われるオペレータの編集操作に応じて、前記物体画像が修正された前記エリア画像を生成することを特徴とする請求項31に記載の滞在状況表示システム。
  33.  前記人物画像は、顔画像、名前を表す文字、および属性を表す文字のうちの少なくとも1つを含むことを特徴とする請求項30から請求項32のいずれかに記載の滞在状況表示システム。
  34.  施設に設置されたカメラにより撮影される映像を取得して、対象エリアにおける人物の滞在状況を表す滞在マップを表示するとともに、オペレータの編集操作に応じて前記滞在マップを生成する処理をプロセッサにより実行する滞在状況表示方法であって、
     前記対象エリアを表すエリア画像を表示するとともに、人物の滞在状況に応じて表示形態が変更されるように前記滞在マップに表示される人物画像を一覧表示し、
     前記人物画像を選択して前記エリア画像上に移動させるオペレータの編集操作に応じて、前記エリア画像における各人物の定位置に前記人物画像が配置された前記滞在マップを生成することを特徴とする滞在状況表示方法。
PCT/JP2018/013652 2017-04-21 2018-03-30 滞在状況表示システムおよび滞在状況表示方法 WO2018193813A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
GB201914973A GB2575210A (en) 2017-04-21 2018-03-30 Staying state display system and staying state display method
US16/606,463 US11212487B2 (en) 2017-04-21 2018-03-30 Staying state display system and staying state display method
DE112018001440.1T DE112018001440T5 (de) 2017-04-21 2018-03-30 Aufenthaltszustandsanzeigesystem und Aufenthaltszustandsanzeigeverfahren
CN201880025251.1A CN110520879A (zh) 2017-04-21 2018-03-30 停留状况显示系统和停留状况显示方法

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP2017084135A JP6489386B2 (ja) 2017-04-21 2017-04-21 滞在状況表示システムおよび滞在状況表示方法
JP2017084132A JP6489384B2 (ja) 2017-04-21 2017-04-21 滞在状況表示システムおよび滞在状況表示方法
JP2017-084130 2017-04-21
JP2017-084134 2017-04-21
JP2017-084136 2017-04-21
JP2017084134A JP6489385B2 (ja) 2017-04-21 2017-04-21 滞在状況表示システムおよび滞在状況表示方法
JP2017-084135 2017-04-21
JP2017084136A JP6583831B2 (ja) 2017-04-21 2017-04-21 滞在状況表示システムおよび滞在状況表示方法
JP2017-084132 2017-04-21
JP2017084130A JP6489383B2 (ja) 2017-04-21 2017-04-21 滞在状況表示システムおよび滞在状況表示方法

Publications (1)

Publication Number Publication Date
WO2018193813A1 true WO2018193813A1 (ja) 2018-10-25

Family

ID=63855682

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/013652 WO2018193813A1 (ja) 2017-04-21 2018-03-30 滞在状況表示システムおよび滞在状況表示方法

Country Status (5)

Country Link
US (1) US11212487B2 (ja)
CN (1) CN110520879A (ja)
DE (1) DE112018001440T5 (ja)
GB (1) GB2575210A (ja)
WO (1) WO2018193813A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012416A (ja) * 2019-07-03 2021-02-04 パナソニックi−PROセンシングソリューションズ株式会社 情報処理装置、情報受信方法、およびプログラム
JP2021168153A (ja) * 2019-07-03 2021-10-21 パナソニックi−PROセンシングソリューションズ株式会社 情報処理装置、判定方法、およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6941805B2 (ja) * 2018-02-22 2021-09-29 パナソニックIpマネジメント株式会社 滞在状況表示システムおよび滞在状況表示方法
JP2021108052A (ja) * 2019-12-27 2021-07-29 富士フイルムビジネスイノベーション株式会社 情報処理システム、情報処理装置、および、プログラム
JP2021117828A (ja) * 2020-01-28 2021-08-10 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11606220B2 (en) * 2020-06-20 2023-03-14 Science House LLC Systems, methods, and apparatus for meeting management
CN112819184A (zh) * 2020-12-31 2021-05-18 中国人寿保险股份有限公司上海数据中心 一种基于积分算法的空闲会议室检测方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991354A (ja) * 1995-09-26 1997-04-04 Matsushita Electric Works Ltd 部屋の予約管理システム
JPH11134349A (ja) * 1997-10-28 1999-05-21 Fujitsu Ltd 環境適応型情報呈示装置及び実世界データベース
JP2007026016A (ja) * 2005-07-15 2007-02-01 Hitachi Ltd グループコミュニケーション支援装置
JP2007219939A (ja) * 2006-02-17 2007-08-30 Ricoh Co Ltd 情報管理システム、情報管理方法及び情報管理プログラム
WO2009107618A1 (ja) * 2008-02-25 2009-09-03 日本電気株式会社 空間情報管理システムおよび方法ならびにプログラム
WO2011125288A1 (ja) * 2010-04-08 2011-10-13 日本電気株式会社 通信システム、通信装置、通信制御方法および通信用プログラム
JP2012038242A (ja) * 2010-08-11 2012-02-23 Kddi Corp 出席管理方法およびシステム
JP2013218511A (ja) * 2012-04-09 2013-10-24 Panasonic Corp 監視システムおよび電話システム
JP2013236520A (ja) * 2012-05-10 2013-11-21 Toshiba Corp 電力管理支援装置、電力管理支援方法、電力管理支援プログラム
JP2016095560A (ja) * 2014-11-12 2016-05-26 セイコーソリューションズ株式会社 電子機器、オーダーエントリーシステム、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4045748B2 (ja) 2001-02-26 2008-02-13 日本電気株式会社 モニタリングシステムおよびその方法
US8934608B2 (en) * 2005-09-26 2015-01-13 Lawrence Livermore National Security, Llc High flux, narrow bandwidth compton light sources via extended laser-electron interactions
JP2007206016A (ja) * 2006-02-06 2007-08-16 Railway Technical Res Inst 滴下装置
US8743198B2 (en) * 2009-12-30 2014-06-03 Infosys Limited Method and system for real time detection of conference room occupancy
US20120327099A1 (en) * 2011-06-24 2012-12-27 William John Vojak Dynamically adjusted display attributes based on audience proximity to display device
JP2013182450A (ja) * 2012-03-02 2013-09-12 Fuji Xerox Co Ltd 所在管理プログラム及び所在管理装置
JP5907362B1 (ja) * 2014-10-08 2016-04-26 パナソニックIpマネジメント株式会社 活動状況分析装置、活動状況分析システムおよび活動状況分析方法
AU2014415735A1 (en) * 2014-12-30 2017-07-20 Myseat Sas Apparatus and system for detecting equipment occupancy

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991354A (ja) * 1995-09-26 1997-04-04 Matsushita Electric Works Ltd 部屋の予約管理システム
JPH11134349A (ja) * 1997-10-28 1999-05-21 Fujitsu Ltd 環境適応型情報呈示装置及び実世界データベース
JP2007026016A (ja) * 2005-07-15 2007-02-01 Hitachi Ltd グループコミュニケーション支援装置
JP2007219939A (ja) * 2006-02-17 2007-08-30 Ricoh Co Ltd 情報管理システム、情報管理方法及び情報管理プログラム
WO2009107618A1 (ja) * 2008-02-25 2009-09-03 日本電気株式会社 空間情報管理システムおよび方法ならびにプログラム
WO2011125288A1 (ja) * 2010-04-08 2011-10-13 日本電気株式会社 通信システム、通信装置、通信制御方法および通信用プログラム
JP2012038242A (ja) * 2010-08-11 2012-02-23 Kddi Corp 出席管理方法およびシステム
JP2013218511A (ja) * 2012-04-09 2013-10-24 Panasonic Corp 監視システムおよび電話システム
JP2013236520A (ja) * 2012-05-10 2013-11-21 Toshiba Corp 電力管理支援装置、電力管理支援方法、電力管理支援プログラム
JP2016095560A (ja) * 2014-11-12 2016-05-26 セイコーソリューションズ株式会社 電子機器、オーダーエントリーシステム、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
vol. 36, no. 3, pages 107 - 121 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012416A (ja) * 2019-07-03 2021-02-04 パナソニックi−PROセンシングソリューションズ株式会社 情報処理装置、情報受信方法、およびプログラム
JP2021168153A (ja) * 2019-07-03 2021-10-21 パナソニックi−PROセンシングソリューションズ株式会社 情報処理装置、判定方法、およびプログラム
JP7201748B2 (ja) 2019-07-03 2023-01-10 i-PRO株式会社 情報処理装置、判定方法、およびプログラム

Also Published As

Publication number Publication date
CN110520879A (zh) 2019-11-29
DE112018001440T5 (de) 2019-12-19
US20210281803A1 (en) 2021-09-09
GB2575210A (en) 2020-01-01
US11212487B2 (en) 2021-12-28
GB201914973D0 (en) 2019-11-27

Similar Documents

Publication Publication Date Title
WO2018193813A1 (ja) 滞在状況表示システムおよび滞在状況表示方法
JP6489383B2 (ja) 滞在状況表示システムおよび滞在状況表示方法
JP4692364B2 (ja) 電子会議支援プログラム、電子会議支援方法、電子会議システムにおける情報端末装置
JP5211430B2 (ja) 電子会議システム、電子会議支援プログラム、電子会議支援方法、電子会議制御装置、会議サーバコンピュータ
JP6414944B1 (ja) 空席予約システム及び空席予約装置
JP2007026016A (ja) グループコミュニケーション支援装置
US8484719B2 (en) Information processing apparatus, information processing method, and media storing a program therefor
US10298530B2 (en) Scheduling events
JP6583831B2 (ja) 滞在状況表示システムおよび滞在状況表示方法
WO2019163543A1 (ja) 執務席提示システムおよび執務席提示方法
JP2020087245A (ja) エラー表示システム、エラー表示方法、情報処理装置
JP6489385B2 (ja) 滞在状況表示システムおよび滞在状況表示方法
JP6489384B2 (ja) 滞在状況表示システムおよび滞在状況表示方法
JP2021149827A (ja) 施設予約システム、電子データ提供方法、情報処理端末、情報処理方法、情報処理装置、データ送信方法、プログラム
US11496604B2 (en) Resource management apparatus, resource management system, and non-transitory computer-executable medium
JP6489386B2 (ja) 滞在状況表示システムおよび滞在状況表示方法
US20210011704A1 (en) Progress management system, progress management method, and information processing apparatus
JP2005222477A (ja) 設備利用支援装置、設備利用支援方法及びそのプログラム
WO2022202036A1 (ja) 業務支援システムおよび業務支援方法
US20210012249A1 (en) Resource management system and processing method
JPH11120247A (ja) 予約済スケジュールオブジェクトへのファイルオブジェクトの重ね合わせ操作による電子メール送信方法
JP2021081865A (ja) リソース予約システム、表示方法、情報処理装置
JPH06332906A (ja) 会議スケジュール調整方法
US20230419260A1 (en) Information processing system, non-transitory recording medium, and attribute setting method
US20230289670A1 (en) System integration in a distributed computing environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18787545

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 201914973

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20180330

122 Ep: pct application non-entry in european phase

Ref document number: 18787545

Country of ref document: EP

Kind code of ref document: A1