WO2023074515A1 - 画像出力システム、及び、画像出力方法 - Google Patents

画像出力システム、及び、画像出力方法 Download PDF

Info

Publication number
WO2023074515A1
WO2023074515A1 PCT/JP2022/039040 JP2022039040W WO2023074515A1 WO 2023074515 A1 WO2023074515 A1 WO 2023074515A1 JP 2022039040 W JP2022039040 W JP 2022039040W WO 2023074515 A1 WO2023074515 A1 WO 2023074515A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
facility
floor map
output system
Prior art date
Application number
PCT/JP2022/039040
Other languages
English (en)
French (fr)
Inventor
浩 松田
知也 十河
雄二 玉木
勇一郎 竹本
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2023074515A1 publication Critical patent/WO2023074515A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/16Real estate
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/60Positioning; Navigation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings

Definitions

  • the present invention relates to an image output system and the like.
  • Patent Document 1 discloses a technique for managing the situation of each area provided in a building.
  • the present invention provides an image output system and the like that can provide various floor map images while reducing the storage capacity of objects.
  • An image output system provides display information for displaying a floor map image in which objects related to the states of areas included in the floor are arranged on a base image including a map of floors in a facility. and the object is shared between the floor map image and floor map images of other facilities displayed based on other display information output by the output unit.
  • An image output method provides display information for displaying a floor map image in which objects related to the states of areas included in the floor are arranged on a base image including a map of floors in a facility. wherein the object is shared between the floor map image and floor map images of other facilities displayed based on other display information output in the output step.
  • a program according to one aspect of the present invention is a program for causing a computer to execute the image output method.
  • the image output system and the like of the present invention can provide various floor map images while reducing the storage capacity of objects.
  • FIG. 1 is a block diagram showing the functional configuration of the image output system according to the embodiment.
  • FIG. 2 is a diagram showing an example of a floor map image.
  • FIG. 3 is a diagram showing an example of a base image.
  • FIG. 4 is a sequence diagram of an example of the display operation of the floor map image of the image output system.
  • FIG. 5 is a diagram showing an example of assembly information.
  • FIG. 6 is a diagram showing an example of object placement information.
  • FIG. 7 is a diagram showing another example of the floor map image.
  • FIG. 8 is a diagram showing an example of an object composed of a plurality of sub-objects.
  • FIG. 9 is a diagram showing an example of criteria for changing the display mode of the first object.
  • FIG. 10 is a diagram for explaining an example in which two types of objects indicating the same index are displayed.
  • each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code
  • FIG. 1 is a block diagram showing the functional configuration of the image output system according to the embodiment.
  • the image output system 10 shown in FIG. 1 is a system capable of displaying a floor map image indicating the environmental conditions within the facility 20 on information terminals 30 (such as digital signage devices) provided in each of the plurality of facilities 20.
  • FIG. 2 is a diagram showing an example of such a floor map image.
  • Facilities 20 are, for example, office buildings, commercial facilities, social education facilities (libraries, museums, art galleries, etc.), medical facilities (hospitals, etc.), factories, research facilities, lodging facilities, public facilities, and the like.
  • One facility 100 includes a carbon dioxide concentration sensor 21, a temperature/humidity sensor 22, a seating sensor 23, a number sensor 24, a wireless communication device 25, a control device 26, a ventilation device 27, an air purification device 28, and an information terminal 30. be provided.
  • the image output system 10 includes devices provided within these facilities 20 .
  • One facility 20 includes a carbon dioxide concentration sensor 21, a temperature and humidity sensor 22, a seating sensor 23, a number sensor 24, a wireless communication device 25, a control device 26, a ventilation device 27, an air purification device 28, and an information terminal.
  • a plurality of each of 30 may be provided.
  • a server device 40 is provided outside the facility 20 , and the image output system 10 includes the server device 40 .
  • the carbon dioxide concentration sensor 21 senses the carbon dioxide concentration in the facility 20 and wirelessly transmits information indicating the sensed carbon dioxide concentration (an example of sensing information) to the wireless communication device 25 . This information is given the ID of the carbon dioxide concentration sensor 21 (an example of sensor identification information).
  • the carbon dioxide concentration sensor 21 is an optical sensor that utilizes the infrared absorption characteristics of carbon dioxide, but may be an electrochemical sensor that utilizes an electrochemical reaction or a sensor that uses a semiconductor. good too.
  • the temperature and humidity sensor 22 senses the temperature and humidity in the facility 20 and wirelessly transmits information indicating the sensed temperature and humidity (an example of sensing information) to the wireless communication device 25 .
  • This information is given the ID of the temperature/humidity sensor 22 (an example of sensor identification information).
  • It is realized by a temperature measuring element and a humidity measuring element.
  • the temperature measuring element is, for example, a thermistor, a thermocouple, or an infrared detecting element
  • the humidity measuring element is, for example, a capacitance type humidity sensitive element or resistance change type humidity sensitive element.
  • the seating sensor 23 senses whether or not a person is sitting in a seat such as a personal booth in the facility 20, and wirelessly transmits information indicating whether or not a person is present in that seat (an example of sensing information) to the wireless communication device. This information is given the ID of the seating sensor 23 (an example of sensor identification information).
  • the seating sensor 23 is implemented by an infrared detection element or the like that senses infrared rays emitted from the human body.
  • the people sensor 24 is installed on the ceiling or the like in the facility 20, senses the number of people located in the facility 20, and wirelessly transmits information indicating the number of sensed people (an example of sensing information) to the wireless communication device. . This information is provided with the ID of the people sensor 24 (an example of sensor identification information).
  • the people sensor 24 is specifically realized by a camera and an image processing device. The camera captures an image (moving image or still image) of the floor on which the people sensor 24 is installed, and the image processing device identifies the number of people appearing in the captured image through image processing.
  • the image processing device is realized by, for example, a machine learning model.
  • This machine learning model is a trained model that can output the number of people appearing in the image as output information, using images captured by a camera as input information.
  • the image processing apparatus may identify the number of people from an image by a technique such as template matching, or may identify the number of people using another existing method.
  • the wireless communication device 25 receives sensing information from each of the carbon dioxide concentration sensor 21, the temperature/humidity sensor 22, and the seating sensor 23 by wireless communication, and transmits the received sensing information to the control device 26.
  • the communication standard of the wireless communication is, for example, BLE (Bluetooth (registered trademark) Low Energy), but other communication standards may be used.
  • Communication between the wireless communication device 25 and the control device 26 is, for example, wired communication, but may be wireless communication.
  • the control device 26 transmits sensing information received from the wireless communication device 25 to the server device 40 via a wide area communication network 50 such as the Internet.
  • the control device 26 controls the ventilation device 27 and the air purification device 28, and transmits information indicating the operating state of the ventilation device 27 and the air purification device 28 to the server device 40 via the wide area communication network 50.
  • the control device 26 is, for example, a general-purpose control device such as an EMS (Energy Management System) controller, but may be a dedicated control device for the image output system 10 .
  • the ventilation device 27 ventilates the inside of the facility 20.
  • the ventilator 27 also transmits information indicating the operating state of the ventilator 27 (for example, whether it is operating or not) to the control device 26 . This information is given the ID of the ventilation device 27 (an example of device identification information).
  • the ventilator 27 is, for example, a ventilator including a total heat exchanger such as an ERV (Energy Recovery Ventilator), but may be a ventilator that does not involve heat exchange, such as a ventilation fan.
  • the air purification device 28 is a device that sucks the air in the space within the facility 20, purifies the sucked air, and releases it into the space.
  • the air purifying device 28 transmits information indicating the operating state of the air purifying device 28 (for example, whether it is operating or not) to the control device 26 . This information is assigned an ID (an example of device identification information) of the air purification device 28 .
  • the air purifier 28 is an air purifier that includes an air filter such as a High Efficiency Particulate Air (HEPA) filter, purifies (filters) sucked air with the air filter, and releases the air into space.
  • HEPA High Efficiency Particulate Air
  • the air purification device 28 may be a device that purifies (sterilizes) the sucked air with ultraviolet light and releases it into the space. Further, the air purification device 28 may be a device that purifies (disinfects) sucked air with hypochlorous acid water and releases it into space. The air purification device 28 may be a device that emits mist of hypochlorous acid water into the space.
  • the information terminal 30 displays a floor map image showing the environmental conditions within the facility 20 based on the display information provided by the server device 40 .
  • the information terminal 30 is, for example, a digital signage device fixedly installed within the facility 20, but may be any information terminal located within the facility 20, and may be a portable information terminal such as a smartphone or a tablet terminal. good. Also, the information terminal 30 may be a personal computer or the like.
  • the information terminal 30 may perform display processing of a floor map image based on display information by executing a dedicated application program, or display processing of a floor map image based on display information by executing a web browser. may be performed.
  • the information terminal 30 includes a communication section 31 , an information processing section 32 , a storage section 33 and a display section 34 .
  • the communication unit 31 is a communication module (communication circuit) for the information terminal 30 to communicate with the server device 40 or the like via the wide area communication network 50 .
  • the communication performed by the communication unit 31 is, for example, wired communication, but may be wireless communication.
  • the communication standard used for communication is also not particularly limited.
  • the information processing section 32 performs display processing for displaying the floor map image based on the display information provided from the server device 40 .
  • the information processing section 32 is implemented by, for example, a microcomputer, but may be implemented by a processor.
  • the functions of the information processing section 32 are realized by, for example, executing a computer program stored in the storage section 33 by a microcomputer, a processor, or the like that constitutes the information processing section 32 .
  • the storage unit 33 is a storage device that stores information necessary for the display process (such as display information provided by the server device 40), computer programs executed by the information processing unit 32, and the like.
  • the storage unit 33 is implemented by, for example, an HDD (Hard Disk Drive), but may be implemented by a semiconductor memory or the like.
  • the display unit 34 displays the floor map image based on the display information provided by the server device 40.
  • the display unit 34 is implemented by, for example, a display panel such as a liquid crystal panel or an organic EL (Electro Luminescence) panel.
  • the server device 40 generates display information for displaying a floor map image based on sensing information and the like acquired from the control device 26, and performs processing for outputting the generated display information (hereinafter also referred to as image output processing). )I do.
  • the server device 40 is a cloud server provided outside the multiple facilities 20 .
  • the server device 40 specifically includes a communication section 41 , an information processing section 42 and a storage section 43 .
  • the communication unit 41 is a communication module (communication circuit) for the server device 40 to communicate with the control device 26 and the information terminal 30 via the wide area communication network 50 .
  • the communication performed by the communication unit 41 is, for example, wired communication, but may be wireless communication.
  • the communication standard used for communication is also not particularly limited.
  • the information processing section 42 performs the image output processing described above.
  • the information processing unit 42 is implemented by, for example, a microcomputer, but may be implemented by a processor.
  • the information processing section 42 has a first acquisition section 44, a second acquisition section 45, and an output section 46 as functional components.
  • the functions of the first acquisition unit 44, the second acquisition unit 45, and the output unit 46 are obtained by, for example, executing a computer program stored in the storage unit 43 by a microcomputer or processor constituting the information processing unit 42. Realized. Detailed functions of the first acquisition unit 44, the second acquisition unit 45, and the output unit 46 will be described later.
  • the storage unit 43 is a storage device that stores information necessary for the image output processing, computer programs executed by the information processing unit 42, and the like.
  • the storage unit 43 is implemented by, for example, an HDD (Hard Disk Drive), but may be implemented by a semiconductor memory or the like.
  • the image output system 10 can display floor map images inside each of the plurality of facilities 20 .
  • a floor map image is realized by arranging objects on base images corresponding to each of the plurality of facilities 20, as shown in FIG.
  • FIG. 3 is a diagram showing an example of a base image.
  • the base image is an image containing maps of the floors within the facility 20 .
  • the base image of each of the plurality of facilities 20 is stored in advance in the storage unit 43 of the server device 40 .
  • the base image is an image specific to the facility 20, and the base image differs if the facility 20 is different.
  • the multiple types of objects include not only objects unique to the facility 20 but also objects common to multiple facilities 20 .
  • Such objects are specifically the first object 61, the second object 62 and the third object 63 shown in FIG. These objects are used both for the floor map image of the facility 20 and for the floor map images of other facilities different from the facility 20 concerned. That is, these objects are shared between one floor map image and another floor map image.
  • commonality of an object means that at least the main shape of the object is made common, and the display mode of the object (color, text in the object, numerical value in the object, etc.) is not necessarily It doesn't have to be the same.
  • a first object 61 which is one of the common objects, indicates the degree of congestion of people in an area within the facility 20. Specifically, the first object 61 indicates the degree of congestion in the area within the facility 29 by the number of blackened human-shaped icons among the human-shaped icons in the substantially circular balloon.
  • the total number of human-shaped icons in the balloon of the first object 61 is always five regardless of the degree of congestion.
  • the congestion level may be indicated by the total number of icons in the shape of .
  • the first object 61 may have specifications such that the number of human-shaped icons in the speech balloon is one or three depending on the degree of congestion.
  • the first object 61 may indicate the degree of congestion by a numerical value (character) indicating the number of people displayed in the first object 61 instead of the human-shaped icon. Also, the first object 61 may indicate the degree of congestion by both a person-shaped icon and a numerical value indicating the number of people.
  • the area within the facility 20 is a unit corresponding to all or part of a floor within the facility 20 .
  • the display mode of the first object 61 (the number of blackened human-shaped icons) is determined based on sensing information obtained from the people sensor 24 installed in the facility 20 . Further, the display mode of the first object 61 indicating the degree of congestion in the area where the seating sensor 23 is provided (area where a plurality of individual booths are lined up) may be determined based on the sensing information obtained from the seating sensor 23. . In addition, depending on the level of congestion, the color (background color) in the speech balloon changes to green (low congestion), yellow (medium congestion), and red (high congestion). may be
  • Such a display mode of the first object 61 is substantially updated in real time. Updating substantially in real time means that updating is performed at intervals of 10 minutes, for example.
  • a second object 62 which is one of the common objects, indicates the status of infectious disease countermeasures in an area within the facility 20.
  • the second object 62 specifically indicates the state of infectious disease countermeasures using characters.
  • one second object 62 is arranged for one facility 20, but the second object 62 may be arranged for each area.
  • the display (arrangement) of the second object 62 is turned on and off based on the information indicating the operating states of the ventilation device 27 and the air purification device 28 . For example, it is displayed when at least one of the ventilator 27 and the air purifier 28 is in operation, and is hidden while both the ventilator 27 and the air purifier 28 are stopped.
  • the display mode of such a second object 62 is substantially updated in real time.
  • a third object 63 which is one of the common objects, indicates an index related to the comfort of an area within the facility 20.
  • the third object 63 specifically indicates the temperature, humidity, carbon dioxide concentration, and the like in the facility 20 as indices related to comfort in the facility 20 .
  • the third object 63 includes an object indicating carbon dioxide concentration numerically and graphically located in the upper left part of the floor map image, and a temperature numerically and graphically located in the upper left part of the floor map image. and an object that numerically indicates the temperature and humidity at the bottom of the floor map image.
  • the third object 63 may indicate at least one of temperature, humidity, and carbon dioxide concentration by at least one of a numerical value and a graph.
  • the numerical values and graphs displayed in the third object 63 are determined based on the sensing information obtained from the temperature/humidity sensor 22 or the sensing information obtained from the carbon dioxide concentration sensor 21 .
  • the display mode of such a third object 63 is substantially updated in real time.
  • the base image may include an object 66 that indicates the degree of crowding of people in the facility 20 and the index (temperature and humidity) related to comfort in the facility 20.
  • a fourth object 64 representing an image (photograph or CG) of the facility 20 viewed from inside the facility 20 may be arranged in the base image.
  • the fourth object is, in other words, an object showing an image of the interior of the facility 20 and an object unique to the facility 20 .
  • the fourth object 64 indicates, for example, an image or a CG that has been previously captured within the facility 20, but may be periodically updated with a new image or CG.
  • the fourth object 64 may show a still image or a moving image being captured by a camera installed in the facility 20 substantially in real time.
  • a fifth object 65 indicating the degree of congestion of people for each time period in a day may be arranged.
  • an object 67 indicating the installation position (in other words, the current position) of the information terminal 30 displaying the floor map image may be arranged in the base image.
  • the object 67 is, in other words, an object indicating the position of the user viewing the floor map image displayed on the display unit 34 .
  • FIG. 4 is a sequence diagram of an example of the display operation of the floor map image of the image output system 10. As shown in FIG.
  • the storage unit 43 of the server device 40 pre-stores assembly information for generating floor map images for each of the plurality of facilities 20 .
  • FIG. 5 is a diagram showing an example of assembly information.
  • the ID (identification information) of the facility the ID (identification information) of the information terminal on which the floor map image is displayed, the ID (identification information) of the base image ), and an ID (identification information) of object arrangement information indicating the arrangement of objects arranged in the base image.
  • the first acquisition unit 44 of the server device 40 acquires the ID of facility A (S10).
  • the first acquisition unit 44 acquires the ID of the facility A included in the floor map image display request received by the communication unit 41 from the external device.
  • the first acquisition unit 44 acquires the base image and object arrangement information (S11). Specifically, the first acquisition unit 44 refers to the assembly information stored in the storage unit 43 to obtain the ID of the base image and the object ID associated with the ID of the facility A acquired in step S10. The ID of the arrangement information is specified, and the base image and object arrangement information having the specified ID are acquired from the storage unit 43 .
  • the base image of each of the plurality of facilities 20 is stored in advance in the storage unit 43, and in step S11, the base image having the identification information linked to the ID of facility A among these is stored. is obtained.
  • the object placement information acquired in step S11 is information listing all objects placed in the base image.
  • FIG. 6 is a diagram showing an example of object placement information.
  • the object location information is specifically linked to an object ID (identification information), object type, object position information, and a corresponding sensor or device ID (identification information). attached information. That is, in step S11, it can be said that the first acquisition unit 44 acquires at least one of the position information indicating the position of the object on the base image and the type information of the object.
  • the object arrangement information is input to the server device 40 via a user interface (not shown) by a floor map image designer or the like, and is stored in the storage unit 43 in advance.
  • the object arrangement information may be provided from another server device to the server device 40 and stored in the storage unit 43 in advance.
  • the second acquisition unit 45 acquires the sensor IDs listed in the object arrangement information acquired in step S11 (specifically, the carbon dioxide concentration sensor 21, the temperature/humidity sensor 22, the seating sensor 23, or , the ID of the number sensor 24, etc.), and the latest sensing information of the sensor having the acquired ID is acquired (S12).
  • the second acquisition unit 45 acquires the most recent sensing information as a response, for example, by requesting sensing information from each sensor via the communication unit 41 . If the sensing information of each sensor is periodically stored in the storage unit 43 , the second acquisition unit 45 may acquire the most recent sensing information from the storage unit 43 .
  • the second acquisition unit 45 acquires the device whose ID is listed in the object placement information acquired in step S11 (specifically, the information indicating the most recent operating state of the ventilation device 27 or the air purification device 28).
  • the second acquisition unit 45 requests information indicating the operation state from each device via the communication unit 41, and obtains information indicating the latest operation state as a response.
  • the second acquiring unit 45 may acquire information indicating the most recent operating state from the storage unit 43 .
  • the output unit 46 determines the display mode of each of the multiple objects included in the object arrangement information acquired in step S11 (S14).
  • the output unit 46 displays the first object 61 indicating the degree of crowding (for example, a human-shaped black number of icons) can be determined.
  • the output unit 46 performs calculations such as dividing the number of people sensed by the people sensor 24 by the size of the area in which the people sensor 24 is installed in order to determine the degree of congestion of people. In this case, the size of the area is stored in advance in the storage unit 43, for example.
  • the output unit 46 may also determine the degree of crowding by dividing the number of people sensed by the number sensor 24 by a predetermined constant.
  • the predetermined constant in this case is, for example, stored in advance in the storage unit. In this way, in step S14, calculation for determining the degree of crowding of people may be performed as appropriate.
  • the output unit 46 displays the second object 62 indicating the comfort index in the facility 20 based on the information indicating the operating state of the ventilation device 27 or the air purification device 28 acquired in step S13 (for example, , presence or absence of display) can be determined.
  • the output unit 46 does not simply determine the display mode of the second object 62 by turning on or off the operation, but determines whether the ventilation volume of the ventilator 27 is equal to or greater than a predetermined value.
  • the display mode of the second object 62 may be determined using the requirements regarding the state. Further, the output unit 46 considers information indicating whether or not there is cleaning work (sterilization work) in the facility 20 instead of or in addition to the information indicating the operating state, and outputs the second A display mode of the object 62 may be determined. In this case, information indicating the presence or absence of cleaning work is input to the server device 40 via, for example, a user interface device (not shown).
  • the output unit 46 outputs the display mode of the third object 63 indicating the comfort index in the facility 20 (for example, numerical or graphical) can be determined.
  • the output unit 46 generates display information for displaying the floor map image, and outputs the generated display information (S15).
  • the display information includes the actual information of the base image, the actual information of the object (the object whose display mode is to be changed is the object after the display mode is determined), and the position information of the object (at least the object ID and coordinates based on the object placement information).
  • information associated with The output unit 46 also designates the information terminal 30 (ID of the information terminal 30) to which the display information is to be output, based on the assembly information acquired in step S11.
  • the communication unit 41 transmits the display information output by the output unit 46 to the specified information terminal 30 (S16). Note that the process of step S16 is a process of outputting the display information to the information terminal 30 linked to the ID of the facility A (more specifically, the identification information of the facility A acquired in step S10) in the assembly information. It can be said.
  • the communication unit 31 of the information terminal 30 receives the display information.
  • the information processing section 32 generates a floor map image based on the received display information, and displays the generated floor map image on the display section 34 (S17).
  • the display information includes the actual information of the base image, the actual information of the object, and the positional information of the object.
  • the information terminal 30 can generate a floor map image by arranging objects on the base image based on position information.
  • FIG. 7 is a diagram showing another example of the floor map image.
  • an image output system 10 can provide various floor map images while reducing the total number of objects stored in the storage unit 43 (that is, the storage capacity of objects).
  • the display mode of the object is updated as appropriate.
  • the image output system 10 performs the processing of steps S12 to S17 at predetermined time intervals to update the display mode of the object based on sensing information from the sensor or information indicating the operating state of the device. can be done. Note that this process can be said to be a process of updating the display mode of the object linked to the sensor ID (more specifically, the sensor identification information acquired in step S12) in the object arrangement information.
  • the floor map image was generated by the information terminal 30 arranging the objects on the base image based on the position information.
  • the actual information (image information) of the generated floor map image may be output to the information terminal 30 as display information. According to such a configuration, it is possible to reduce the amount of information processing in the information terminal 30 while suppressing the occurrence of displacement of the object.
  • the first object 61, the second object 62, and the third object 63 are basically treated as separate objects. However, two or more of the first object 61, second object 62, and third object 63 may be grouped as sub-objects and treated as one object.
  • FIG. 8 is a diagram showing an example of such an object containing multiple sub-objects.
  • Objects 70 shown in FIG. 8 include a first object 71 indicating the degree of crowding of people, a third object 73a indicating carbon dioxide concentration, a third object 73b indicating temperature, and a third object 73c indicating humidity. Contains as a sub-object.
  • the object 70 can be efficiently arranged on the base image.
  • the object 70 shown in FIG. 8 is an example of an object including multiple sub-objects.
  • each of the plurality of sub-objects included in the object may be one of the first object 61, the second object 62, and the third object 63.
  • the display mode of the first object 61 is changed according to the degree of congestion of people (for example, the number of people per unit area).
  • the output unit 46 may change the display mode of the first object 61 indicating the degree of crowding of people in one area in the facility 20 based on the condition of the area.
  • the criteria for changing the display mode of the first object 61 may differ according to the state of the target area.
  • the criteria for changing the display mode of the first object 61 may differ depending on the presence or absence of infectious disease countermeasures in the target area.
  • FIG. 9 is a diagram showing an example of criteria for changing the display mode of the first object 61. As shown in FIG.
  • the criteria shown in FIG. 9 are such that when measures against infectious diseases are being taken in the target area, a display mode with a low congestion level is more likely to be selected than when measures against infectious diseases are not being taken in the target area. stipulated. From another point of view, the criterion shown in FIG. 9 is that a display mode with a lower congestion degree is selected in the first area where infectious disease countermeasures are being taken than in the second area where infectious disease countermeasures are not taken. defined for ease of use. It should be noted that, for example, that infectious disease countermeasures are being taken means that at least one of the ventilation device 27 and the air purification device 28 is operating in the target area, and that the This means that cleaning work (sterilization work) has been performed.
  • the output unit 46 can change the display mode of the first object 61 in consideration of the state of the target area (for example, the state of measures against infectious diseases). can.
  • FIG. 10 is a diagram for explaining an example in which two types of objects indicating the same index are displayed.
  • an object 80 showing an overview of the degree of crowding of people in the target area and an object 81 showing details (specific numerical values) of the degree of crowding of people in the target area are displayed.
  • an object 80 showing the outline of the state of the area and an object 81 showing the details of the state are arranged in the base image.
  • Each of the object 80 indicating the outline and the object 81 indicating the detail is shared among the plurality of floor map images, but at least one of the object 80 indicating the overview and the object 81 indicating the detail is shared among the plurality of floor map images. I wish I could.
  • the image output system 10 displays both the object 80 showing the outline of the state of the degree of crowding of people in the target area and the object 81 showing the details of the degree of crowding of people in the target area. It can meet various needs for displaying the degree of congestion.
  • the image output system 10 is realized by a plurality of devices.
  • the constituent elements (especially functional constituent elements) of the image output system 10 may be distributed among the plurality of devices in any way.
  • the image output system 10 may be implemented as a single device.
  • the image output system 10 may be implemented as a single device corresponding to the server device 40 .
  • the image output system 10 can be considered as a system corresponding to the server device 40 including the first acquisition section 44 , the second acquisition section 45 , and the output section 46 .
  • the image output system 10 can be considered as a system corresponding to the information terminal 30 . This point will be supplemented below.
  • step S17 of the display operation example of the above embodiment the information processing section 32 of the information terminal 30 acquires the display information received by the communication section 31 in order to display the floor map image.
  • the display information includes real information of the base image, real information of the object, and position information of the object. Therefore, it can be said that the information processing section 32 has a function as a first acquisition section that acquires position information indicating the position of the object on the base image.
  • step S17 the information processing section 32 outputs information for displaying the floor map image to the display section 34. Therefore, the information processing unit 32 outputs display information for displaying a floor map image in which objects related to the state of the areas included in the floor are arranged on the base image including the map of the floor in the facility 20. It can be said that it has a function as a department.
  • the server device 40 changed the display mode of the object based on the sensing information or the operation information of the device.
  • the display mode of the object can also be changed by the information processing section 32 of the information terminal 30 .
  • the information processing section 32 can be said to have a function as a second acquiring section that acquires sensing information or operation information of the device.
  • the image output system 10 can be considered as a system corresponding to the information terminal 30 including the first acquisition section, the second acquisition section, and the output section.
  • the image output system 10 provides display information for displaying a floor map image in which objects related to the states of the areas included in the floor are arranged on the base image including the map of the floor in the facility 20.
  • An output unit 46 for outputting is provided. Objects are shared between the floor map image and floor map images of other facilities 20 displayed based on other display information output by the output unit 46 .
  • Such an image output system 10 can provide various floor map images while reducing the storage capacity of objects.
  • the image output system 10 further includes a first acquisition unit 44 that acquires at least one of position information indicating the position of the object on the base image and object type information.
  • Such an image output system 10 can acquire at least one of position information indicating the position of an object on the base image and object type information.
  • the object may be any of a first object 61 indicating the degree of crowding of people in the area, a second object 62 indicating the state of infectious disease countermeasures in the area, and a third object 63 indicating an index regarding the comfort of the area. or
  • Such an image output system 10 can provide a floor map image showing at least one of the degree of congestion in the target area, the state of infection control measures in the area, and the comfort of the area.
  • an image of the facility 20 as seen from inside the facility 20 (the fourth object 64) is further arranged in the base image.
  • Such an image output system 10 can provide a floor map image including an image image inside the facility 20.
  • the object 70 includes a plurality of sub-objects, each of which is a first object 61 indicating the degree of crowding of people in the area, a second object 62 indicating the state of infectious disease countermeasures in the area, and a third object 63 that indicates the comfort index of the area.
  • such an image output system 10 can efficiently arrange the object 70 on the base image.
  • the image output system 10 further includes a second acquisition unit 45 that acquires sensing information from sensors installed in the facility 20 .
  • the output unit 46 changes the display mode of the object based on the acquired sensing information.
  • Such an image output system 10 can change the display mode of objects based on sensing information.
  • the output unit 46 changes the display mode of the object, and the criteria for changing the display mode of the object differ according to the state of the area to which the object is related.
  • Such an image output system 10 can change the display mode of the object in consideration of the state of the target area.
  • the image output system 10 further includes a second acquisition unit 45 that acquires sensing information from sensors installed in the facility 20 .
  • the object indicates an index related to the comfort of the area, and a numerical value based on the acquired sensing information is displayed within the object.
  • Such an image output system 10 can provide a floor map image that numerically indicates the comfort level of the target area.
  • the second acquisition unit 45 acquires sensor identification information in addition to the sensing information
  • the output unit 46 acquires an object linked to the acquired sensor identification information based on the acquired sensing information. Update.
  • Such an image output system 10 can update objects linked to sensor identification information.
  • the first acquisition unit 44 acquires the identification information of the facility 20 in addition to the position information, and the output unit 46 outputs the display information to the information terminal 30 linked to the acquired identification information of the facility 20. do.
  • Such an image output system 10 can support the information terminal 30 associated with the identification information of the facility 20 to display the floor map image.
  • an object 80 that outlines the state of the area and an object 81 that shows details of the state are arranged.
  • Such an image output system 10 can provide a floor map image showing both general and detailed conditions of an area of interest.
  • the output unit 46 outputs the display information to the information terminal 30 located in the facility 20 and displaying the floor map image.
  • An object 67 indicating the position of the information terminal 30 is arranged on the floor map image.
  • Such an image output system 10 can provide a floor map image showing the position of the information terminal 30.
  • the image output method executed by a computer such as the image output system 10 generates a floor map image in which objects related to the state of the area included in the floor are arranged on the base image including the map of the floor in the facility 20.
  • An output step of outputting the display information for display is included. Objects are shared between the floor map image and floor map images of other facilities 20 displayed based on other display information output in the output step.
  • Such an image output method can provide various floor map images while reducing the storage capacity of objects.
  • a camera having an image processing function was used as the people sensor, but an LPS (Local Positioning System) may be used as the people sensor.
  • the LPS has a plurality of wireless communication devices dispersedly arranged in the facility, and the received signal strength in short-range wireless communication between these wireless communication devices and transmitters possessed by people located in the facility is Based on this, it is a system that measures the current position of a transmitter (that is, the current position of a person).
  • the short-range wireless communication here is based on a communication standard such as BLE, for example.
  • the transmitter is, for example, a portable terminal possessed by a person, but may be a dedicated device for LPS (wireless tag, etc.).
  • an object indicating the current position of the information terminal is displayed on the floor map image. It is possible to identify and display the current position of the information terminal on the floor map image.
  • the communication method between devices in the above embodiment is not particularly limited.
  • a relay device (broadband router, etc.) (not shown) may intervene in communication between devices.
  • processing executed by a specific processing unit may be executed by another processing unit.
  • order of multiple processes may be changed, and multiple processes may be executed in parallel.
  • each component may be realized by executing a software program suitable for each component.
  • Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.
  • each component may be realized by hardware.
  • each component may be a circuit (or integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits. These circuits may be general-purpose circuits or dedicated circuits.
  • the present invention may be implemented as an image output method executed by a computer such as the image output system of the above embodiment, or a program (in other words, a computer program product) for causing a computer to execute the image output method.
  • a computer such as the image output system of the above embodiment
  • a program in other words, a computer program product
  • the present invention may be implemented as a computer-readable non-temporary recording medium in which such a program is recorded.
  • image output system 20 facility 21 carbon dioxide concentration sensor (sensor) 22 temperature and humidity sensor (sensor) 23 seating sensor (sensor) 24 people sensor (sensor) 30 information terminal 44 first acquisition unit 45 second acquisition unit 46 output unit 61, 71 first object 62 second object 63, 73a, 73b, 73c third object

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Educational Technology (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Instructional Devices (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Alarm Systems (AREA)

Abstract

画像出力システム(10)は、施設(20)内のフロアのマップを含むベース画像に、フロアに含まれるエリアの状態に関連するオブジェクトが配置されたフロアマップ画像を表示するための表示情報を出力する出力部(46)を備える。オブジェクトは、上記フロアマップ画像と、出力部(46)によって出力される他の表示情報に基づいて表示される他の施設(20)のフロアマップ画像とにおいて共通化されている。

Description

画像出力システム、及び、画像出力方法
 本発明は、画像出力システム等に関する。
 特許文献1には、建物に設けられた各エリアに関する状況を管理する技術が開示されている。
特開2017-156056号公報
 本発明は、オブジェクトの記憶容量を低減しつつ、多様なフロアマップ画像を提供することができる画像出力システム等を提供する。
 本発明の一態様に係る画像出力システムは、施設内のフロアのマップを含むベース画像に、前記フロアに含まれるエリアの状態に関連するオブジェクトが配置されたフロアマップ画像を表示するための表示情報を出力する出力部を備え、前記オブジェクトは、前記フロアマップ画像と、前記出力部によって出力される他の表示情報に基づいて表示される他の施設のフロアマップ画像とにおいて共通化されている。
 本発明の一態様に係る画像出力方法は、施設内のフロアのマップを含むベース画像に、前記フロアに含まれるエリアの状態に関連するオブジェクトが配置されたフロアマップ画像を表示するための表示情報を出力する出力ステップを含み、前記オブジェクトは、前記フロアマップ画像と、前記出力ステップにおいて出力される他の表示情報に基づいて表示される他の施設のフロアマップ画像とにおいて共通化されている。
 本発明の一態様に係るプログラムは、前記画像出力方法をコンピュータに実行させるためのプログラムである。
 本発明の画像出力システム等は、オブジェクトの記憶容量を低減しつつ、多様なフロアマップ画像を提供することができる。
図1は、実施の形態に係る画像出力システムの機能構成を示すブロック図である。 図2は、フロアマップ画像の一例を示す図である。 図3は、ベース画像の一例を示す図である。 図4は、画像出力システムのフロアマップ画像の表示動作例のシーケンス図である。 図5は、アセンブリ情報の一例を示す図である。 図6は、オブジェクト配置情報の一例を示す図である。 図7は、フロアマップ画像の別の一例を示す図である。 図8は、複数のサブオブジェクトによって構成されるオブジェクトの一例を示す図である。 図9は、第一オブジェクトの表示態様を変更する基準の一例を示す図である。 図10は、同一の指標を示すオブジェクトが2種類表示される例を説明するための図である。
 以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。
 (実施の形態)
 [構成]
 まず、実施の形態に係る画像出力システムの構成について説明する。図1は、実施の形態に係る画像出力システムの機能構成を示すブロック図である。
 図1に示される画像出力システム10は、複数の施設20それぞれに設けられた情報端末30(デジタルサイネージ装置など)に当該施設20内の環境状態などを示すフロアマップ画像を表示することができるシステムである。図2は、このようなフロアマップ画像の一例を示す図である。施設20は、例えば、オフィスビル、商業施設、社会教育施設(図書館、博物館、または、美術館など)、医療施設(病院など)、工場、研究施設、宿泊施設または、公共施設などである。
 1つの施設100には、二酸化炭素濃度センサ21、温湿度センサ22、着座センサ23、人数センサ24、無線通信装置25、制御装置26、換気装置27、空気浄化装置28、及び、情報端末30が設けられる。画像出力システム10は、これらの施設20内に設けられた装置を備える。なお、1つの施設20には、二酸化炭素濃度センサ21、温湿度センサ22、着座センサ23、人数センサ24、無線通信装置25、制御装置26、換気装置27、空気浄化装置28、及び、情報端末30のそれぞれが複数設けられていてもよい。また、施設20の外には、サーバ装置40が設けられており、画像出力システム10は、サーバ装置40を備える。
 以下、画像出力システム10が備える各構成要素(センサ及び装置)について説明する。二酸化炭素濃度センサ21は、施設20内の二酸化炭素濃度をセンシングし、センシングした二酸化炭素濃度を示す情報(センシング情報の一例)を無線通信装置25へ無線送信する。この情報には、二酸化炭素濃度センサ21のID(センサの識別情報の一例)が付与される。二酸化炭素濃度センサ21は、二酸化炭素の赤外線の吸収特性を利用した光学式のセンサであるが、電気化学反応を利用した電気化学式のセンサであってもよいし、半導体を用いたセンサであってもよい。
 温湿度センサ22は、施設20内の温度及び湿度をセンシングし、センシングした温度及び湿度を示す情報(センシング情報の一例)を無線通信装置25へ無線送信する。この情報には、温湿度センサ22のID(センサの識別情報の一例)が付与される。温度計測素子、及び、湿度計測素子によって実現される。温度計測素子は、例えば、サーミスタ、熱電対、または、赤外線検出素子などであり、湿度計測素子は、例えば、静電容量型の感湿素子または抵抗変化型の感湿素子などである。
 着座センサ23は、施設20内の個人ブースなどの座席等に人が座っているかどうかをセンシングし、当該座席における人の存否を示す情報(センシング情報の一例)を無線通信装置へ無線送信する。この情報には、着座センサ23のID(センサの識別情報の一例)が付与される。着座センサ23は、人の体から発せられる赤外線をセンシングする赤外線検出素子などによって実現される。
 人数センサ24は、施設20内の天井等に設置され、施設20内に位置する人の数をセンシングし、センシングした人の数を示す情報(センシング情報の一例)を無線通信装置へ無線送信する。この情報には、人数センサ24のID(センサの識別情報の一例)が付与される。人数センサ24は、具体的には、カメラ及び画像処理装置によって実現される。カメラは、人数センサ24が設置されたフロアの画像(動画像または静止画像)を撮影し、画像処理装置は、画像処理によって撮影した画像に映る人の数を特定する。
 画像処理装置は、例えば、機械学習モデルによって実現される。この機械学習モデルは、カメラによって撮影された画像を入力情報とし、出力情報として画像に映る人の数を出力することができる学習済みモデルである。画像処理装置は、テンプレートマッチングなどの手法により画像から人の数を特定してもよいし、既存の他の方法を用いて人の数を特定してもよい。
 無線通信装置25は、二酸化炭素濃度センサ21、温湿度センサ22、及び、着座センサ23のそれぞれからセンシング情報を無線通信によって受信し、受信したセンシング情報を制御装置26へ送信する。上記無線通信の通信規格は、例えば、BLE(Bluetooth(登録商標) Low Energy)であるが、その他の通信規格であってもよい。また、無線通信装置25と制御装置26との通信は、例えば、有線通信であるが、無線通信であてもよい。
 制御装置26は、無線通信装置25から受信したセンシング情報を、インターネットなどの広域通信ネットワーク50を介してサーバ装置40へ送信する。また、制御装置26は、換気装置27、及び、空気浄化装置28を制御し、換気装置27、及び、空気浄化装置28の動作状態を示す情報を、広域通信ネットワーク50を介してサーバ装置40へ送信する。制御装置26は、例えば、EMS(Energy Management System)コントローラなどの汎用の制御装置であるが、画像出力システム10の専用の制御装置であってもよい。
 換気装置27は、施設20内の換気を行う。また、換気装置27は、換気装置27の動作状態(例えば、動作中か否か)を示す情報を、制御装置26へ送信する。この情報には、換気装置27のID(装置の識別情報の一例)が付与される。換気装置27は、例えば、ERV(Energy Recovery Ventilator)などの全熱交換器を含む換気装置であるが、換気扇などの熱交換をともなわない換気装置であってもよい。
 空気浄化装置28は、施設20内の空間の空気を吸引し、吸引した空気を浄化して当該空間に放出する装置である。また、空気浄化装置28は、空気浄化装置28の動作状態(例えば、動作中か否か)を示す情報を、制御装置26へ送信する。この情報には、空気浄化装置28のID(装置の識別情報の一例)が付与される。空気浄化装置28は、例えば、HEPA(High Efficiency Particulate Air)フィルタなどのエアフィルタを備え、吸引した空気をエアフィルタによって浄化(濾過)して空間に放出する空気清浄機である。
 なお、空気浄化装置28は、吸引した空気を紫外光によって浄化(除菌)して空間に放出する装置であってもよい。また、空気浄化装置28は、吸引した空気を次亜塩素酸水によって浄化(除菌)して空間に放出する装置であってもよい。空気浄化装置28は、次亜塩素酸水のミストを空間に放出する装置であってもよい。
 情報端末30は、サーバ装置40から提供される表示情報に基づいて、施設20内の環境状態などを示すフロアマップ画像を表示する。情報端末30は、例えば、施設20内に固定設置されたデジタルサイネージ装置であるが、施設20内に位置する情報端末であればよく、スマートフォンまたはタブレット端末などの携帯型の情報端末であってもよい。また、情報端末30は、パーソナルコンピュータなどであってもよい。情報端末30は、専用のアプリケーションプログラムを実行することにより、表示情報に基づくフロアマップ画像の表示処理を行ってもよいし、ウェブブラウザを実行することにより、表示情報に基づくフロアマップ画像の表示処理を行ってもよい。情報端末30は、通信部31と、情報処理部32と、記憶部33と、表示部34とを備える。
 通信部31は、情報端末30が広域通信ネットワーク50を介してサーバ装置40などと通信を行うための通信モジュール(通信回路)である。通信部31によって行われる通信は、例えば、有線通信であるが、無線通信であってもよい。通信に用いられる通信規格についても特に限定されない。
 情報処理部32は、サーバ装置40から提供される表示情報に基づいて、フロアマップ画像を表示するための表示処理を行う。情報処理部32は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。情報処理部32の機能は、例えば、情報処理部32を構成するマイクロコンピュータまたはプロセッサ等が記憶部33に記憶されたコンピュータプログラムを実行することによって実現される。
 記憶部33は、上記表示処理に必要な情報(サーバ装置40から提供される表示情報など)、及び、情報処理部32が実行するコンピュータプログラムなどが記憶される記憶装置である。記憶部33は、例えば、HDD(Hard Disk Drive)によって実現されるが、半導体メモリなどによって実現されてもよい。
 表示部34は、サーバ装置40から提供される表示情報に基づいてフロアマップ画像を表示する。表示部34は、例えば、液晶パネルまたは有機EL(Electro Luminescence)パネルなどの表示パネルによって実現される。
 サーバ装置40は、制御装置26から取得したセンシング情報等に基づいて、フロアマップ画像を表示するための表示情報を生成し、生成した表示情報を出力する処理(以下、画像出力処理とも記載される)を行う。サーバ装置40は、複数の施設20外に設けられたクラウドサーバである。サーバ装置40は、具体的には、通信部41と、情報処理部42と、記憶部43とを備える。
 通信部41は、サーバ装置40が広域通信ネットワーク50を介して制御装置26、及び、情報端末30などと通信を行うための通信モジュール(通信回路)である。通信部41によって行われる通信は、例えば、有線通信であるが、無線通信であってもよい。通信に用いられる通信規格についても特に限定されない。
 情報処理部42は、上述の画像出力処理を行う。情報処理部42は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。情報処理部42は、機能的な構成要素として、第一取得部44、第二取得部45、及び、出力部46を有する。第一取得部44、第二取得部45、及び、出力部46の機能は、例えば、情報処理部42を構成するマイクロコンピュータまたはプロセッサ等が記憶部43に記憶されたコンピュータプログラムを実行することによって実現される。第一取得部44、第二取得部45、及び、出力部46のそれぞれの詳細な機能については後述する。
 記憶部43は、上記画像出力処理に必要な情報、及び、情報処理部42が実行するコンピュータプログラムなどが記憶される記憶装置である。記憶部43は、例えば、HDD(Hard Disk Drive)によって実現されるが、半導体メモリなどによって実現されてもよい。
 [フロアマップ画像の概要]
 上述のように、画像出力システム10は、複数の施設20それぞれの内部のフロアマップ画像を表示することができる。フロアマップ画像は、上記図2に示されるように、複数の施設20のそれぞれに対応するベース画像に、オブジェクトを配置することによって実現される。図3は、ベース画像の一例を示す図である。
 図2及び図3に示されるように、ベース画像は、施設20内のフロアのマップを含む画像である。サーバ装置40の記憶部43には、複数の施設20それぞれのベース画像があらかじめ記憶されている。ベース画像は、施設20に固有の画像であり、施設20が異なればベース画像も異なる。
 また、ベース画像には、あらかじめ記憶部43に記憶された複数種類のオブジェクトのうち少なくとも一部のオブジェクトが配置(重畳)される。複数種類のオブジェクトの中には、施設20に固有のオブジェクトだけでなく、複数の施設20に共通のオブジェクトが含まれる。このようなオブジェクトは、具体的には、図2に示される、第一オブジェクト61、第二オブジェクト62、及び、第三オブジェクト63である。これらのオブジェクトは、施設20のフロアマップ画像にも、当該施設20と異なる他の施設のフロアマップ画像にも使用される。つまり、これらのオブジェクトは、あるフロアマップ画像と、他のフロアマップ画像とにおいて共通化されている。ここで、オブジェクトが共通化されるとは、少なくともオブジェクトの主たる形状等が共通化されることを意味し、オブジェクトの表示態様(色、オブジェクト中のテキスト、及び、オブジェクト中の数値等)は必ずしも同じでなくてもよい。
 共通化されているオブジェクトの1つである第一オブジェクト61は、施設20内のエリアにおける人の混雑度を示す。第一オブジェクト61は、具体的には、略円形の吹き出しの中の人の形をしたアイコンのうち黒くなった人の形をしたアイコンの数により、施設29内のエリアにおける混雑度を示す。
 また、図2の例では、第一オブジェクト61の吹き出しの中の人の形をしたアイコンの総数は、混雑度によらず常に5つであるが、第一オブジェクト61は、吹き出しの中の人の形をしたアイコンの総数そのものによって混雑度を示してもよい。つまり、第一オブジェクト61は、吹き出しの中の人の形をしたアイコンの数が混雑度に応じて1つになったり3つになったり、というような仕様であってもよい。
 また、第一オブジェクト61は、人の形をしたアイコンに代えて、第一オブジェクト61内に表示される、人数を示す数値(文字)によって混雑度を示してもよい。また、第一オブジェクト61は、人の形をしたアイコン、及び、人数を示す数値の両方によって混雑度を示してもよい。なお、施設20内のエリアとは、施設20内のフロア(階)の全部または一部に相当する単位である。
 第一オブジェクト61の表示態様(黒くなった人の形をしたアイコンの数)は、施設20内に設置された人数センサ24から得られるセンシング情報に基づいて決定される。また、着座センサ23が設けられているエリア(複数の個人ブースが並ぶエリア)の混雑度を示す第一オブジェクト61の表示態様は、着座センサ23から得られるセンシング情報に基づいて決定されてもよい。なお、混雑度のレベルに応じて、吹き出しの中の色(背景色)が緑色(混雑度が低い)、黄色(混雑度が中程度)、及び、赤色(混雑度が高い)といったように変更されてもよい。
 このような第一オブジェクト61の表示態様は、実質的にリアルタイムに更新される。実質的にリアルタイムに更新、とは、10分間隔など少し時間を空けて更新が行われることを含む意味である。
 共通化されているオブジェクトの1つである第二オブジェクト62は、施設20内のエリアにおける感染症対策の状態を示す。第二オブジェクト62は、具体的には、文字により感染症対策の状態を示す。図2の例では、1つの施設20に対して1つの第二オブジェクト62が配置されているが、第二オブジェクト62は、エリアごとに配置されてもよい。第二オブジェクト62は、換気装置27、及び、空気浄化装置28の動作状態を示す情報に基づいて表示(配置)がオン及びオフされる。例えば、換気装置27、及び、空気浄化装置28の少なくとも一方が動作中であるときに表示され、換気装置27、及び、空気浄化装置28の両方が停止中に非表示とされる。このような第二オブジェクト62の表示態様は、実質的にリアルタイムに更新される。
 共通化されているオブジェクトの1つである第三オブジェクト63は、施設20内のエリアの快適性に関する指標を示す。第三オブジェクト63は、具体的には、施設20内の快適性に関する指標として、施設20内の温度、湿度、及び、二酸化炭素濃度などを示す。
 図2の例では、第三オブジェクト63には、フロアマップ画像の左上部に位置する、二酸化炭素濃度を数値及びグラフによって示すオブジェクトと、フロアマップ画像の左上部に位置する、温度を数値及びグラフによって示すオブジェクトと、フロアマップ画像の下部の温度及び湿度を数値によって示すオブジェクトとの三種類が含まれる。第三オブジェクト63は、温度、湿度、及び、二酸化炭素濃度の少なくとも1つを数値及びグラフの少なくとも一方によって示せばよい。第三オブジェクト63内に表示される数値及びグラフの態様は、温湿度センサ22から得られるセンシング情報、または、二酸化炭素濃度センサ21から得られるセンシング情報に基づいて決定される。このような第三オブジェクト63の表示態様は、実質的にリアルタイムに更新される。
 また、図3に示されるように、ベース画像には、施設20内における人の混雑度、及び、施設20内における快適性に関する指標(温度及び湿度)を示すオブジェクト66が配置されてもよい。また、ベース画像には、施設20内から見た施設20の画像(写真またはCG)を示す第四オブジェクト64が配置されてもよい。第4オブジェクトは、言い換えれば、施設20の内部のイメージを示すオブジェクトであり、施設20に固有のオブジェクトである。第四オブジェクト64は、例えば、あらかじめ施設20内で撮影された画像またはあらかじめ生成されたCGを示すが、定期的に新しい画像またはCGに更新されてもよい。また、第四オブジェクト64は、施設20に設置されたカメラによって撮影中の静止画像または動画像を実質的にリアルタイムに示してもよい。
 また、ベース画像には、1日における時間帯毎の人の混雑度を示す第五オブジェクト65が配置されてもよい。また、ベース画像には、フロアマップ画像を表示する情報端末30の設置位置(言い換えれば、現在位置)を示すオブジェクト67が配置されてもよい。オブジェクト67は、言い換えれば、表示部34に表示されているフロアマップ画像を視認しているユーザの位置を示すオブジェクトである。
 なお、ベース画像には、上記のオブジェクトの全てが配置される必要はなく、上記のオブジェクトの少なくとも1つが配置されればよい。また、ベース画像には、上記のオブジェクト以外のオブジェクトが配置されてもよい。
 [表示動作例]
 以上説明したようなフロアマップ画像を表示するための表示動作例について説明する。図4は、画像出力システム10のフロアマップ画像の表示動作例のシーケンス図である。
 サーバ装置40の記憶部43には、複数の施設20のそれぞれのフロアマップ画像を生成するためのアセンブリ情報があらかじめ記憶されている。図5は、アセンブリ情報の一例を示す図であり、アセンブリ情報においては、施設のID(識別情報)、フロアマップ画像が表示される情報端末のID(識別情報)、ベース画像のID(識別情報)、当該ベース画像に配置されるオブジェクトの配置を示すオブジェクトの配置情報のID(識別情報)が紐付けられている。
 例えば、複数の施設20の1つである施設Aのフロアマップ画像を生成する場合、サーバ装置40の第一取得部44は、施設AのIDを取得する(S10)。第一取得部44は、外部装置から通信部41が受信したフロアマップ画像の表示要求に含まれる施設AのIDを取得する。
 次に、第一取得部44は、ベース画像及びオブジェクト配置情報を取得する(S11)。第一取得部44は、具体的には、記憶部43に記憶されたアセンブリ情報を参照することにより、ステップS10において取得した施設AのIDに紐付けられた、ベース画像のID、及び、オブジェクト配置情報のIDを特定し、特定したIDを有するベース画像及びオブジェクト配置情報を記憶部43から取得する。
 上述のように、記憶部43には、複数の施設20それぞれのベース画像があらかじめ記憶されており、ステップS11においては、このうちの施設AのIDに紐付けられた識別情報を有するベース画像が取得される。また、図6に示されるように、ステップS11において取得されるオブジェクト配置情報は、ベース画像に配置される全てのオブジェクトをリストアップした情報である。図6は、オブジェクト配置情報の一例を示す図である。図6に示されるように、オブジェクト配置情報は、具体的には、オブジェクトのID(識別情報)、オブジェクトの種別、オブジェクトの位置情報、及び、対応するセンサまたは装置のID(識別情報)が紐付けられた情報である。つまり、ステップS11において、第一取得部44は、ベース画像上のオブジェクトの位置を示す位置情報、及び、オブジェクトの種別情報の少なくとも一方を取得しているといえる。
 オブジェクト配置情報は、例えば、フロアマップ画像のデザイナー等によって図示されないユーザインターフェースを介してサーバ装置40に入力され、あらかじめ記憶部43に記憶される。オブジェクト配置情報は、他のサーバ装置からサーバ装置40へ提供されて記憶部43にあらかじめ記憶されてもよい。
 次に、第二取得部45は、ステップS11において取得されたオブジェクト配置情報にリストアップされているセンサのID(具体的には、二酸化炭素濃度センサ21、温湿度センサ22、着座センサ23、または、人数センサ24などのID)を取得し、取得したIDを有するセンサの直近のセンシング情報を取得する(S12)。第二取得部45は、例えば、通信部41を介して各センサへセンシング情報を要求することにより、応答として直近のセンシング情報を取得する。各センサのセンシング情報が定期的に記憶部43に記憶されているような場合には、第二取得部45は、記憶部43から直近のセンシング情報を取得してもよい。
 次に、第二取得部45は、ステップS11において取得されたオブジェクト配置情報にIDがリストアップされている装置(具体的には、換気装置27または空気浄化装置28の直近の動作状態を示す情報を取得する(S13)。第二取得部45は、例えば、通信部41を介して各装置へ動作状態を示す情報を要求することにより、応答として直近の動作状態を示す情報を取得する。各装置の動作状態を示す情報が定期的に記憶部43に記憶されているような場合には、第二取得部45は、記憶部43から直近の動作状態を示す情報を取得してもよい。
 次に、出力部46は、ステップS11において取得されたオブジェクト配置情報に含まれる複数のオブジェクトのそれぞれの表示態様を決定する(S14)。
 例えば、出力部46は、ステップS12において取得された着座センサ23または人数センサ24のセンシング情報に基づいて、人の混雑度を示す第一オブジェクト61の表示態様(例えば、人の形をした黒色のアイコンの数)を決定することができる。なお、出力部46は、人の混雑度を決定するにあたっては、人数センサ24によってセンシングされた人数を当該人数センサ24が設置されたエリアの広さで除算するなどの計算を行う。この場合、エリアの広さは、例えば、あらかじめ記憶部43に記憶されている。
 また、出力部46は、人の混雑度を決定するにあたって、人数センサ24によってセンシングされた人数を所定の定数で除算することにより、人の混雑度を決定してもよい。この場合の所定の定数は、例えば、あらかじめ記憶部に記憶されている。このように、ステップS14においては、人の混雑度を決定するための計算が適宜行われればよい。
 また、出力部46は、ステップS13において取得された換気装置27または空気浄化装置28の動作状態を示す情報に基づいて、施設20内の快適性に関する指標を示す第二オブジェクト62の表示態様(例えば、表示の有無)を決定することができる。
 なお、出力部46は、シンプルに動作のオンまたはオフで第二オブジェクト62の表示態様を決定するのではなく、換気装置27の換気量が所定値以上であるか否かなど、より詳細な動作状態に関する要件を用いて第二オブジェクト62の表示態様を決定してもよい。また、出力部46は、動作状態を示す情報に代えて、または、動作状態を示す情報に加えて、施設20内の清掃作業(除菌作業)の有無を示す情報を考慮して、第二オブジェクト62の表示態様を決定してもよい。この場合、清掃作業の有無を示す情報は、例えば、図示されないユーザインターフェース装置を介してサーバ装置40へ入力される。
 また、出力部46は、ステップS12において取得された二酸化炭素濃度センサ21または温湿度センサ22のセンシング結果に基づいて、施設20内の快適性に関する指標を示す第三オブジェクト63の表示態様(例えば、数値またはグラフ)を決定することができる。
 次に、出力部46は、フロアマップ画像を表示するための表示情報を生成し、生成した表示情報を出力する(S15)。表示情報には、ベース画像の実情報、オブジェクト(表示態様が変更されるオブジェクトは表示態様決定後のオブジェクト)の実情報、及び、オブジェクトの位置情報(オブジェクト配置情報に基づく、少なくともオブジェクトIDと座標とが紐づけられた情報)が含まれる。また、出力部46は、ステップS11において取得されたアセンブリ情報に基づいて、表示情報の出力先の情報端末30(情報端末30のID)を指定する。通信部41は、出力部46によって出力された表示情報を、指定された情報端末30へ送信する(S16)。なお、ステップS16の処理は、アセンブリ情報において施設AのID(より詳細には、ステップS10において取得された施設Aの識別情報)に紐づいている情報端末30へ表示情報を出力する処理であるといえる。
 情報端末30の通信部31は、表示情報を受信する。情報処理部32は、受信された表示情報に基づいてフロアマップ画像を生成し、生成したフロアマップ画像を表示部34に表示する(S17)。上述のように、表示情報には、ベース画像の実情報、オブジェクトの実情報、及び、当該オブジェクトの位置情報が含まれる。情報端末30は、ベース画像に、位置情報に基づいてオブジェクトを配置することにより、フロアマップ画像を生成することができる。
 なお、他の施設Bのフロアマップ画像が生成及び表示される場合も、同様の処理が行われる。例えば、施設Bの固有のベース画像に、施設Aと共通のオブジェクトを配置することで、図7のようなフロアマップ画像が表示される。図7は、フロアマップ画像の別の一例を示す図である。
 以上説明したように、画像出力システム10において、一部のオブジェクトは、施設Aのフロアマップ画像と、他の施設Bのフロアマップ画像とにおいて共通化されている。このような画像出力システム10は、記憶部43に記憶するオブジェクトの総数(つまり、オブジェクトの記憶容量)を低減しつつ、多様なフロアマップ画像を提供することができる。
 なお、オブジェクトの表示態様は、適宜更新される。例えば、画像出力システム10は、所定の時間間隔で、ステップS12~ステップS17の処理を行うことで、センサのセンシング情報または装置の動作状態を示す情報に基づいて、オブジェクトの表示態様を更新することができる。なお、この処理は、オブジェクト配置情報において、センサのID(より詳細には、ステップS12で取得されたセンサの識別情報)に紐づいているオブジェクトの表示態様を更新する処理であるといえる。
 また、上記表示動作例においては、フロアマップ画像は、情報端末30が位置情報に基づいてベース画像にオブジェクトを配置することにより生成されたが、サーバ装置40の出力部46によってフロアマップ画像が生成され、生成されたフロアマップ画像の実情報(画像情報)が表示情報として情報端末30へ出力されてもよい。このような構成によれば、情報端末30における情報処理量を低減しつつ、オブジェクトの位置ずれの発生を抑制することができる。
 [変形例1]
 第一オブジェクト61、第二オブジェクト62、及び、第三オブジェクト63は、基本的には、それぞれ別のオブジェクトとして取り扱われる。しかしながら、第一オブジェクト61、第二オブジェクト62、及び、第三オブジェクト63のうち2つ以上がサブオブジェクトとしてまとめられ、1つのオブジェクトとして取り扱われてもよい。図8は、このように複数のサブオブジェクトを含むオブジェクトの一例を示す図である。
 図8に示されるオブジェクト70は、人の混雑度を示す第一オブジェクト71と、二酸化炭素濃度を示す第三オブジェクト73aと、温度を示す第三オブジェクト73bと、湿度を示す第三オブジェクト73cとをサブオブジェクトとして含む。
 このような複数のサブオブジェクトを含むオブジェクト70によれば、オブジェクト70をベース画像に配置するときにオブジェクト70にのみ座標を設定すればよい(複数のサブオブジェクトのそれぞれに対して座標を設定する必要が無い)ため、ベース画像へのオブジェクト70の配置を効率的に行うことができる。
 なお、図8に示されるオブジェクト70は、複数のサブオブジェクトを含むオブジェクトの一例である。オブジェクトに、複数のサブオブジェクトが含まれる場合、当該オブジェクトに含まれる複数のサブオブジェクトのそれぞれは、第一オブジェクト61、第二オブジェクト62、及び、第三オブジェクト63のいずれかであればよい。
 [変形例2]
 上記実施の形態において、第一オブジェクト61の表示態様は、人の混雑度(例えば、単位面積当たりの人数)に応じて変更された。ここで、出力部46は、施設20内の一つのエリアにおける人の混雑度を示す第一オブジェクト61の表示態様を、当該エリアの状態に応じた基準で変更してもよい。言い換えれば、第一オブジェクト61の表示態様を変更する基準は、対象のエリアの状態に応じて異なってもよい。例えば、第一オブジェクト61の表示態様を変更する基準は、対象のエリアにおける感染症対策の有無に応じて異なってもよい。図9は、第一オブジェクト61の表示態様を変更する基準の一例を示す図である。
 図9に示される基準は、対象のエリアにおいて感染症対策が行われているときには、対象のエリアにおいて感染症対策が行われていないときよりも、低い混雑度の表示態様が選択されやすいように規定されている。別の見方をすると、図9に示される基準は、感染症対策が行われている第一エリアにおいて、感染症対策が行われていない第二エリアよりも、低い混雑度の表示態様が選択されやすいように規定されている。なお、感染症対策が行われているとは、例えば、対象のエリアにおいて、換気装置27、及び、空気浄化装置28の少なくとも一方が動作していること、及び、直近の所定期間に施設20内の清掃作業(除菌作業)が行われたことを意味する。
 このような表示態様を変更するための基準によれば、出力部46は、対象のエリアの状態(例えば、感染症対策の状態)を考慮して第一オブジェクト61の表示態様を変更することができる。
 [変形例3]
 上記実施の形態において、フロアマップ画像には、対象のエリアにおける同一の指標を示すオブジェクトが2種類表示されてもよい。図10は、同一の指標を示すオブジェクトが2種類表示される例を説明するための図である。
 図10の例では、例えば、対象のエリアにおける人の混雑度の状態の概要を示すオブジェクト80と、対象のエリアにおける人の混雑度の詳細(具体的な数値)を示すオブジェクト81とが表示されている。つまり、ベース画像に、エリアの状態の概略を示すオブジェクト80と、当該状態の詳細を示すオブジェクト81とが配置されている。概要を示すオブジェクト80及び詳細を示すオブジェクト81のそれぞれは、複数のフロアマップ画像において共通化されるが、概要を示すオブジェクト80及び詳細を示すオブジェクト81の少なくとも一方が複数のフロアマップ画像において共通化されればよい。
 このように、画像出力システム10は、対象のエリアにおける人の混雑度の状態の概要を示すオブジェクト80と、対象のエリアにおける人の混雑度の詳細を示すオブジェクト81とを両方表示することで、混雑度の表示に対する様々なニーズを満たすことができる。
 [変形例4]
 上記実施の形態では、画像出力システム10は、複数の装置によって実現された。画像出力システム10が複数の装置によって実現される場合、画像出力システム10が備える構成要素(特に、機能的な構成要素)は、複数の装置にどのように振り分けられてもよい。
 また、画像出力システム10は、単一の装置として実現されてもよい。例えば、画像出力システム10は、サーバ装置40に相当する単一の装置として実現されてもよい。言い換えれば、画像出力システム10は、第一取得部44、第二取得部45、及び、出力部46を備えるサーバ装置40に相当するシステムと考えることができる。
 また、画像出力システム10は、情報端末30に相当するシステムと考えることもできる。以下、この点について補足する。
 上記実施の形態の表示動作例のステップS17において、情報端末30の情報処理部32は、フロアマップ画像を表示するために、通信部31によって受信された表示情報を取得している。表示情報には、ベース画像の実情報、オブジェクトの実情報、及び、オブジェクトの位置情報が含まれる。したがって、情報処理部32は、ベース画像上のオブジェクトの位置を示す位置情報を取得する第一取得部としての機能を有しているといえる。
 また、ステップS17において、情報処理部32は、フロアマップ画像を表示するための情報を表示部34へ出力している。したがって、情報処理部32は、施設20内のフロアのマップを含むベース画像に、フロアに含まれるエリアの状態に関連するオブジェクトが配置されたフロアマップ画像を表示するための表示情報を出力する出力部としての機能を有しているといえる。
 また、上記実施の形態では、センシング情報または装置の動作情報に基づくオブジェクトの表示態様の変更は、サーバ装置40によって行われた。しかしながら、オブジェクトの表示態様の変更は、センシング情報または装置の動作情報がサーバ装置40から情報端末30へ提供されれば、情報端末30の情報処理部32によって行うこともできる。この場合、情報処理部32は、センシング情報または装置の動作情報を取得する第二取得部としての機能を有しているといえる。
 このように、画像出力システム10は、第一取得部、第二取得部、及び、出力部を備える情報端末30に相当するシステムと考えることもできる。
 [効果等]
 以上説明したように、画像出力システム10は、施設20内のフロアのマップを含むベース画像に、フロアに含まれるエリアの状態に関連するオブジェクトが配置されたフロアマップ画像を表示するための表示情報を出力する出力部46を備える。オブジェクトは、上記フロアマップ画像と、出力部46によって出力される他の表示情報に基づいて表示される他の施設20のフロアマップ画像とにおいて共通化されている。
 このような画像出力システム10は、オブジェクトの記憶容量を低減しつつ、多様なフロアマップ画像を提供することができる。
 また、例えば、画像出力システム10は、ベース画像上のオブジェクトの位置を示す位置情報、及び、オブジェクトの種別情報の少なくとも一方を取得する第一取得部44をさらに備える。
 このような画像出力システム10は、ベース画像上のオブジェクトの位置を示す位置情報、及び、オブジェクトの種別情報の少なくとも一方を取得することができる。
 また、例えば、オブジェクトは、エリアにおける人の混雑度を示す第一オブジェクト61、エリアにおける感染症対策の状態を示す第二オブジェクト62、及び、エリアの快適性に関する指標を示す第三オブジェクト63のいずれかである。
 このような画像出力システム10は、対象のエリアにおける人の混雑度、当該エリアにおける感染症対策の状態、及び、当該エリアの快適性の少なくとも1つを示すフロアマップ画像を提供することができる。
 また、例えば、ベース画像には、さらに、施設20内から見た施設20の画像(第四オブジェクト64)が配置される。
 このような画像出力システム10は、施設20内部のイメージ画像を含むフロアマップ画像を提供することができる。
 また、例えば、オブジェクト70は、複数のサブオブジェクトを含み、複数のサブオブジェクトのそれぞれは、エリアにおける人の混雑度を示す第一オブジェクト61、エリアにおける感染症対策の状態を示す第二オブジェクト62、及び、エリアの快適性に関する指標を示す第三オブジェクト63のいずれかである。
 このような画像出力システム10は、複数のサブオブジェクトを1つのオブジェクト70として取り扱うことで、ベース画像へのオブジェクト70の配置を効率的に行うことができる。
 また、例えば、画像出力システム10は、施設20内に設置されたセンサのセンシング情報を取得する第二取得部45をさらに備える。出力部46は、取得されたセンシング情報に基づいてオブジェクトの表示態様を変更する。
 このような画像出力システム10は、センシング情報に基づいて、オブジェクトの表示態様を変更することができる。
 また、例えば、出力部46は、オブジェクトの表示態様を変更し、オブジェクトの表示態様を変更する基準は、オブジェクトが関連するエリアの状態に応じて異なる。
 このような画像出力システム10は、対象のエリアの状態を考慮してオブジェクトの表示態様を変更することができる。
 また、例えば、画像出力システム10は、施設20内に設置されたセンサのセンシング情報を取得する第二取得部45をさらに備える。オブジェクトは、エリアの快適性に関する指標を示し、オブジェクト内には、取得されたセンシング情報に基づく数値が表示される。
 このような画像出力システム10は、対象のエリアの快適性を数値で示すフロアマップ画像を提供することができる。
 また、例えば、第二取得部45は、センシング情報に加えてセンサの識別情報を取得し、出力部46は、取得されたセンシング情報に基づいて、取得されたセンサの識別情報に紐づくオブジェクトを更新する。
 このような画像出力システム10は、センサの識別情報に紐づくオブジェクトを更新することができる。
 また、例えば、第一取得部44は、位置情報に加えて、施設20の識別情報を取得し、出力部46は、取得された施設20の識別情報に紐づく情報端末30へ表示情報を出力する。
 このような画像出力システム10は、施設20の識別情報に紐づく情報端末30がフロアマップ画像を表示することを支援することができる。
 また、例えば、ベース画像には、エリアの状態の概略を示すオブジェクト80と、当該状態の詳細を示すオブジェクト81とが配置される。
 このような画像出力システム10は、対象のエリアの状態の概略及び詳細の両方を示すフロアマップ画像を提供することができる。
 また、例えば、出力部46は、施設20内に位置し、フロアマップ画像を表示する情報端末30へ表示情報を出力する。フロアマップ画像には、情報端末30の位置を示すオブジェクト67が配置される。
 このような画像出力システム10は、情報端末30の位置を示すフロアマップ画像を提供することができる。
 また、画像出力システム10などのコンピュータによって実行される画像出力方法は、施設20内のフロアのマップを含むベース画像に、フロアに含まれるエリアの状態に関連するオブジェクトが配置されたフロアマップ画像を表示するための表示情報を出力する出力ステップを含む。オブジェクトは、上記フロアマップ画像と、出力ステップにおいて出力される他の表示情報に基づいて表示される他の施設20のフロアマップ画像とにおいて共通化されている。
 このような画像出力方法は、オブジェクトの記憶容量を低減しつつ、多様なフロアマップ画像を提供することができる。
 (その他の実施の形態)
 以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではない。
 例えば、上記実施の形態では、人数センサとして、画像処理機能を有するカメラが用いられたが、人数センサとしてLPS(Local Positioning System)が使用されてもよい。LPSは、施設内に分散して配置された複数の無線通信装置を有し、これら複数の無線通信装置と施設内に位置する人が所持する発信機との近距離無線通信における受信信号強度に基づいて、発信機の現在位置(つまり、人の現在位置)を計測するシステムである。ここでの近距離無線通信は、例えば、BLEなどの通信規格に基づくものである。発信機は、例えば、人が所持する携帯端末であるが、LPSの専用デバイス(無線タグなど)であってもよい。
 また、上記実施の形態においてフロアマップ画像には、情報端末の現在位置を示すオブジェクトが表示されたが、情報端末が携帯端末であり現在位置が固定されていない場合、LPSにより情報端末の位置を特定し、情報端末の現在位置をフロアマップ画像に表示することが可能である。
 また、例えば、上記実施の形態における装置間の通信方法については特に限定されるものではない。また、装置間の通信においては、図示されない中継装置(ブロードバンドルータなど)が介在してもよい。
 また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。
 また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 また、本発明の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 例えば、本発明は、上記実施の形態の画像出力システムなどのコンピュータが実行する画像出力方法として実現されてもよいし、画像出力方法をコンピュータに実行させるためのプログラム(言い換えれば、コンピュータプログラムプロダクト)として実現されてもよい。また、本発明は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。
 その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
 10 画像出力システム
 20 施設
 21 二酸化炭素濃度センサ(センサ)
 22 温湿度センサ(センサ)
 23 着座センサ(センサ)
 24 人数センサ(センサ)
 30 情報端末
 44 第一取得部
 45 第二取得部
 46 出力部
 61、71 第一オブジェクト
 62 第二オブジェクト
 63、73a、73b、73c 第三オブジェクト

Claims (14)

  1.  施設内のフロアのマップを含むベース画像に、前記フロアに含まれるエリアの状態に関連するオブジェクトが配置されたフロアマップ画像を表示するための表示情報を出力する出力部を備え、
     前記オブジェクトは、前記フロアマップ画像と、前記出力部によって出力される他の表示情報に基づいて表示される他の施設のフロアマップ画像とにおいて共通化されている
     画像出力システム。
  2.  前記ベース画像上の前記オブジェクトの位置を示す位置情報、及び、前記オブジェクトの種別情報の少なくとも一方を取得する第一取得部をさらに備える
     請求項1に記載の画像出力システム。
  3.  前記オブジェクトは、前記エリアにおける人の混雑度を示す第一オブジェクト、前記エリアにおける感染症対策の状態を示す第二オブジェクト、及び、前記エリアの快適性に関する指標を示す第三オブジェクトのいずれかである
     請求項1または2に記載の画像出力システム。
  4.  前記ベース画像には、さらに、前記施設内から見た前記施設の画像が配置される
     請求項1または2に記載の画像出力システム。
  5.  前記オブジェクトは、複数のサブオブジェクトを含み、
     前記複数のサブオブジェクトのそれぞれは、前記エリアにおける人の混雑度を示す第一オブジェクト、前記エリアにおける感染症対策の状態を示す第二オブジェクト、及び、前記エリアの快適性に関する指標を示す第三オブジェクトのいずれかである
     請求項1または2に記載の画像出力システム。
  6.  前記施設内に設置されたセンサのセンシング情報を取得する第二取得部をさらに備え、
     前記出力部は、取得された前記センシング情報に基づいて前記オブジェクトの表示態様を変更する
     請求項1に記載の画像出力システム。
  7.  前記出力部は、前記オブジェクトの表示態様を変更し、
     前記オブジェクトの表示態様を変更する基準は、前記オブジェクトが関連する前記エリアの状態に応じて異なる
     請求項6に記載の画像出力システム。
  8.  前記施設内に設置されたセンサのセンシング情報を取得する第二取得部をさらに備え、
     前記オブジェクトは、前記エリアの快適性に関する指標を示し、
     前記オブジェクト内には、取得された前記センシング情報に基づく数値が表示される
     請求項1に記載の画像出力システム。
  9.  前記第二取得部は、前記センシング情報に加えて前記センサの識別情報を取得し、
     前記出力部は、取得された前記センシング情報に基づいて、取得された前記センサの識別情報に紐づく前記オブジェクトを更新する
     請求項6~8のいずれか1項に記載の画像出力システム。
  10.  前記第一取得部は、前記位置情報に加えて、前記施設の識別情報を取得し、
     前記出力部は、取得された前記施設の識別情報に紐づく情報端末へ前記表示情報を出力する
     請求項2に記載の画像出力システム。
  11.  前記ベース画像には、前記エリアの状態の概略を示す前記オブジェクトと、当該状態の詳細を示すオブジェクトとが配置される
     請求項1に記載の画像出力システム。
  12.  前記出力部は、前記施設内に位置し、前記フロアマップ画像を表示する情報端末へ前記表示情報を出力し
     前記フロアマップ画像には、前記情報端末の位置を示すオブジェクトが配置される
     請求項1に記載の画像出力システム。
  13.  施設内のフロアのマップを含むベース画像に、前記フロアに含まれるエリアの状態に関連するオブジェクトが配置されたフロアマップ画像を表示するための表示情報を出力する出力ステップを含み、
     前記オブジェクトは、前記フロアマップ画像と、前記出力ステップにおいて出力される他の表示情報に基づいて表示される他の施設のフロアマップ画像とにおいて共通化されている
     画像出力方法。
  14.  請求項13に記載の画像出力方法をコンピュータに実行させるためのプログラム。
PCT/JP2022/039040 2021-10-28 2022-10-20 画像出力システム、及び、画像出力方法 WO2023074515A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-176258 2021-10-28
JP2021176258A JP2023065870A (ja) 2021-10-28 2021-10-28 画像出力システム、及び、画像出力方法

Publications (1)

Publication Number Publication Date
WO2023074515A1 true WO2023074515A1 (ja) 2023-05-04

Family

ID=86159397

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039040 WO2023074515A1 (ja) 2021-10-28 2022-10-20 画像出力システム、及び、画像出力方法

Country Status (2)

Country Link
JP (1) JP2023065870A (ja)
WO (1) WO2023074515A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005083941A (ja) * 2003-09-09 2005-03-31 Sony Corp 案内情報提供装置及びプログラム
JP2011221748A (ja) * 2010-04-08 2011-11-04 Japan Research Institute Ltd 混雑状況提供装置、混雑状況提供方法および混雑状況提供プログラム
WO2019225097A1 (ja) * 2018-05-24 2019-11-28 清水建設株式会社 設備利用状況公開システム、設備利用状況公開方法およびプログラム
WO2020031599A1 (ja) * 2018-08-08 2020-02-13 パナソニックIpマネジメント株式会社 情報提供方法、サーバ、音声認識装置、情報提供プログラム、及び情報提供システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005083941A (ja) * 2003-09-09 2005-03-31 Sony Corp 案内情報提供装置及びプログラム
JP2011221748A (ja) * 2010-04-08 2011-11-04 Japan Research Institute Ltd 混雑状況提供装置、混雑状況提供方法および混雑状況提供プログラム
WO2019225097A1 (ja) * 2018-05-24 2019-11-28 清水建設株式会社 設備利用状況公開システム、設備利用状況公開方法およびプログラム
WO2020031599A1 (ja) * 2018-08-08 2020-02-13 パナソニックIpマネジメント株式会社 情報提供方法、サーバ、音声認識装置、情報提供プログラム、及び情報提供システム

Also Published As

Publication number Publication date
JP2023065870A (ja) 2023-05-15

Similar Documents

Publication Publication Date Title
US10969131B2 (en) Sensor with halo light system
JP7043215B2 (ja) 施設内監視システム、施設内監視装置、およびコンピュータプログラム
US8725526B2 (en) Methods, systems, and apparatus for providing real time query support and graphical views of patient care information
WO2021011822A1 (en) Environment monitoring and management system and method
US9332322B2 (en) Multimodal climate sensor network
US20090065596A1 (en) Systems and methods for increasing building space comfort using wireless devices
KR20160131507A (ko) 실내외 환경 감지를 이용한 개인별 맞춤 건강관리 시스템
WO2016001974A1 (ja) 空調システム
CN103918243A (zh) 占用驱动的病房环境控制
JP5898765B2 (ja) 省電力制御システム、機器制御装置、および、省電力制御方法
US20170227941A1 (en) Control apparatus and device control system
Han et al. A measurement for evaluating the environmental quality of advanced healthcare facilities: Intelligent healthscape quality for medical staff
JP5852447B2 (ja) 患者対応支援システム、患者応対支援装置、患者応対支援方法、プログラム
WO2023074515A1 (ja) 画像出力システム、及び、画像出力方法
JP2016163193A (ja) 生体検知結果活用システム
JP2014200613A (ja) 自走式掃除システム
JP2005249441A (ja) 生活アドバイスシステム
WO2021192398A1 (ja) 行動認識サーバ、および、行動認識方法
JP2015158782A (ja) 不審者追跡支援システム、設備機器コントローラ及びプログラム
JP2023029017A (ja) 保守点検通知システム、保守点検通知方法、及び、プログラム
CN115997390A (zh) 用于检测和跟踪表现出感染症状的个体的系统和方法
CN112312825A (zh) 一种过敏原警告系统和方法
WO2022158189A1 (ja) 環境制御システム及び環境制御方法
KR102544230B1 (ko) 공기질 변화 예측을 통한 공기질 제어 방법 및 이를 수행하는 장치
WO2022176514A1 (ja) 情報処理システム、及び、情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22886843

Country of ref document: EP

Kind code of ref document: A1