WO2021192039A1 - 設備管理装置、設備管理方法およびプログラム - Google Patents

設備管理装置、設備管理方法およびプログラム Download PDF

Info

Publication number
WO2021192039A1
WO2021192039A1 PCT/JP2020/013033 JP2020013033W WO2021192039A1 WO 2021192039 A1 WO2021192039 A1 WO 2021192039A1 JP 2020013033 W JP2020013033 W JP 2020013033W WO 2021192039 A1 WO2021192039 A1 WO 2021192039A1
Authority
WO
WIPO (PCT)
Prior art keywords
equipment
cause
video
conference room
specific state
Prior art date
Application number
PCT/JP2020/013033
Other languages
English (en)
French (fr)
Inventor
一哉 本間
Original Assignee
シャープNecディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープNecディスプレイソリューションズ株式会社 filed Critical シャープNecディスプレイソリューションズ株式会社
Priority to PCT/JP2020/013033 priority Critical patent/WO2021192039A1/ja
Publication of WO2021192039A1 publication Critical patent/WO2021192039A1/ja
Priority to US17/949,793 priority patent/US20230016819A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1818Conference organisation arrangements, e.g. handling schedules, setting up parameters needed by nodes to attend a conference, booking network resources, notifying involved parties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1863Arrangements for providing special services to substations for broadcast or conference, e.g. multicast comprising mechanisms for improved reliability, e.g. status reports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details

Definitions

  • the present invention relates to a facility management system, a facility management method and a program.
  • the conference room may be equipped with various equipment such as video equipment such as monitors and projectors, air conditioning equipment, and lighting equipment.
  • video equipment such as monitors and projectors
  • air conditioning equipment such as air conditioning equipment
  • lighting equipment such as lighting equipment.
  • An example of a technique for managing equipment installed in a conference room is disclosed in, for example, Patent Document 1 below.
  • Patent Document 1 discloses a video conference system with a self-diagnosis function that easily and quickly detects the presence or absence of a failure and the location of the failure.
  • Abnormality may occur when using the equipment provided in the conference room. For example, when a video device is used to output materials or video used in a conference or presentation, the output may not be in a desired state due to various reasons. In this case, it is necessary to identify the cause and eliminate it, but if the video equipment is not handled well, this work may take longer than necessary.
  • the present invention has been made in view of the above problems.
  • One of the objects of the present invention is to provide a technique for supporting the work of identifying and removing the cause of an abnormality when an abnormality occurs in the equipment provided in the conference room.
  • the equipment management device of the present invention An information gathering means for acquiring the video of the conference room or the audio of the conference room, A specific state detecting means for detecting that the equipment provided in the conference room is in a specific state based on the analysis result of the video or the sound, and When it is detected that the equipment is in a specific state, the cause estimation means for acquiring the equipment information about the equipment and estimating the cause of the specific state based on the equipment information, A coping process execution means for selecting and executing a coping process to be executed based on the estimated cause, and a coping process execution means. To be equipped.
  • the equipment management method of the present invention The computer Acquire the video of the conference room or the audio of the conference room, Based on the analysis result of the video or the audio, it is detected that the equipment provided in the conference room is in a specific state. When it is detected that the equipment is in a specific state, the equipment information about the equipment is acquired, and the cause of the specific state is estimated based on the equipment information. Select and execute the action to be taken based on the estimated cause. Including that.
  • the program of the present invention Computer, Information gathering means for acquiring video of a conference room or audio of the conference room, A trouble detecting means for detecting that the equipment provided in the conference room is in a specific state based on the analysis result of the video or the audio. When it is detected that the equipment is in a specific state, a cause estimation means that acquires equipment information about the equipment and estimates the cause of the specific state based on the equipment information. A coping process execution means that selects and executes a coping process to be executed based on the probable cause. To function as.
  • the load required for the work of identifying the cause and removing the abnormality can be reduced.
  • each block diagram represents a configuration of a functional unit, not a configuration of a hardware unit.
  • FIG. 1 is a diagram illustrating a functional configuration of the equipment management device according to the present invention.
  • the equipment management device according to the present invention has a function of managing equipment provided in a conference room.
  • the "equipment” described in the present specification includes video equipment such as a monitor and a projector, air conditioning, lighting, and the like.
  • the equipment management device 10 according to the present invention includes an information collection unit 110, a specific state detection unit 120, a cause estimation unit 130, and a countermeasure processing execution unit 140.
  • the information collecting unit 110 acquires the video of the conference room or the audio of the conference room.
  • the information collecting unit 110 communicates with an image pickup device installed on the ceiling or wall of the conference room, and acquires video data of the conference room generated by the image pickup device.
  • the information collecting unit 110 communicates with a microphone installed in the conference room and acquires the voice data of the conference room generated by the microphone.
  • the specific state detection unit 120 analyzes the video or audio acquired by the information collection unit 110. Then, the specific state detection unit 120 detects that the equipment provided in the conference room is in a specific state based on the analysis result of the video or audio.
  • the specific state for example, when the equipment is a video device, at least one of the video and audio is not output, and at least one of the video and audio is abnormal. Can be mentioned. If the equipment is an air conditioner, for example, the air conditioning is not working (it takes too long to reach the set temperature), and the temperature in the conference room is unpleasant (too hot / too cold for the conference attendees). The state etc. can be mentioned. Further, when the equipment is a lighting device, the lighting is not turned on, the lighting is blinking, the lighting is unpleasant (the intensity of the lighting is too strong / too weak), and the like.
  • the cause estimation unit 130 When it is detected that the equipment in the conference room is in a specific state, the cause estimation unit 130 first acquires the equipment information related to the equipment in which the specific state is detected. Then, the cause estimation unit 130 estimates the cause of the above-mentioned specific state based on the acquired equipment information. A specific example of the processing executed by the cause estimation unit 130 and a specific example of the equipment information will be described later.
  • the coping process execution unit 140 selects and executes the coping process (process for removing the cause) to be executed based on the cause estimated by the cause estimation unit 130.
  • the process executed by the coping process execution unit 140 will be described later.
  • Each functional component of the equipment management device 10 may be realized by hardware that realizes each functional component (eg, a hard-wired electronic circuit, etc.), or a combination of hardware and software (eg, example). It may be realized by a combination of an electronic circuit and a program that controls it).
  • a case where each functional component of the equipment management device 10 is realized by a combination of hardware and software will be further described.
  • FIG. 2 is a block diagram illustrating the hardware configuration of the equipment management device 10.
  • the equipment management device 10 includes a bus 1010, a processor 1020, a memory 1030, a storage device 1040, an input / output interface 1050, and a network interface 1060.
  • the bus 1010 is a data transmission path for the processor 1020, the memory 1030, the storage device 1040, the input / output interface 1050, and the network interface 1060 to transmit and receive data to and from each other.
  • the method of connecting the processors 1020 and the like to each other is not limited to the bus connection.
  • the processor 1020 is a processor realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like.
  • the memory 1030 is a main storage device realized by a RAM (Random Access Memory) or the like.
  • the storage device 1040 is an auxiliary storage device realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the storage device 1040 stores a program module that realizes each function of the equipment management device 10 (information collection unit 110, specific state detection unit 120, cause estimation unit 130, coping process execution unit 140, and the like).
  • the processor 1020 reads each of these program modules into the memory 1030 and executes them, each function corresponding to each program module is realized.
  • the input / output interface 1050 is an interface for connecting the equipment management device 10 and various input / output devices.
  • the network interface 1060 is an interface for connecting the equipment management device 10 to other devices on the network (for example, the equipment 20, the image pickup device 30, the microphone 40, and the like).
  • This network is, for example, LAN (Local Area Network) or WAN (Wide Area Network).
  • the method of connecting the network interface 1060 to the network may be a wireless connection or a wired connection.
  • FIG. 3 is a flowchart illustrating the flow of processing executed by the equipment management device 10.
  • the information collecting unit 110 acquires the video data of the conference room or the audio data of the conference room (S102).
  • the video data of the conference room is generated by the imaging device 30 provided in the conference room.
  • the voice data of the conference room is generated by the microphone 40 provided in the conference room.
  • the information collecting unit 110 is connected to the image pickup device 30 and the microphone 40 via a network.
  • the information collecting unit 110 acquires the video data of the conference room from the imaging device 30, and acquires the audio data of the conference room from the microphone 40.
  • the specific state detection unit 120 analyzes the video of the conference room or the sound of the conference room acquired in the process of S102, and determines whether or not a specific state has occurred based on the analysis result (S104-S106). ). For example, the specific state detection unit 120 uses a machine learning model constructed to output a determination result of whether or not a specific state has occurred by inputting video data, and uses a machine learning model constructed to output a specific state to the output of the video device. Can be detected. For example, when the equipment 20 is a video device, the specific state detection unit 120 may not output anything from the video device even after a predetermined time (for example, several minutes to ten and several minutes) has passed from the start time of the conference.
  • a predetermined time for example, several minutes to ten and several minutes
  • the start time of the conference is acquired by, for example, linking with a conference reservation system (not shown).
  • the specific state detection unit 120 detects from the video that the terminal (notebook PC, tablet terminal, etc.) brought into the conference room and the video device are connected, and then a predetermined time (for example, several minutes to ten).
  • a predetermined time for example, several minutes to ten.
  • the specific state detection unit 120 may use a predetermined keyword that can be presumed to have generated the above-mentioned "specific state” (eg, "not reflected”, “no sound”, “flickering eyes", “” By detecting “dark”, “hot”, “cold”, etc.) from the voice data, it is possible to detect that a specific state has occurred in the equipment 20.
  • the specific state detection unit 120 converts the voice data generated by the microphone 40 into text data using a known voice recognition technique, and determines whether or not the text data contains a predetermined keyword. ..
  • the method by which the specific state detection unit 120 detects a specific state from the voice of the conference room is not limited to the examples given here.
  • the equipment management device 10 continues to monitor the equipment 20 by using the video or audio continuously acquired from the image pickup device 30 or the microphone 40.
  • the cause estimation unit 130 requests the equipment 20 in which the specific state is detected to transmit the equipment information regarding the equipment 20 (S108). Then, the cause estimation unit 130 estimates the cause of the specific state based on the equipment information of the equipment 20 acquired as a response to the request of S108 (S110). The detailed processing of the cause estimation unit 130 will be described in a specific example described later.
  • the coping process execution unit 140 selects and executes the coping process according to the cause estimated by the cause estimation unit 130 (S112).
  • the coping process execution unit 140 can select a coping method according to the estimated cause by referring to a table as shown in FIG. 12, for example.
  • FIG. 12 is a diagram showing an example of a table referred to when the coping process execution unit 140 specifies a coping process to be executed.
  • the table illustrated in FIG. 12 stores the contents of a specific state (trouble) assumed for each facility provided in the conference room.
  • the table stores the estimated cause and the information on the countermeasure processing for the cause in association with each other for each content of the specific state (trouble).
  • the coping process execution unit 140 can specify the coping process (the coping process to be executed) corresponding to the estimation result of the cause of the trouble by the cause estimation unit 130 by using the table as illustrated in FIG.
  • the equipment management device 10 when it is determined from the video or audio of the conference room that the equipment installed in the conference room is in a specific state (such as a state in which there is no output if it is a video device), the equipment management device 10 Therefore, the cause of a specific state is estimated based on the equipment information of the equipment, and the process of removing the cause is executed. That is, when some trouble occurs in the equipment provided in the conference room, the equipment management device 10 automatically estimates and eliminates the cause of the trouble. This is expected to have the effect of shortening the time required for the work to solve the troubles related to the equipment provided in the conference room.
  • FIG. 4 is a diagram showing an example of a system configuration using the equipment management device 10 according to the present invention.
  • a video device 22 (a type of equipment 20), an image pickup device 30, and a smart speaker 4 having a microphone 40 and a speaker 42 are installed in the conference room.
  • the equipment management device 10 is connected to the video device 22, the image pickup device 30, and the smart speaker 4 via the LAN 50.
  • a wireless LAN access point 60 is provided in the conference room.
  • the video device 22, the image pickup device 30, and the smart speaker 4 may be connected to the LAN 50 via a wired LAN port (not shown), or may be connected to the LAN 50 via an access point 60.
  • the equipment management device 10 has a function of managing other equipment (for example, lighting equipment and heating equipment (not shown)) in the conference room in addition to the above-mentioned function processing units.
  • the equipment management device 10 is connected to each facility in the conference room (for example, a video device 22, an image pickup device 30, a smart speaker 4, etc.) via a LAN 50.
  • the equipment management device 10 can acquire equipment information of the video equipment 22, video generated by the image pickup device 30, audio data collected by the smart speaker 4, and the like via the LAN 50.
  • the video device 22 is a monitor.
  • the video device 22 may be a device other than the monitor (for example, a projector).
  • the video device 22 outputs video or audio and video based on the input signal input from the terminal 70.
  • the video device 22 is connected to the LAN 50 by wire.
  • the video device 22 When the video device 22 is equipped with a wireless LAN module, the video device 22 may be connected to the LAN 50 via the access point 60.
  • information that identifies the equipment 20 indicates the location of the conference room. It is registered in advance in the equipment management device 10 together with the information.
  • the video device 22 and the conference room are associated with each other.
  • the video device 22 transmits information (equipment information) indicating the state of hardware or software of the device to the facility management device 10 in response to a request from the facility management device 10 connected via the LAN 50.
  • the terminal 70 stores data to be displayed on the video device 22, and is connected to the video device 22 by a video cable.
  • the terminal 70 may communicate with the video device 22 via the access point 60 and the LAN 50. Further, the terminal 70 communicates with an external device (not shown) via the LAN 50, acquires display data stored in the external device, and outputs the acquired display data to the video device 22. You can also.
  • the image pickup device 30 is provided at a position where the conference room can be photographed as a whole in order to monitor the output state of the video equipment 22 installed in the conference room.
  • the image pickup apparatus 30 is an omnidirectional camera configured to be capable of photographing in all directions.
  • the image pickup apparatus 30 may be a PTZ camera having a PTZ (Pan-Tilt-Zoom) function.
  • the image pickup apparatus 30 is connected to the LAN 50 by wire.
  • the image pickup device 30 When the image pickup device 30 is equipped with a wireless LAN module, the image pickup device 30 may be connected to the LAN 50 via the access point 60.
  • the image pickup device 30 When the image pickup device 30 is installed in a conference room, information that identifies the image pickup device 30 (for example, a product serial number unique to the image pickup device 30 or an arbitrarily assigned unique identification number) determines the location of the conference room. It is registered in advance in the equipment management device 10 together with the indicated information. As a result, in the equipment management device 10, the image pickup device 30 and the conference room are associated with each other.
  • the image pickup apparatus 30 transmits the generated video to the equipment management apparatus 10 connected via the LAN 50.
  • the image pickup device 30 is a so-called intelligent camera equipped with a processor for image processing, the result of analyzing the image by the processor (for example, whether or not a specific state is detected) is transmitted to the equipment management device 10. It may be configured to transmit.
  • the smart speaker 4 is provided to monitor the output status of the video device 22 installed in the conference room. Further, as will be described later, the smart speaker 4 has a dialogue with the user of the conference room using a voice message, and assists in the work for solving the trouble related to the output of the video device 22.
  • the smart speaker 4 includes a microphone 40 for collecting voice in a conference room and a speaker 42 for outputting a voice message.
  • the smart speaker 4 is connected to the LAN 50 via the access point 60.
  • the smart speaker 4 may be connected to the LAN 50 by wire.
  • information that identifies the smart speaker 4 determines the location of the conference room. It is registered in advance in the equipment management device 10 together with the indicated information. As a result, in the equipment management device 10, the smart speaker 4 and the conference room are associated with each other.
  • FIG. 5 is a flowchart showing an example of a detailed flow of the process of S110 of FIG.
  • the cause estimation unit 130 sets the values of all cause flags to "false” and initializes each flag value (S202).
  • the cause flag is prepared for each cause of the trouble related to the output of the video device 22 in the program module of the cause estimation unit 130, for example.
  • the cause estimation unit 130 can determine which cause is estimated by setting the value of the cause flag corresponding to the estimated cause of the trouble related to the output of the video device 22 to "true”. And.
  • the cause estimation unit 130 determines whether or not a timeout error has occurred based on the equipment information acquired as a response to the request transmitted in the process of S108 (S204). .. For example, when the video device 22 is not normally connected to the LAN 50, the request transmitted from the equipment management device 10 (cause estimation unit 130) does not reach the video device 22, and a timeout error occurs after a certain period of time has elapsed. In this case, the cause estimation unit 130 acquires information indicating a timeout error (information indicating the network connection state of the video device 22) as equipment information.
  • the cause estimation unit 130 sets the cause flag corresponding to the cause of “LAN connection error” (in FIG. 5, “cause”.
  • the value of (denoted as "flag 0") is set to "true” (S206).
  • the cause estimation unit 130 leaves the value of the cause flag 0 as "false” and performs the next determination process.
  • the cause estimation unit 130 determines whether or not the main power of the video device 22 is turned on based on the equipment information acquired from the video device 22 (S208).
  • the cause estimation unit 130 identifies information indicating the state of the main power supply of the video equipment 22 from the acquired equipment information, and determines whether or not the main power supply of the video equipment 22 is turned on based on the specified information. can do.
  • the cause estimation unit 130 sets the cause flag corresponding to the cause of "main power not turned on" (in FIG. 5, " The value of "cause flag 1" is set to "true” (S210).
  • the cause estimation unit 130 leaves the value of the cause flag 1 as "false” and makes the next determination. Perform processing.
  • the cause estimation unit 130 determines whether or not there is an input signal for the video device 22 based on the equipment information acquired from the video device 22 (S212).
  • the cause estimation unit 130 identifies information indicating the presence or absence of an input signal from the acquired equipment information, and determines whether or not an input signal exists for the video device 22 based on the identified information. Can be done.
  • the cause estimation unit 130 sets the cause flag corresponding to the cause of “no input signal” (in FIG. 5, FIG. 5).
  • the value of "cause flag 2" is set to "true” (S214).
  • the cause estimation unit 130 leaves the value of the cause flag 2 as "false” and next Judgment processing is performed.
  • the cause estimation unit 130 determines whether the input terminal receiving the signal output from the terminal 70 is selected as the input terminal for display in the video device 22 based on the equipment information acquired from the video device 22. Judgment (S216).
  • the video device 22 has a plurality of input terminals (for example, HDMI (registered trademark) (High-Definition Multimedia Interface) terminal, DVI (Digital Visual Interface) terminal, DisplayPort terminal, etc.), it is an input terminal for display. If no signal is input to the input terminal selected as, no video or audio will be output.
  • the cause estimation unit 130 identifies an input terminal into which a signal from the terminal 70 is input and an input terminal for display currently selected based on the acquired equipment information, and these identified input terminals are one. Determine if you are doing it.
  • the cause estimation unit 130 determines.
  • the value of the cause flag (denoted as “cause flag 3" in FIG. 5) corresponding to the cause of "input terminal selection error” is set to "true” (S218).
  • the cause The estimation unit 130 performs the next determination process while leaving the value of the cause flag 3 as “false”.
  • the cause estimation unit 130 confirms whether the video or audio mute function is turned off in the video device 22 based on the equipment information acquired from the video device 22 (S220).
  • the cause estimation unit 130 can specify information indicating the state of the mute function of the video device 22 from the acquired equipment information, and determine whether the mute function is on or off based on the information.
  • the cause estimation unit 130 sets the cause flag corresponding to the cause of "forgot to turn off the mute function" (in FIG. 5). , "Cause flag 4”) is set to "true” (S222).
  • the cause estimation unit 130 keeps the value of the cause flag 4 as “false”. After that, the processing for the estimated cause (cause flag for which the value of "true” is set) is executed.
  • FIG. 6 is a flowchart illustrating a flow in which the coping process execution unit 140 automatically removes troubles related to the output of the video device 22.
  • the coping process execution unit 140 determines whether or not the value of the cause flag 3 is "true” (S302).
  • S302 When the value of the cause flag 3 is "true", in the video equipment 22, an input terminal different from the input terminal into which the signal is input is selected as the input terminal for display. Therefore, when the value of the cause flag 3 is "true” (S302: YES), the coping process execution unit 140 generates a control signal for switching the display input terminal to the input terminal to which the signal is input. , The control signal is output to the video equipment 22 (S304).
  • the video device 22 receives the control signal generated in the process of S304, the video device 22 switches the display input terminal based on the control signal. As a result, the input terminal into which the signal is input is selected as the input terminal for display.
  • the value of the cause flag 3 is "false” (S302: NO)
  • the coping process execution unit 140 does not execute the process of S304.
  • the coping process execution unit 140 determines whether or not the value of the cause flag 4 is "true” (S306). When the value of the cause flag 4 is "true”, the video or audio mute function is turned on in the video device 22. Therefore, when the value of the cause flag 4 is "true” (S306: YES), the coping process execution unit 140 generates a control signal for setting the mute function to off in the video device 22, and outputs the control signal. Output to the video device 22 (S308). When the video device 22 receives the control signal generated in the process of S308, the video device 22 sets the mute function to the off state based on the control signal. As a result, the video and audio that have been blocked by the mute function are output from the video device 22.
  • the coping process execution unit 140 determines whether or not the specific state has been resolved (S310).
  • the coping process execution unit 140 determines, for example, when the output of the image from the image device 22 can be detected as a result of analyzing the image acquired from the image pickup device 30, or as a result of analyzing the sound acquired from the smart speaker 4. It can be determined that a specific state has been resolved when the keyword (such as "healed” or "(video or sound) has come out") can be detected. Further, the coping process execution unit 140 determines, for example, whether or not there is a cause flag in which the value of "true" is set among other cause flags (specifically, cause flag 0-2). If the corresponding cause flag exists, it can be determined that the specific state has not been resolved. When the specific state is not resolved (S310: NO), the coping process execution unit 140 further executes the process as described below. On the other hand, when the specific state is resolved (S310: YES), the process described below is not executed.
  • the equipment management device 10 removes the cause. The process is executed automatically. This can reduce the work that the person in the conference room has to do to eliminate the trouble.
  • FIG. 7 is a flowchart illustrating a flow in which the coping process execution unit 140 supports the manual trouble-solving work by outputting a message to a person in the conference room.
  • the coping process execution unit 140 determines whether or not the value of the cause flag 0 is "true” (S402).
  • the value of the cause flag 0 is "true”
  • the data of the message prompting to confirm the LAN connection status (denoted as "message 0" in FIG. 7) is read, and the message 0 is output via the smart speaker 4 (S404).
  • Message 0 is, for example, "Please confirm that the video device is properly connected to the network .... Are you sure?" Such data of message 0 is stored in advance in a storage area of the equipment management device 10, such as a memory 1030 or a storage device 1040.
  • the equipment management device 10 When it is confirmed that the person in the conference room has correctly connected the video equipment 22 to the LAN 50, the equipment management device 10 outputs a request for transmitting equipment information to the video equipment 22 again, and the equipment information from the video equipment 22. (S108 in FIG. 3). After that, the process of estimating the cause based on the equipment information acquired from the video equipment 22 as described with reference to FIG. 5 is executed again.
  • the video device 22 is correctly connected to the LAN 50, so that the equipment management device 10 can acquire the equipment information from the video device 22. There is. In this case, the determination process relating to the cause flags 1 and 2 is executed in the flowchart of FIG. Therefore, the coping process execution unit 140 determines whether or not the value of the cause flag 1 is "true” (S406). When the value of the cause flag 1 is "true”, it means that the main power of the video equipment 22 is not turned on.
  • the action processing execution unit 140 prompts the user to confirm the on / off state of the main power supply of the video device 22 (denoted as “message 1" in FIG. 7). ) Is read, and the message 1 is output via the smart speaker 4 (S408).
  • Message 1 is, for example, "Is the power of the video equipment turned on?” Or “Please turn on the power of the video equipment .... Are you sure?"
  • the data of such a message 1 is stored in advance in a storage area of the equipment management device 10, such as a memory 1030 or a storage device 1040.
  • the coping process execution unit 140 picked up with the smart speaker 4 that the value of the cause flag 1 was "false” (S406: NO) or that a person in the conference room gave a positive reply to the message 1.
  • the value of the cause flag 2 is "true”
  • the coping process execution unit 140 prompts the video device 22 to confirm the path of the input signal (in FIG. 7, "message 2").
  • the data of (notation) is read out, and the message 2 is output via the smart speaker 4 (S412).
  • Message 2 is, for example, "The input signal cannot be detected by the video device. Is the cable connected correctly?" Or "Please connect your terminal and the video device with a cable. ? ”And so on.
  • the data of such a message 2 is stored in advance in a storage area of the equipment management device 10, such as a memory 1030 or a storage device 1040.
  • the coping process execution unit 140 determines whether or not the specific state has been resolved (S414).
  • the coping process execution unit 140 determines, for example, when the output of the image from the image device 22 can be detected as a result of analyzing the image acquired from the image pickup device 30, or as a result of analyzing the sound acquired from the smart speaker 4. It can be determined that a specific state has been resolved when the keyword (such as "healed” or "(video or sound) has come out”) can be detected.
  • the coping process execution unit 140 ends the process.
  • the coping process execution unit 140 sends the video device 22 to the terminal of the person in charge (equipment manager) who manages various facilities installed in the conference room. Notify that a trouble has occurred (S416).
  • the equipment manager who is familiar with the equipment including the video equipment 22 can be called to eliminate the trouble at an early stage. ..
  • FIG. 8 is a diagram showing an example of a system configuration using the equipment management device 10 according to the present invention.
  • a video device 22 (a type of equipment 20), an image pickup device 30, and a smart speaker 4 having a microphone 40 and a speaker 42 are installed.
  • the equipment management device 10 is connected to the video device 22, the image pickup device 30, and the smart speaker 4 via the LAN 50.
  • a wireless LAN access point 60 is provided in the conference room.
  • the video device 22, the image pickup device 30, and the smart speaker 4 may be connected to the LAN 50 via a wired LAN port (not shown), or may be connected to the LAN 50 via an access point 60.
  • the video device 22 is a projector.
  • the video device 22 may be a device other than the projector (for example, a monitor).
  • the video device 22 outputs video or audio and video based on the input signal input from the terminal 70.
  • the video device 22 is connected to the LAN 50 by wire.
  • the video device 22 may be connected to the LAN 50 via the access point 60.
  • the information that identifies the video device 22 determines the location of the conference room. It is registered in advance in the equipment management device 10 together with the indicated information.
  • the video device 22 and the conference room are associated with each other.
  • the video device 22 transmits information (equipment information) indicating the state of hardware or software of the device to the facility management device 10 in response to a request from the facility management device 10 connected via the LAN 50.
  • the terminal 70 stores data to be displayed on the video device 22, and is connected to the video device 22 on the LAN 50 via the access point 60.
  • an image transmission application is installed in the terminal 70, and the terminal 70 attempts to communicate with the video device 22 via the image transmission application.
  • the terminal 70 starts the image transmission application, the terminal 70 notifies the equipment management device 10 of information indicating the start of the image transmission application via the access point 60.
  • the terminal 70 may communicate with an external device (not shown) via the LAN 50 to acquire display data stored in the external device and output the acquired display data to the video device 22. can.
  • the image pickup device 30 is provided at a position where the conference room can be photographed as a whole in order to monitor the output state of the video equipment 22 installed in the conference room.
  • the image pickup apparatus 30 is an omnidirectional camera configured to be capable of photographing in all directions.
  • the image pickup apparatus 30 may be a PTZ camera having a PTZ (Pan-Tilt-Zoom) function.
  • the image pickup apparatus 30 is connected to the LAN 50 by wire.
  • the image pickup device 30 When the image pickup device 30 is equipped with a wireless LAN module, the image pickup device 30 may be connected to the LAN 50 via the access point 60.
  • the image pickup device 30 When the image pickup device 30 is installed in a conference room, information that identifies the image pickup device 30 (for example, a product serial number unique to the image pickup device 30 or an arbitrarily assigned unique identification number) determines the location of the conference room. It is registered in advance in the equipment management device 10 together with the indicated information. As a result, in the equipment management device 10, the image pickup device 30 and the conference room are associated with each other.
  • the image pickup apparatus 30 transmits the generated video to the equipment management apparatus 10 connected via the LAN 50.
  • the image pickup device 30 is a so-called intelligent camera equipped with a processor for image processing, the result of analyzing the image by the processor (for example, whether or not a specific state is detected) is transmitted to the equipment management device 10. It may be configured to transmit.
  • the smart speaker 4 is provided to monitor the output status of the video device 22 installed in the conference room. Further, as will be described later, the smart speaker 4 has a dialogue with the user of the conference room using a voice message, and assists in the work for solving the trouble related to the output of the video device 22.
  • the smart speaker 4 includes a microphone 40 for collecting voice in a conference room and a speaker 42 for outputting a voice message.
  • the smart speaker 4 is connected to the LAN 50 via the access point 60.
  • the smart speaker 4 may be connected to the LAN 50 by wire.
  • information that identifies the smart speaker 4 determines the location of the conference room. It is registered in advance in the equipment management device 10 together with the indicated information. As a result, in the equipment management device 10, the smart speaker 4 and the conference room are associated with each other.
  • FIG. 9 is a flowchart showing an example of a detailed flow of the process of S110 of FIG.
  • the cause estimation unit 130 sets the values of all cause flags to "false” and initializes each flag value (S502). This process is the same as the process of S202 of FIG.
  • the cause estimation unit 130 determines whether or not a timeout error has occurred based on the equipment information acquired as a response to the request transmitted in the process of S108 (S504). ..
  • the cause estimation unit 130 sets the value of the cause flag (denoted as “cause flag 0” in FIG. 9) corresponding to the cause of “LAN connection error”. Is set to "true” (S506).
  • the cause estimation unit 130 leaves the value of the cause flag 0 as "false” and performs the next determination process.
  • the cause estimation unit 130 determines whether or not the main power of the equipment 20 is turned on based on the equipment information acquired from the video equipment 22 (S508).
  • the cause estimation unit 130 sets the cause flag corresponding to the cause of "main power not turned on” (in FIG. 9, " The value of "cause flag 1") is set to "true” (S510).
  • the cause estimation unit 130 leaves the value of the cause flag 1 as "false” and makes the next determination. Perform processing.
  • the cause estimation unit 130 determines whether or not the equipment 20 is compatible with the image transmission application based on the equipment information acquired from the video equipment 22 (S512).
  • the cause estimation unit 130 specifies, for example, information indicating a product number or version of the video device 22 from the acquired equipment information, and based on the specified information, whether or not the video device 22 supports an image transmission application. Can be determined.
  • the cause estimation unit 130 sets the cause flag corresponding to the cause of "application not supported" (in FIG. 9). , "Cause flag 2" is set to "true” (S514).
  • the cause estimation unit 130 leaves the value of the cause flag 2 as "false” and sets it. The following determination process is performed.
  • the cause estimation unit 130 issues a search command (a command transmitted via an image transmission application to search for a pairing target) from the terminal 70 based on the equipment information acquired from the video device 22. It is determined whether or not reception is performed (S516). When the equipment information indicating that the video device 22 has not received the search command from the terminal 70 is acquired (S516: NO), the cause estimation unit 130 sets the cause flag corresponding to the cause of "search command not received". (In FIG. 9, it is expressed as "cause flag 3") is set to "true” (S518).
  • the cause estimation unit 130 leaves the value of the cause flag 3 as "false”. Then, the following determination process is performed.
  • the cause estimation unit 130 determines whether the LAN signal input terminal is selected as the display input terminal in the video device 22 based on the equipment information acquired from the video device 22 (S518).
  • the cause estimation unit 130 causes the cause of "input terminal selection error".
  • the value of the cause flag (denoted as “cause flag 4” in FIG. 9) corresponding to is set to “true” (S522).
  • the cause estimation unit 130 sets the value of the cause flag 4. Is left as "false", and the next determination process is performed.
  • the cause estimation unit 130 confirms whether the video or audio mute function is turned off in the equipment 20 based on the equipment information acquired from the video equipment 22 (S220).
  • the cause estimation unit 130 can specify information indicating the state of the mute function of the video device 22 from the acquired equipment information, and determine whether the mute function is on or off based on the information.
  • the cause estimation unit 130 sets the cause flag corresponding to the cause of "forgot to turn off the mute function" (in FIG. 9). , "Cause flag 5" is set to "true” (S526).
  • the cause estimation unit 130 keeps the value of the cause flag 5 as “false”. After that, the processing for the estimated cause (cause flag for which the value of "true” is set) is executed.
  • FIG. 10 is a flowchart illustrating a flow in which the coping process execution unit 140 automatically removes troubles related to the output of the equipment 20.
  • the coping process execution unit 140 determines whether or not the value of the cause flag 4 is "true” (S602). When the value of the cause flag 4 is "true", the input terminal other than the LAN signal input terminal is selected as the display input terminal in the video device 22. Therefore, when the value of the cause flag 4 is "true” (S602: YES), the coping process execution unit 140 generates a control signal for switching the display input terminal to the LAN signal input terminal, and controls the control. The signal is output to the video equipment 22 (S604). When the video device 22 receives the control signal generated in the process of S604, the video device 22 switches the display input terminal to the LAN signal input terminal based on the control signal.
  • the input terminal into which the signal of the terminal 70 is input is selected as the input terminal for display.
  • the value of the cause flag 3 is "false" (S602: NO)
  • the coping process execution unit 140 does not execute the process of S304.
  • the coping process execution unit 140 determines whether or not the value of the cause flag 5 is "true” (S606). When the value of the cause flag 5 is "true”, the video or audio mute function is turned on in the video device 22. Therefore, when the value of the cause flag 5 is "true” (S606: YES), the coping process execution unit 140 generates a control signal for setting the mute function to off in the video device 22, and outputs the control signal. Output to the video device 22 (S608). When the video device 22 receives the control signal generated in the process of S608, the video device 22 sets the mute function to the off state based on the control signal. As a result, the video and audio that have been blocked by the mute function are output from the video device 22.
  • the coping process execution unit 140 determines whether or not the specific state has been resolved (S610).
  • the coping process execution unit 140 determines, for example, when the output of the image from the image device 22 can be detected as a result of analyzing the image acquired from the image pickup device 30, or as a result of analyzing the sound acquired from the smart speaker 4. It can be determined that a specific state has been resolved when the keyword (such as "healed” or "(video or sound) has come out") can be detected. Further, the coping process execution unit 140 determines, for example, whether or not there is a cause flag in which the value of "true" is set among other cause flags (specifically, cause flag 0-3).
  • the coping process execution unit 140 further executes the process as described below. On the other hand, when the specific state is resolved (S610: YES), the process described below is not executed.
  • the equipment management device 10 removes the cause. The process is executed automatically. This can reduce the work that the person in the conference room has to do to eliminate the trouble.
  • FIG. 11 is a flowchart illustrating a flow in which the coping process execution unit 140 supports the manual trouble-solving work by outputting a message to a person in the conference room.
  • the coping process execution unit 140 determines whether or not the value of the cause flag 0 is "true” (S702).
  • the value of the cause flag 0 is "true”
  • the data of the message prompting to confirm the LAN connection status (denoted as "message 0" in FIG. 11) is read, and the message 0 is output via the smart speaker 4 (S704).
  • Message 0 is, for example, "Please confirm that the video device is properly connected to the network .... Are you sure?" Such data of message 0 is stored in advance in a storage area of the equipment management device 10, such as a memory 1030 or a storage device 1040.
  • the equipment management device 10 When it is confirmed that the person in the conference room has correctly connected the video equipment 22 to the LAN 50, the equipment management device 10 outputs a request for transmitting equipment information to the video equipment 22 again, and the equipment information from the video equipment 22. (S108 in FIG. 3). After that, the process of estimating the cause based on the equipment information acquired from the video equipment 22 as described with reference to FIG. 5 is executed again.
  • the video device 22 is correctly connected to the LAN 50, so that the equipment management device 10 can acquire the equipment information from the video device 22. There is. In this case, the determination process relating to the cause flags 1 to 3 is executed in the flowchart of FIG. Therefore, the coping process execution unit 140 determines whether or not the value of the cause flag 1 is "true” (S706). When the value of the cause flag 1 is "true”, it means that the main power of the video equipment 22 is not turned on.
  • the coping process execution unit 140 prompts the user to confirm the on / off state of the main power supply of the video device 22 (denoted as “message 1" in FIG. 11). ) Is read, and the message 1 is output via the smart speaker 4 (S708).
  • Message 1 is, for example, "Is the power of the video equipment turned on?” Or “Please turn on the power of the video equipment .... Are you sure?"
  • the data of such a message 1 is stored in advance in a storage area of the equipment management device 10, such as a memory 1030 or a storage device 1040.
  • the coping process execution unit 140 picked up with the smart speaker 4 that the value of the cause flag 1 was "false” (S706: NO) or that a person in the conference room gave a positive reply to the message 1.
  • the value of the cause flag 2 is "true”
  • the coping process execution unit 140 prompts the video device 22 to change the signal transmission path (in FIG. 11, "message 2").
  • the data of (notation) is read out, and the message 2 is output via the smart speaker 4 (S712).
  • the message 2 is, for example, "The video device does not support the image transmission application. Please connect by another method.”
  • the data of such a message 2 is stored in advance in a storage area of the equipment management device 10, such as a memory 1030 or a storage device 1040.
  • the coping process execution unit 140 determines whether or not the value of the cause flag 3 is "true” (S714). When the value of the cause flag 3 is "true”, it means that the video device 22 and the terminal 70 have not been paired. When the value of the cause flag 3 is "true” (S714: YES), the coping process execution unit 140 has a message for solving the problem related to the pairing between the terminal 70 and the video device 22 ("Message 3" in FIG. 11). ”) Is read, and the message 3 is output via the smart speaker 4 (S716).
  • the message 3 is, for example, "If the video device cannot be found in the image transmission application, specify the IP address (xxx.xxx.xxx.xxx) and search for it. Are you sure?"
  • the data of such a message 3 is stored in advance in a storage area of the equipment management device 10, such as a memory 1030 or a storage device 1040.
  • the coping processing execution unit 140 can set the IP address of the video device 22 based on the information of the video device 22 registered in advance in the equipment management device 10.
  • the coping process execution unit 140 has detected from the voice picked up by the smart speaker 4 that the value of the cause flag 3 is "false” or that a person in the conference room has made a positive reply to the message 3. In this case, it is determined whether or not the specific state has been resolved (S718).
  • the coping process execution unit 140 determines, for example, when the output of the image from the image device 22 can be detected as a result of analyzing the image acquired from the image pickup device 30, or as a result of analyzing the sound acquired from the smart speaker 4. It can be determined that a specific state has been resolved when the keyword (such as "healed” or "(video or sound) has come out”) can be detected.
  • the coping process execution unit 140 ends the process.
  • the coping process execution unit 140 sends the video device 22 to the terminal of the person in charge (equipment manager) who manages various facilities installed in the conference room. Notify that a trouble has occurred (S720).
  • the equipment manager who is familiar with the equipment including the video equipment 22 can be called to eliminate the trouble at an early stage. ..
  • the process of estimating the cause of the trouble (example: FIGS. 5 and 9), the process of automatically removing the trouble (example: FIG. 6 and FIG. 10), and the process of manually removing the trouble (example: FIG. 6 and FIG. 10).
  • the coping process execution unit 140 may be configured to collect additional information from a person in the conference room and execute further coping processing using the additional information.
  • the cause of "there is no input signal to the video device” is, for example, "the video device and the source device are not connected by a cable” or "the cable connecting the video device and the source device is abnormal". It can be subdivided into more detailed multiple causes.
  • the processing execution unit 140 outputs an inquiry-type message such as "Please connect your terminal and the video device with a cable .... Are you sure?", The audio collection of the smart speaker 4 or the like is performed.
  • the device is used to collect response voices from people in the conference room as additional information.
  • the action processing execution unit 140 is specified by a cause other than the cause of "the video device and the source device are not connected by a cable". It can be determined that the condition has occurred. In other words, the coping process execution unit 140 can narrow down the cause of the specific state by using the collected additional information. Then, the coping process execution unit 140 outputs a further message such as "Please replace the cable connected to the video device with another cable ... Are you sure?". With such a configuration, it is possible to take appropriate measures against a specific state (trouble) that has occurred in the equipment provided in the conference room.
  • the plurality of components disclosed in the embodiment can form various inventions by an appropriate combination. For example, some components may be deleted from all the components shown in the embodiment, or components of different embodiments may be combined as appropriate.
  • An information gathering means for acquiring the video of the conference room or the audio of the conference room, A specific state detecting means for detecting that the equipment provided in the conference room is in a specific state based on the analysis result of the video or the sound, and When it is detected that the equipment is in a specific state, the cause estimation means for acquiring the equipment information about the equipment and estimating the cause of the specific state based on the equipment information, A coping process execution means for selecting and executing a coping process to be executed based on the estimated cause, and a coping process execution means.
  • Equipment management device equipped with 2.
  • the coping process execution means When the presumed cause is related to the software setting of the equipment, a process of generating a control signal for changing the software setting of the equipment and transmitting the control signal to the equipment is executed. When the estimated cause is not related to the software setting of the equipment, a process of outputting a message regarding a point to be confirmed in order to eliminate the estimated cause via an output device is executed. 1. 1. Equipment management device described in. 3. 3. The coping process executing means executes a process of outputting the message when the specific state is not resolved by the control signal for changing the software setting of the equipment. 2. Equipment management device described in. 4.
  • the coping process executing means notifies the terminal of the person who manages the equipment when the specific state is not resolved by the coping taken by the person in the conference room in response to the message.
  • Equipment management device described in. 5 The equipment information is information indicating the state of hardware or software of the equipment. 1. 1. From 4. The equipment management device according to any one of the above. 6. If the equipment is video equipment
  • the equipment information includes information indicating a network connection state of the video device, information indicating a power supply state of the video device, information indicating the presence / absence of an input signal to the video device, and information indicating a selection state of an input terminal that receives an input signal.
  • the coping process execution means uses information that stores the cause of a specific state and the coping process for the cause in association with each content of the specific state assumed for the equipment, and the coping process to be executed. To select, 1. 1. From 8. The equipment management device according to any one of the above. 10. The computer Acquire the video of the conference room or the audio of the conference room, Based on the analysis result of the video or the audio, it is detected that the equipment provided in the conference room is in a specific state. When it is detected that the equipment is in a specific state, the equipment information about the equipment is acquired, and the cause of the specific state is estimated based on the equipment information. Select and execute the action to be taken based on the estimated cause. Equipment management methods including that. 11.
  • the computer When the presumed cause is related to the software setting of the equipment, a process of generating a control signal for changing the software setting of the equipment and transmitting the control signal to the equipment is executed. When the estimated cause is not related to the software setting of the equipment, a process of outputting a message regarding a point to be confirmed in order to eliminate the estimated cause via an output device is executed. Including 10. Equipment management method described in. 12. The computer When the specific state is not resolved by the control signal for changing the software setting of the equipment, the process of outputting the message is executed. Including 11. Equipment management method described in. 13. The computer If the specific state is not resolved by the measures taken by the person in the conference room in response to the message, the terminal of the person who manages the equipment is notified. Including 12.
  • the equipment information is information indicating the state of hardware or software of the equipment. 10. To 13. The equipment management method according to any one of the above. 15. If the equipment is video equipment The equipment information includes information indicating a network connection state of the video device, information indicating a power supply state of the video device, information indicating the presence / absence of an input signal to the video device, and information indicating a selection state of an input terminal that receives an input signal. , Information indicating the execution status of the video or audio mute function, information indicating the compatibility of the image transmission application, and information indicating the reception status of the search command from the external device that transmits the video signal. , 14. Equipment management method described in. 16.
  • the computer If there are multiple probable causes, obtain additional information and Use the additional information to select and execute further action. Including 10. To 15. The equipment management method according to any one of the above. 17. The additional information is obtained by accepting answers to a plurality of questions selected based on the probable cause from any device in the conference room. 16. Equipment management method described in. 18. The computer The countermeasure process to be executed is selected by using the information stored in which the cause of the specific state and the countermeasure process for the cause are associated with each content of the specific state assumed for the equipment. Including 10. From 17. The equipment management method according to any one of the above. 19.
  • Computer, Information gathering means for acquiring video of a conference room or audio of the conference room
  • a trouble detecting means for detecting that the equipment provided in the conference room is in a specific state based on the analysis result of the video or the audio.
  • a cause estimation means that acquires equipment information about the equipment and estimates the cause of the specific state based on the equipment information.
  • a coping process execution means that selects and executes a coping process to be executed based on the probable cause.
  • the coping process execution means When the presumed cause is related to the software setting of the equipment, a process of generating a control signal for changing the software setting of the equipment and transmitting the control signal to the equipment is executed.
  • a process of outputting a message regarding a point to be confirmed in order to eliminate the estimated cause via an output device is executed. 19.
  • the coping process executing means executes a process of outputting the message when the specific state is not resolved by the control signal for changing the software setting of the equipment.
  • the coping process executing means notifies the terminal of the person who manages the equipment when the specific state is not resolved by the coping taken by the person in the conference room in response to the message.
  • the equipment information is information indicating the state of hardware or software of the equipment. 19. From 22.
  • the equipment information includes information indicating a network connection state of the video device, information indicating a power supply state of the video device, information indicating the presence / absence of an input signal to the video device, and information indicating a selection state of an input terminal that receives an input signal. , Information indicating the execution status of the video or audio mute function, information indicating the compatibility of the image transmission application, and information indicating the reception status of the search command from the external device that transmits the video signal. , 23.
  • the coping process execution means If there are multiple probable causes, obtain additional information and Use the additional information to select and execute further action. 19. From 24.
  • the additional information is obtained by accepting answers to a plurality of questions selected based on the probable cause from any device in the conference room. 25.
  • the coping process execution means uses information that stores the cause of a specific state and the coping process for the cause in association with each content of the specific state assumed for the equipment, and the coping process to be executed. To select, 19. From 26.
  • Information processing device 1010 Bus 1020 Processor 1030 Memory 1040 Storage device 1050 Input / output interface 1060 Network interface 110 Information collection unit 120 Specific state detection unit 130 Cause estimation unit 140 Action processing execution unit 20 Video equipment 30 Imaging device 4 Smart speaker 40 Microphone 42 Speaker 50 LAN 60 access points 70 terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

設備管理装置(10)は、情報収集部(110)、特定状態検出部(120)、原因推定部(130)および対処処理実行部(140)を有する。情報収集部(110)は、会議室の映像または前記会議室の音声を取得する。特定状態検出部(120)は、前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出する。原因推定部(130)は、前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定する。対処処理実行部(140)は、前記推定された原因に基づいて実行すべき対処処理を選択して実行する。

Description

設備管理装置、設備管理方法およびプログラム
 本発明は、設備管理システム、設備管理方法およびプログラムに関する。
 会議室には、モニターやプロジェクタといった映像機器、空調機器、および照明機器といった様々な設備が備えられていることがある。会議室に設置された設備を管理する技術の一例が、例えば、下記特許文献1に開示されている。特許文献1には、障害発生の有無と障害発生箇所を容易かつ迅速に検出する自己診断機能付きのテレビ会議システムが開示されている。
特開平10-191297号公報
 会議室に備えられた設備を使用する際に、異常(トラブル)が発生し得る。例えば、映像機器を使って会議やプレゼンテーションで利用する資料や映像などを出力する際、様々な原因で出力が所望の状態にならないことが起こり得る。この場合、その原因を特定して除去する必要があるが、映像機器の取り扱いになれていない場合、この作業に必要以上の時間がかかってしまうこともある。
 本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、会議室に設けられた設備に異常が発生した場合に、その原因を特定して除去する作業を支援する技術を提供することである。
 本発明の設備管理装置は、
 会議室の映像または前記会議室の音声を取得する情報収集手段と、
 前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出する特定状態検出手段と、
 前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定する原因推定手段と、
 前記推定された原因に基づいて実行すべき対処処理を選択して実行する対処処理実行手段と、
 を備える。
 本発明の設備管理方法は、
 コンピュータが、
  会議室の映像または前記会議室の音声を取得し、
 前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出し、
 前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定し、
 前記推定された原因に基づいて実行すべき対処処理を選択して実行する、
 ことを含む。
 本発明のプログラムは、
 コンピュータを、
 会議室の映像または前記会議室の音声を取得する情報収集手段、
 前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出するトラブル検出手段、
 前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定する原因推定手段、
 前記推定された原因に基づいて実行すべき対処処理を選択して実行する対処処理実行手段、
 として機能させる。
 本発明によれば、会議室に設けられた設備に異常が生じた場合に、その原因を特定して除去する作業にかかる負荷を低減させることができる。
本発明に係る設備管理装置の機能構成を例示する図である。 設備管理装置のハードウエア構成を例示するブロック図である。 設備管理装置により実行される処理の流れを例示するフローチャートである。 本発明に係る設備管理装置を用いたシステム構成例を示す図である。 図3のS110の処理の詳細な流れの一例を示すフローチャートである。 対処処理実行部が映像機器の出力に関するトラブルを自動的に除去する流れを例示するフローチャートである。 対処処理実行部が会議室内の人物に対してメッセージを出力することによって人手によるトラブル解消作業を支援する流れを例示するフローチャートである。 本発明に係る設備管理装置を用いたシステム構成例を示す図である。 図3のS110の処理の詳細な流れの一例を示すフローチャートである。 対処処理実行部が映像機器の出力に関するトラブルを自動的に除去する流れを例示するフローチャートである。 対処処理実行部が会議室内の人物に対してメッセージを出力することによって人手によるトラブル解消作業を支援する流れを例示するフローチャートである。 対処処理実行部が実行すべき対処処理を特定する際に参照するテーブルの一例を示す図である。
 以下、本発明の実施形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
 [発明概要]
 <機能構成例>
 図1は、本発明に係る設備管理装置の機能構成を例示する図である。本発明に係る設備管理装置は、会議室に設けられた設備を管理する機能を有する。ここで、本明細書において述べる「設備」には、モニターやプロジェクタといった映像機器、空調、および照明などが含まれる。図1に示されるように、本発明に係る設備管理装置10は、情報収集部110、特定状態検出部120、原因推定部130および対処処理実行部140を有する。
 情報収集部110は、会議室の映像または会議室の音声を取得する。一例として、情報収集部110は、会議室の天井や壁などに設置された撮像装置と通信し、当該撮像装置によって生成される会議室の映像データを取得する。他の一例として、情報収集部110は、会議室内に設置されたマイクロフォンと通信し、当該マイクロフォンによって生成される会議室の音声データを取得する。
 特定状態検出部120は、情報収集部110により取得された映像または音声を解析する。そして、特定状態検出部120は、当該映像または音声の解析結果に基づいて、会議室に設けられた設備が特定の状態であることを検出する。ここで「特定の状態」の具体例としては、例えば設備が映像機器である場合は、映像および音声の少なくとも一方が出力されていない状態、並びに、映像および音声の少なくとも一方に異常がある状態などが挙げられる。また、設備が空調機器である場合は、例えば、空調が効いていない(設定温度に到達するまでの時間かかりすぎる)状態、会議室内の温度が不快な(会議出席者にとって暑すぎる/寒すぎる)状態などが挙げられる。また、設備が照明機器である場合は、照明が点灯しない状態、照明が明滅している状態、照明が不快な(照明の強度が強すぎる/弱すぎる)状態などである。
 原因推定部130は、会議室内の設備が特定の状態であることが検出された場合、まず、特定の状態が検出された設備に関する設備情報を取得する。そして、原因推定部130は、取得した設備情報に基づいて、上述の特定の状態の原因を推定する。原因推定部130により実行される処理の具体例、および、設備情報の具体例については後述する。
 対処処理実行部140は、原因推定部130によって推定された原因に基づいて実行すべき対処処理(原因を除去するための処理)を選択して実行する。対処処理実行部140により実行される処理の具体例については後述する。
 〔ハードウエア構成例〕
 設備管理装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、設備管理装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図2は、設備管理装置10のハードウエア構成を例示するブロック図である。設備管理装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
 バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
 メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
 ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は設備管理装置10の各機能(情報収集部110、特定状態検出部120、原因推定部130、対処処理実行部140など)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、各プログラムモジュールに対応する各機能が実現される。
 入出力インタフェース1050は、設備管理装置10と各種入出力機器とを接続するためのインタフェースである。
 ネットワークインタフェース1060は、設備管理装置10をネットワーク上の他の装置(例えば、設備20、撮像装置30、およびマイクロフォン40など)に接続するためのインタフェースである。このネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 <処理の流れ>
 以下、本発明に係る設備管理装置10の処理の流れについて説明する。図3は、設備管理装置10により実行される処理の流れを例示するフローチャートである。
 まず、情報収集部110は、会議室の映像データまたは会議室の音声データを取得する(S102)。会議室の映像データは、会議室に設けられた撮像装置30によって生成される。また、会議室の音声データは、会議室に設けられたマイクロフォン40によって生成される。情報収集部110は、撮像装置30やマイクロフォン40とネットワークを介して接続されている。情報収集部110は、撮像装置30から会議室の映像データを取得し、マイクロフォン40から会議室の音声データを取得する。
 特定状態検出部120は、S102の処理で取得された会議室の映像または会議室の音声を解析し、その解析結果に基づいて特定の状態が発生しているか否かを判定する(S104-S106)。例えば、特定状態検出部120は、映像データを入力として特定の状態が発生しているか否かの判定結果を出力するように構築された機械学習モデルを用いて、映像機器の出力に特定の状態が発生したことを検出できる。例えば、設備20が映像機器である場合、特定状態検出部120は、会議の開始時刻から所定時間(例えば、数分~十数分間)を過ぎても映像機器から何も出力されていないことが映像から検出された場合に、特定の状態が発生したと判断する。ここで、会議の開始時刻は、例えば、図示しない会議予約システムと連携することで取得される。また、特定状態検出部120は、会議室に持ち込まれた端末(ノートPCやタブレット端末など)と映像機器とが接続されていることを映像から検出してから所定時間(例えば、数分~十数分間)を過ぎても映像機器から何も出力されていないことが映像から検出された場合に、特定の状態が発生したと判断する。なお、特定状態検出部120が、会議室の映像から特定の状態を検出する方法については、ここで挙げた例に制限されない。他の一例として、特定状態検出部120は、上述の“特定の状態”が発生したと推測できる所定のキーワード(例:「映らない」、「音がでない」、「目がちかちかする」、「暗い」、「暑い」、「寒い」など)を音声データから検出することによって、設備20について特定の状態が発生したことを検出できる。この場合、特定状態検出部120は、マイクロフォン40により生成された音声データを既知の音声認識技術を使ってテキストデータに変換し、当該テキストデータに所定のキーワードが含まれているか否かを判定する。なお、特定状態検出部120が、会議室の音声から特定の状態を検出する方法については、ここで挙げた例に制限されない。
 特定の状態が検出されなかった場合(S106:NO)、以降で説明する処理は実行されない。この場合、設備管理装置10は、撮像装置30またはマイクロフォン40から継続して取得される映像または音声を使って、設備20に関する監視を続行する。
 一方、特定の状態が検出された場合(S106:YES)、原因推定部130は、特定の状態が検出された設備20に対して、当該設備20に関する設備情報の送信を要求する(S108)。そして、原因推定部130は、S108の要求に対する応答として取得した設備20の設備情報に基づいて、特定の状態の原因を推定する(S110)。この原因推定部130の詳細な処理については、後述の具体例で説明する。
 そして、対処処理実行部140は、原因推定部130により推定された原因に応じた対処処理を選択して実行する(S112)。対処処理実行部140は、例えば図12に示されるようなテーブルを参照して、推定された原因に応じた対処方法を選択することができる。図12は、対処処理実行部140が実行すべき対処処理を特定する際に参照するテーブルの一例を示す図である。図12に例示されるテーブルは、会議室に設けられた設備毎に、想定される特定の状態(トラブル)の内容を記憶している。また、当該テーブルは、特定の状態(トラブル)の内容ごとに、推定される原因とその原因に対する対処処理に関する情報とを対応付けて記憶している。対処処理実行部140は、図12に例示されるようなテーブルを用いて、原因推定部130によるトラブルの原因の推定結果に対応する対処処理(実行すべき対処処理)を特定することができる。
 以上、本実施形態では、会議室の映像または音声から当該会議室に設置された設備が特定の状態(映像機器であれば出力がない状態など)であると判定された場合、設備管理装置10によって、当該設備の設備情報に基づいて特定の状態の原因が推定され、その原因を除去する処理が実行される。つまり、会議室に設けられた設備に関する何らかのトラブルが発生した場合に、設備管理装置10によって、そのトラブルの原因の推定と除去が自動的に実行される。これにより、会議室内に設けられた設備に関するトラブルを解消する作業にかかる時間を短縮する効果が見込める。
 以下、本発明に係る設備管理装置10を用いたシステムの構成について、いくつかの具体例を挙げて説明する。
 <第1の具体例>
 <<システム構成例>>
 図4は、本発明に係る設備管理装置10を用いたシステム構成例を示す図である。図4の例において、会議室には、映像機器22(設備20の一種)、撮像装置30、並びに、マイクロフォン40およびスピーカー42を有するスマートスピーカー4が設置されている。設備管理装置10は、これら映像機器22、撮像装置30およびスマートスピーカー4と、LAN50を介して接続されている。また、本図の例において、会議室には無線LANのアクセスポイント60が設けられている。映像機器22、撮像装置30、およびスマートスピーカー4は、図示しない有線LANポートを介してLAN50に接続されていてもよいし、アクセスポイント60を介してLAN50に接続されていてもよい。
 本図の例において、設備管理装置10は、上述した各機能処理部のほか、会議室内の他の設備(例えば、図示しない照明機器や暖房機器など)を管理する機能を備えている。設備管理装置10は、LAN50を介して、会議室内の各設備(例えば、映像機器22、撮像装置30、スマートスピーカー4など)と接続される。設備管理装置10は、LAN50を介して、映像機器22の設備情報、撮像装置30により生成された映像、スマートスピーカー4により収集された音声データなどを取得することができる。
 図4の例において、映像機器22はモニターである。なお、本図の例において、映像機器22はモニター以外の機器(例えば、プロジェクタなど)であってもよい。映像機器22は、端末70から入力される入力信号に基づいて、映像または音声と映像を出力する。映像機器22は有線によってLAN50に接続されている。映像機器22が無線LANモジュールを搭載している場合、映像機器22はアクセスポイント60を介してLAN50に接続されていてもよい。映像機器22を会議室に設置するにあたり、その設備20を識別する情報(例えば、映像機器22固有の製品製造番号や任意に割り当てられた一意の識別番号など)が、当該会議室の場所を示す情報と共に設備管理装置10に予め登録される。これにより、設備管理装置10において、映像機器22と会議室とが対応付けられる。映像機器22は、LAN50を介して接続されている設備管理装置10からの要求に応じて、機器のハードウエアまたはソフトウエアの状態を示す情報(設備情報)を設備管理装置10に送信する。
 端末70は、映像機器22に表示させるデータを記憶しており、映像ケーブルによって映像機器22と接続される。なお、端末70が無線LANモジュールを搭載している場合、端末70は、アクセスポイント60およびLAN50を介して、映像機器22と通信してもよい。また、端末70は、LAN50を介して外部装置(図示せず)と通信して、当該外部装置に記憶されている表示用データを取得し、取得した表示用データを映像機器22に出力することもできる。
 撮像装置30は、会議室に設置された映像機器22の出力状態を監視するため、当該会議室を全体的に撮影可能な位置に設けられる。例えば、撮像装置30は、全方位を撮影可能に構成された全方位カメラである。また、撮像装置30は、PTZ(Pan-Tilt-Zoom)機能を備えるPTZカメラであってもよい。図4の例において、撮像装置30は有線によってLAN50に接続されている。撮像装置30が無線LANモジュールを搭載している場合、撮像装置30はアクセスポイント60を介してLAN50に接続されていてもよい。撮像装置30を会議室に設置するにあたり、その撮像装置30を識別する情報(例えば、撮像装置30固有の製品製造番号や任意に割り当てられた一意の識別番号など)が、当該会議室の場所を示す情報と共に設備管理装置10に予め登録される。これにより、設備管理装置10において、撮像装置30と会議室とが対応付けられる。撮像装置30は、生成した映像を、LAN50を介して接続されている設備管理装置10に送信する。なお、撮像装置30が、画像処理用のプロセッサを搭載する所謂インテリジェントカメラである場合、当該プロセッサによって映像を解析した結果(例えば、特定の状態が検出されたか否か)を、設備管理装置10に送信するように構成されていてもよい。
 スマートスピーカー4は、会議室に設置された映像機器22の出力状態を監視するために設けられる。また、スマートスピーカー4は、後述するように、会議室の利用者と音声メッセージを使った対話を行い、映像機器22の出力に関するトラブルの解消するための作業を手助けする。スマートスピーカー4は、会議室の音声を収集するためのマイクロフォン40と、音声メッセージを出力するためのスピーカー42とを含んでいる。図4の例において、スマートスピーカー4はアクセスポイント60を介してLAN50に接続されている。スマートスピーカー4は、有線によってLAN50に接続されていてもよい。スマートスピーカー4を会議室に設置するにあたり、そのスマートスピーカー4を識別する情報(例えば、スマートスピーカー4固有の製品製造番号や任意に割り当てられた一意の識別番号など)が、当該会議室の場所を示す情報と共に設備管理装置10に予め登録される。これにより、設備管理装置10において、スマートスピーカー4と会議室とが対応付けられる。
 <<特定の状態を解決する処理の流れ>>
 以下、設備管理装置10が、映像機器22の出力について特定の状態(トラブル)が検出された場合に、その特定の状態を解消する流れについて説明する。
 図5は、図3のS110の処理の詳細な流れの一例を示すフローチャートである。
 まず、原因推定部130は、全ての原因フラグの値を「false」に設定し、各フラグ値を初期化する(S202)。原因フラグは、例えば原因推定部130のプログラムモジュールにおいて、映像機器22の出力に関するトラブルの原因毎に用意されている。後述するように、原因推定部130は、映像機器22の出力に関するトラブルの原因として推定したものに対応する原因フラグの値を「true」に設定することで、どの原因が推定されたかを判別可能とする。
 全ての原因フラグの値を初期化した後、原因推定部130は、S108の処理で送信した要求に対する応答として取得した設備情報に基づいて、タイムアウトエラーが発生したか否かを判定する(S204)。例えば映像機器22がLAN50に正常に接続できていない場合、設備管理装置10(原因推定部130)から送信した要求は映像機器22に届かず、一定時間経過後にタイムアウトエラーが発生する。この場合、原因推定部130は、タイムアウトエラーを示す情報(映像機器22のネットワーク接続状態を示す情報)を設備情報として取得することになる。よって、タイムアウトエラーが発生し、タイムアウトエラーを示す設備情報が取得された場合(S204:YES)、原因推定部130は、“LAN接続異常”という原因に対応する原因フラグ(図5では、「原因フラグ0」と表記)の値を「true」に設定する(S206)。なお、この場合、映像機器22と通信が不可能な状態であり、映像機器22からその他の状態を示す設備情報を得ることはできないため、特定の状態の原因を推定する処理は終了する。一方、タイムアウトエラーを示す設備情報が取得されていない場合(S204:NO)、原因推定部130は、原因フラグ0の値を「false」のままにして、次の判定処理を行う。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、映像機器22の主電源が入っているか否かを判定する(S208)。原因推定部130は、取得した設備情報の中から映像機器22の主電源の状態を示す情報を特定し、当該特定した情報に基づいて、映像機器22の主電源が入っているか否かを判定することができる。映像機器の主電源が入っていないことを示す設備情報が取得された場合(S208:NO)、原因推定部130は、“主電源未投入”という原因に対応する原因フラグ(図5では、「原因フラグ1」と表記)の値を「true」に設定する(S210)。一方、映像機器の主電源が入っていることを示す設備情報が取得された場合(S208:YES)、原因推定部130は、原因フラグ1の値を「false」のままにして、次の判定処理を行う。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、映像機器22に対する入力信号が存在するか否かを判定する(S212)。原因推定部130は、取得した設備情報の中から入力信号の有無を示す情報を特定し、当該特定した情報に基づいて、映像機器22に対して入力信号が存在するか否かを判定することができる。映像機器22に対して入力信号が存在しないことを示す設備情報が取得された場合(S212:NO)、原因推定部130は、“入力信号なし”という原因に対応する原因フラグ(図5では、「原因フラグ2」と表記)の値を「true」に設定する(S214)。一方、映像機器22に対して入力信号が存在することを示す設備情報が取得された場合(S212:YES)、原因推定部130は、原因フラグ2の値を「false」のままにして、次の判定処理を行う。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、映像機器22において、端末70から出力された信号を受けている入力端子が表示用の入力端子として選択されているかを判定する(S216)。映像機器22が、複数の入力端子(例えば、HDMI(登録商標)(High-Definition Multimedia Interface)端子、DVI(Digital Visual Interface)端子、DisplayPort端子など)を有している場合、表示用の入力端子として選択されている入力端子に信号が入力されていなければ、映像や音声が出力されない。原因推定部130は、取得した設備情報を基に、端末70からの信号が入力されている入力端子と現在選択されている表示用の入力端子とを特定し、特定したこれらの入力端子が一致しているか否かを判定する。端末70からの信号が入力されている入力端子と表示用の入力端子として選択されている入力端子とが異なることを示す設備情報が取得された場合(S216:NO)、原因推定部130は、“入力端子選択誤り”という原因に対応する原因フラグ(図5では、「原因フラグ3」と表記)の値を「true」に設定する(S218)。一方、端末70からの信号が入力されている入力端子と表示用の入力端子として選択されている入力端子とが一致していることを示す設備情報が取得された場合(S216:YES)、原因推定部130は、原因フラグ3の値を「false」のままにして、次の判定処理を行う。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、映像機器22において映像または音声のミュート機能がオフ状態となっているかを確認する(S220)。原因推定部130は、取得した設備情報の中から、映像機器22のミュート機能の状態を示す情報を特定し、その情報を基にミュート機能がオン状態かオフ状態かを判定することができる。映像機器22においてミュート機能がオン状態であることを示す設備情報が取得された場合(S220:NO)、原因推定部130は、“ミュート機能の切り忘れ”という原因に対応する原因フラグ(図5では、「原因フラグ4」と表記)の値を「true」に設定する(S222)。一方、映像機器22においてミュート機能がオフ状態であることを示す設備情報が取得された場合(S220:YES)、原因推定部130は、原因フラグ4の値を「false」のままとする。この後、推定された原因(「true」の値が設定された原因フラグ)に対する処理が実行される。
 図5のフローチャートにおける「原因フラグ3」および「原因フラグ4」は映像機器22のソフトウエア設定に関する原因である。そのため、設備管理装置10が、映像機器22のソフトウエア設定を適切な設定に切り替える制御信号を生成して映像機器22に送信することによって、映像機器22の出力に関するトラブルを解消できる。この処理の流れについて以下で説明する。図6は、対処処理実行部140が映像機器22の出力に関するトラブルを自動的に除去する流れを例示するフローチャートである。
 対処処理実行部140は、原因フラグ3の値が「true」となっているか否かを判定する(S302)。原因フラグ3の値が「true」となっている場合、映像機器22において、信号が入力されている入力端子と異なる入力端子が、表示用の入力端子として選択されている。よって、原因フラグ3の値が「true」となっている場合(S302:YES)、対処処理実行部140は、表示用の入力端子を信号が入力されている入力端子に切り替える制御信号を生成し、当該制御信号を映像機器22に出力する(S304)。映像機器22は、S304の処理で生成された制御信号を受信すると、その制御信号に基づいて表示用の入力端子を切り替える。これにより、信号が入力されている入力端子が表示用の入力端子として選択される。なお、原因フラグ3の値が「false」となっている場合(S302:NO)、対処処理実行部140はS304の処理を実行しない。
 また、対処処理実行部140は、原因フラグ4の値が「true」となっているか否かを判定する(S306)。原因フラグ4の値が「true」となっている場合、映像機器22において、映像または音声のミュート機能がオン状態となっている。よって、原因フラグ4の値が「true」となっている場合(S306:YES)、対処処理実行部140は、映像機器22においてミュート機能をオフに設定する制御信号を生成し、当該制御信号を映像機器22に出力する(S308)。映像機器22は、S308の処理で生成された制御信号を受信すると、その制御信号に基づいてミュート機能をオフ状態に設定する。これにより、ミュート機能によって遮断されていた映像や音声が映像機器22から出力されるようになる。
 その後、対処処理実行部140は、特定の状態が解消されたか否かを判定する(S310)。対処処理実行部140は、例えば、撮像装置30から取得した映像を解析した結果、映像機器22からの映像の出力を検出できた場合、または、スマートスピーカー4から取得した音声を解析した結果、所定のキーワード(「なおった」や「(映像または音が)出た」など)を検出できた場合に、特定の状態が解消されたと判断できる。また、対処処理実行部140は、例えば、その他の原因フラグ(具体的には、原因フラグ0-2)の中で「true」の値が設定された原因フラグがあるか否かを判定し、該当する原因フラグが存在する場合には、特定の状態が解消されていないと判断することができる。特定の状態が解消されていない場合(S310:NO)、対処処理実行部140は、以下で説明するような処理をさらに実行する。一方、特定の状態が解消されている場合(S310:YES)、以下で説明するような処理は実行されない。
 このように本発明に係る設備管理装置10は、映像機器22(会議室に設けられた設備)に関するトラブルの原因が当該映像機器22のソフトウエア設定に関する原因であった場合、その原因を除去する処理を自動的に実行する。これにより、会議室にいる人物がトラブルを除去するために行うべき作業を減らすことができる。
 図5のフローチャートにおける「原因フラグ0」乃至「原因フラグ2」は映像機器22のソフトウエア設定に関連しない、ハードウエア設定に関する原因である。そのため、これらの原因が推定された場合、会議室にいる人物が、ハードウエアの設定誤りを直す必要がある。そこで、対処処理実行部140は、推定された原因を除去するために確認すべきポイントなどを通知するメッセージをスマートスピーカー4を用いて出力し、会議室で実際にトラブルの解消にあたる人物を支援する。図7は、対処処理実行部140が会議室内の人物に対してメッセージを出力することによって人手によるトラブル解消作業を支援する流れを例示するフローチャートである。
 まず、対処処理実行部140は、原因フラグ0の値が「true」となっているか否かを判定する(S402)。原因フラグ0の値が「true」であることは、映像機器22がLAN50に正しく接続されておらず、映像機器22から設備情報が取得できなかったことを意味する。映像機器22の出力に関するトラブルの原因を特定するために設備情報が必要となるため、原因フラグ0の値が「true」である場合(S402:YES)、対処処理実行部140は、映像機器22のLAN接続状態を確認するよう促すメッセージ(図7では「メッセージ0」と表記)のデータを読み出し、当該メッセージ0をスマートスピーカー4を介して出力する(S404)。メッセージ0は、例えば、「映像機器がネットワークに正しく接続されていることを確認してください。・・・よろしいですか?」などである。このようなメッセージ0のデータは、例えばメモリ1030やストレージデバイス1040といった、設備管理装置10の記憶領域に予め記憶されている。会議室にいる人物が映像機器22をLAN50に正しく接続したことが確認されると、設備管理装置10は、映像機器22に対して設備情報の送信要求を再度出力し、映像機器22から設備情報を取得する(図3のS108)。その後、図5を用いて説明したような、映像機器22から取得した設備情報を基に原因を推定する処理が再度実行される。
 一方、原因フラグ0の値が「false」である場合(S402:NO)、映像機器22はLAN50に正しく接続されているため、設備管理装置10は、当該映像機器22から設備情報を取得できている。この場合、図5のフローチャートにおいて原因フラグ1および2に関する判定処理が実行されている。そこで、対処処理実行部140は、原因フラグ1の値が「true」となっているか否かを判定する(S406)。原因フラグ1の値が「true」であることは、映像機器22の主電源が入っていないことを意味する。原因フラグ1の値が「true」である場合(S406:YES)、対処処理実行部140は、映像機器22の主電源のオンオフ状態を確認するよう促すメッセージ(図7では「メッセージ1」と表記)のデータを読み出し、当該メッセージ1をスマートスピーカー4を介して出力する(S408)。メッセージ1は、例えば、「映像機器の電源を入っていますか?」や「映像機器の電源をいれてください。・・・よろしいですか?」などである。このようなメッセージ1のデータは、例えばメモリ1030やストレージデバイス1040といった、設備管理装置10の記憶領域に予め記憶されている。
 対処処理実行部140は、原因フラグ1の値が「false」の場合(S406:NO)、或いは、メッセージ1に対して会議室内の人物が肯定の返事を行ったことをスマートスピーカー4で拾った音声から検出した場合、原因フラグ2の値が「true」となっているか否かを判定する(S410)。原因フラグ2の値が「true」であることは、映像機器22に対する入力信号が存在していないことを意味する。原因フラグ2の値が「true」である場合(S410:YES)、対処処理実行部140は、映像機器22に対する入力信号の経路を確認するように促すメッセージ(図7では、「メッセージ2」と表記)のデータを読み出し、当該メッセージ2をスマートスピーカー4を介して出力する(S412)。メッセージ2は、例えば、「映像機器で入力信号を検出できません。ケーブルは正しく接続されていますか?」や「お手持ちの端末と映像機器とをケーブルで接続してください。・・・よろしいですか?」などである。このようなメッセージ2のデータは、例えばメモリ1030やストレージデバイス1040といった、設備管理装置10の記憶領域に予め記憶されている。
 そして、原因フラグ2の値が「false」の場合(S410:NO)、或いは、メッセージ2に対して会議室内の人物が肯定の返事を行ったことをスマートスピーカー4で拾った音声から検出した場合、対処処理実行部140は、特定の状態が解消されたか否かを判定する(S414)。対処処理実行部140は、例えば、撮像装置30から取得した映像を解析した結果、映像機器22からの映像の出力を検出できた場合、または、スマートスピーカー4から取得した音声を解析した結果、所定のキーワード(「なおった」や「(映像または音が)出た」など)を検出できた場合に、特定の状態が解消されたと判断できる。ここで、特定の状態が解消された場合(S414:YES)、対処処理実行部140は処理を終了する。一方、特定の状態が解消されていない場合(S414:NO)、対処処理実行部140は、会議室に設置された各種設備を管理する担当者(設備管理者)の端末に、映像機器22のトラブルが発生したことを通知する(S416)。これにより、映像機器22(会議室に設けられた設備)のトラブルが除去できずに残った場合は、映像機器22を含む設備に詳しい設備管理者を呼び出し、トラブルの早期除去を図ることができる。
 以上、図7に例示されるように、映像機器22(会議室に設けられた設備)のハードウエアの状態に関する原因が推定された場合、スマートスピーカー4を用いて対話形式のメッセージが出力される。これにより、会議室にいる人物が、映像機器22のハードウエア状態を原因とするトラブルを解消するための作業を円滑に進めることが見込める。
 <第2の具体例>
 <<システム構成例>>
 図8は、本発明に係る設備管理装置10を用いたシステム構成例を示す図である。図8の例において、会議室には、映像機器22(設備20の一種)、撮像装置30、並びに、マイクロフォン40およびスピーカー42を有するスマートスピーカー4が設置されている。設備管理装置10は、これら映像機器22、撮像装置30およびスマートスピーカー4と、LAN50を介して接続されている。また、本図の例において、会議室には無線LANのアクセスポイント60が設けられている。映像機器22、撮像装置30、およびスマートスピーカー4は、図示しない有線LANポートを介してLAN50に接続されていてもよいし、アクセスポイント60を介してLAN50に接続されていてもよい。
 図8の例において、映像機器22はプロジェクタである。なお、映像機器22はプロジェクタ以外の機器(例えば、モニターなど)であってもよい。映像機器22は、端末70から入力される入力信号に基づいて、映像または音声と映像を出力する。映像機器22は有線によってLAN50に接続されている。映像機器22が無線LANモジュールを搭載している場合、映像機器22はアクセスポイント60を介してLAN50に接続されていてもよい。映像機器22を会議室に設置するにあたり、その映像機器22を識別する情報(例えば、映像機器22固有の製品製造番号や任意に割り当てられた一意の識別番号など)が、当該会議室の場所を示す情報と共に設備管理装置10に予め登録される。これにより、設備管理装置10において、映像機器22と会議室とが対応付けられる。映像機器22は、LAN50を介して接続されている設備管理装置10からの要求に応じて、機器のハードウエアまたはソフトウエアの状態を示す情報(設備情報)を設備管理装置10に送信する。
 端末70は、映像機器22に表示させるデータを記憶しており、アクセスポイント60を介してLAN50上の映像機器22と接続される。本図の例において、端末70には画像伝送アプリケーションがインストールされており、端末70は、当該画像伝送アプリケーションを介して映像機器22との通信を試みる。端末70は、画像伝送アプリケーションを起動するときに、画像伝送アプリケーションの起動を示す情報をアクセスポイント60を介して設備管理装置10に通知する。また、端末70は、LAN50を介して外部装置(図示せず)と通信して当該外部装置に記憶されている表示用データを取得し、取得した表示用データを映像機器22に出力することもできる。
 撮像装置30は、会議室に設置された映像機器22の出力状態を監視するため、当該会議室を全体的に撮影可能な位置に設けられる。例えば、撮像装置30は、全方位を撮影可能に構成された全方位カメラである。また、撮像装置30は、PTZ(Pan-Tilt-Zoom)機能を備えるPTZカメラであってもよい。図8の例において、撮像装置30は有線によってLAN50に接続されている。撮像装置30が無線LANモジュールを搭載している場合、撮像装置30はアクセスポイント60を介してLAN50に接続されていてもよい。撮像装置30を会議室に設置するにあたり、その撮像装置30を識別する情報(例えば、撮像装置30固有の製品製造番号や任意に割り当てられた一意の識別番号など)が、当該会議室の場所を示す情報と共に設備管理装置10に予め登録される。これにより、設備管理装置10において、撮像装置30と会議室とが対応付けられる。撮像装置30は、生成した映像を、LAN50を介して接続されている設備管理装置10に送信する。なお、撮像装置30が、画像処理用のプロセッサを搭載する所謂インテリジェントカメラである場合、当該プロセッサによって映像を解析した結果(例えば、特定の状態が検出されたか否か)を、設備管理装置10に送信するように構成されていてもよい。
 スマートスピーカー4は、会議室に設置された映像機器22の出力状態を監視するために設けられる。また、スマートスピーカー4は、後述するように、会議室の利用者と音声メッセージを使った対話を行い、映像機器22の出力に関するトラブルの解消するための作業を手助けする。スマートスピーカー4は、会議室の音声を収集するためのマイクロフォン40と、音声メッセージを出力するためのスピーカー42とを含んでいる。図8の例において、スマートスピーカー4はアクセスポイント60を介してLAN50に接続されている。スマートスピーカー4は、有線によってLAN50に接続されていてもよい。スマートスピーカー4を会議室に設置するにあたり、そのスマートスピーカー4を識別する情報(例えば、スマートスピーカー4固有の製品製造番号や任意に割り当てられた一意の識別番号など)が、当該会議室の場所を示す情報と共に設備管理装置10に予め登録される。これにより、設備管理装置10において、スマートスピーカー4と会議室とが対応付けられる。
 <<特定の状態を解決する処理の流れ>>
 以下、設備管理装置10が、映像機器22の出力について特定の状態(トラブル)が検出された場合に、その特定の状態を解消する流れについて説明する。
 図9は、図3のS110の処理の詳細な流れの一例を示すフローチャートである。
 まず、原因推定部130は、全ての原因フラグの値を「false」に設定し、各フラグ値を初期化する(S502)。この処理は、図5のS202の処理と同様である。
 全ての原因フラグの値を初期化した後、原因推定部130は、S108の処理で送信した要求に対する応答として取得した設備情報に基づいて、タイムアウトエラーが発生したか否かを判定する(S504)。タイムアウトエラーを示す設備情報が取得された場合(S504:YES)、原因推定部130は、“LAN接続異常”という原因に対応する原因フラグ(図9では、「原因フラグ0」と表記)の値を「true」に設定する(S506)。一方、タイムアウトエラーを示す設備情報が取得されていない場合(S504:NO)、原因推定部130は、原因フラグ0の値を「false」のままにして、次の判定処理を行う。これらの処理は、図5のS204およびS206の処理と同様である。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、設備20の主電源が入っているか否かを判定する(S508)。映像機器の主電源が入っていないことを示す設備情報が取得された場合(S208:NO)、原因推定部130は、“主電源未投入”という原因に対応する原因フラグ(図9では、「原因フラグ1」と表記)の値を「true」に設定する(S510)。一方、映像機器の主電源が入っていることを示す設備情報が取得された場合(S508:YES)、原因推定部130は、原因フラグ1の値を「false」のままにして、次の判定処理を行う。これらの処理は、図5のS208およびS210の処理と同様である。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、設備20が画像伝送アプリケーションに対応しているか否かを判定する(S512)。原因推定部130は、取得した設備情報の中から、例えば映像機器22の品番やバージョンを示す情報を特定し、当該特定した情報に基づいて、映像機器22が画像伝送アプリケーションに対応しているか否かを判定することができる。映像機器22が画像伝送アプリケーションに対応していないことを示す設備情報が取得された場合(S512:NO)、原因推定部130は、“アプリケーション非対応”という原因に対応する原因フラグ(図9では、「原因フラグ2」と表記)の値を「true」に設定する(S514)。一方、映像機器22が画像伝送アプリケーションに対応していることを示す設備情報が取得された場合(S512:YES)、原因推定部130は、原因フラグ2の値を「false」のままにして、次の判定処理を行う。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、映像機器22が端末70から探索コマンド(ペアリング対象を探索するために画像伝送アプリケーションを介して送信されるコマンド)を受信しているか否かを判定する(S516)。
映像機器22が端末70からの探索コマンドを受信していないことを示す設備情報が取得された場合(S516:NO)、原因推定部130は、“探索コマンド未受信”という原因に対応する原因フラグ(図9では、「原因フラグ3」と表記)の値を「true」に設定する(S518)。一方、映像機器22が端末70からの探索コマンド受信していることを示す設備情報が取得された場合(S516:YES)、原因推定部130は、原因フラグ3の値を「false」のままにして、次の判定処理を行う。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、映像機器22において、LAN信号の入力端子が表示用の入力端子として選択されているかを判定する(S518)。表示用の入力端子として現在選択されている入力端子がLAN信号の入力端子でないことを示す設備情報が取得された場合(S520:NO)、原因推定部130は、“入力端子選択誤り”という原因に対応する原因フラグ(図9では、「原因フラグ4」と表記)の値を「true」に設定する(S522)。一方、表示用の入力端子として現在選択されている入力端子がLAN信号の入力端子であることを示す設備情報が取得された場合(S522:YES)、原因推定部130は、原因フラグ4の値を「false」のままにして、次の判定処理を行う。
 次いで、原因推定部130は、映像機器22から取得した設備情報に基づいて、設備20において映像または音声のミュート機能がオフ状態となっているかを確認する(S220)。原因推定部130は、取得した設備情報の中から、映像機器22のミュート機能の状態を示す情報を特定し、その情報を基にミュート機能がオン状態かオフ状態かを判定することができる。映像機器22においてミュート機能がオン状態であることを示す設備情報が取得された場合(S524:NO)、原因推定部130は、“ミュート機能の切り忘れ”という原因に対応する原因フラグ(図9では、「原因フラグ5」と表記)の値を「true」に設定する(S526)。一方、映像機器22においてミュート機能がオフ状態であることを示す設備情報が取得された場合(S524:YES)、原因推定部130は、原因フラグ5の値を「false」のままとする。この後、推定された原因(「true」の値が設定された原因フラグ)に対する処理が実行される。
 図9のフローチャートにおける「原因フラグ4」および「原因フラグ5」は映像機器22のソフトウエア設定に関する原因である。そのため、設備管理装置10が、映像機器22のソフトウエア設定を適切な設定に切り替える制御信号を生成して映像機器22に送信することによって、映像機器22の出力に関するトラブルを解消できる。この処理の流れについて以下で説明する。図10は、対処処理実行部140が設備20の出力に関するトラブルを自動的に除去する流れを例示するフローチャートである。
 対処処理実行部140は、原因フラグ4の値が「true」となっているか否かを判定する(S602)。原因フラグ4の値が「true」となっている場合、映像機器22において、LAN信号の入力端子以外の入力端子が、表示用の入力端子として選択されている。よって、原因フラグ4の値が「true」となっている場合(S602:YES)、対処処理実行部140は、表示用の入力端子をLAN信号の入力端子に切り替える制御信号を生成し、当該制御信号を映像機器22に出力する(S604)。映像機器22は、S604の処理で生成された制御信号を受信すると、その制御信号に基づいて表示用の入力端子をLAN信号の入力端子に切り替える。これにより、端末70の信号が入力されている入力端子が表示用の入力端子として選択される。なお、原因フラグ3の値が「false」となっている場合(S602:NO)、対処処理実行部140はS304の処理を実行しない。
 また、対処処理実行部140は、原因フラグ5の値が「true」となっているか否かを判定する(S606)。原因フラグ5の値が「true」となっている場合、映像機器22において、映像または音声のミュート機能がオン状態となっている。よって、原因フラグ5の値が「true」となっている場合(S606:YES)、対処処理実行部140は、映像機器22においてミュート機能をオフに設定する制御信号を生成し、当該制御信号を映像機器22に出力する(S608)。映像機器22は、S608の処理で生成された制御信号を受信すると、その制御信号に基づいてミュート機能をオフ状態に設定する。これにより、ミュート機能によって遮断されていた映像や音声が映像機器22から出力されるようになる。
 その後、対処処理実行部140は、特定の状態が解消されたか否かを判定する(S610)。対処処理実行部140は、例えば、撮像装置30から取得した映像を解析した結果、映像機器22からの映像の出力を検出できた場合、または、スマートスピーカー4から取得した音声を解析した結果、所定のキーワード(「なおった」や「(映像または音が)出た」など)を検出できた場合に、特定の状態が解消されたと判断できる。また、対処処理実行部140は、例えば、その他の原因フラグ(具体的には、原因フラグ0-3)の中で「true」の値が設定された原因フラグがあるか否かを判定し、該当する原因フラグが存在する場合には、特定の状態が解消されていないと判断することができる。特定の状態が解消されていない場合(S610:NO)、対処処理実行部140は、以下で説明するような処理をさらに実行する。一方、特定の状態が解消されている場合(S610:YES)、以下で説明するような処理は実行されない。
 このように本発明に係る設備管理装置10は、映像機器22(会議室に設けられた設備)に関するトラブルの原因が当該映像機器22のソフトウエア設定に関する原因であった場合、その原因を除去する処理を自動的に実行する。これにより、会議室にいる人物がトラブルを除去するために行うべき作業を減らすことができる。
 図9のフローチャートにおける「原因フラグ0」乃至「原因フラグ3」は映像機器22のソフトウエア設定に関連しない、ハードウエア設定に関する原因である。そのため、これらの原因が推定された場合、会議室にいる人物が、ハードウエアの設定誤りを直す必要がある。そこで、対処処理実行部140は、推定された原因を除去するために確認すべきポイントなどを通知するメッセージをスマートスピーカー4を用いて出力し、会議室で実際にトラブルの解消にあたる人物を支援する。図11は、対処処理実行部140が会議室内の人物に対してメッセージを出力することによって人手によるトラブル解消作業を支援する流れを例示するフローチャートである。
 まず、対処処理実行部140は、原因フラグ0の値が「true」となっているか否かを判定する(S702)。原因フラグ0の値が「true」であることは、映像機器22がLAN50に正しく接続されておらず、映像機器22から設備情報が取得できなかったことを意味する。映像機器22の出力に関するトラブルの原因を特定するために設備情報が必要となるため、原因フラグ0の値が「true」である場合(S702:YES)、対処処理実行部140は、映像機器22のLAN接続状態を確認するよう促すメッセージ(図11では「メッセージ0」と表記)のデータを読み出し、当該メッセージ0をスマートスピーカー4を介して出力する(S704)。メッセージ0は、例えば、「映像機器がネットワークに正しく接続されていることを確認してください。・・・よろしいですか?」などである。このようなメッセージ0のデータは、例えばメモリ1030やストレージデバイス1040といった、設備管理装置10の記憶領域に予め記憶されている。会議室にいる人物が映像機器22をLAN50に正しく接続したことが確認されると、設備管理装置10は、映像機器22に対して設備情報の送信要求を再度出力し、映像機器22から設備情報を取得する(図3のS108)。その後、図5を用いて説明したような、映像機器22から取得した設備情報を基に原因を推定する処理が再度実行される。
 一方、原因フラグ0の値が「false」である場合(S702:NO)、映像機器22はLAN50に正しく接続されているため、設備管理装置10は、当該映像機器22から設備情報を取得できている。この場合、図9のフローチャートにおいて原因フラグ1乃至3に関する判定処理が実行されている。そこで、対処処理実行部140は、原因フラグ1の値が「true」となっているか否かを判定する(S706)。原因フラグ1の値が「true」であることは、映像機器22の主電源が入っていないことを意味する。原因フラグ1の値が「true」である場合(S706:YES)、対処処理実行部140は、映像機器22の主電源のオンオフ状態を確認するよう促すメッセージ(図11では「メッセージ1」と表記)のデータを読み出し、当該メッセージ1をスマートスピーカー4を介して出力する(S708)。メッセージ1は、例えば、「映像機器の電源を入っていますか?」や「映像機器の電源をいれてください。・・・よろしいですか?」などである。このようなメッセージ1のデータは、例えばメモリ1030やストレージデバイス1040といった、設備管理装置10の記憶領域に予め記憶されている。
 対処処理実行部140は、原因フラグ1の値が「false」の場合(S706:NO)、或いは、メッセージ1に対して会議室内の人物が肯定の返事を行ったことをスマートスピーカー4で拾った音声から検出した場合、原因フラグ2の値が「true」となっているか否かを判定する(S710)。原因フラグ2の値が「true」であることは、映像機器22が画像伝送アプリケーションに対応していないことを意味する。原因フラグ2の値が「true」である場合(S710:YES)、対処処理実行部140は、映像機器22に対する信号の伝送経路を変更するように促すメッセージ(図11では、「メッセージ2」と表記)のデータを読み出し、当該メッセージ2をスマートスピーカー4を介して出力する(S712)。メッセージ2は、例えば、「映像機器は画像伝送アプリケーションに対応していません。別の方法で接続してください。」などである。このようなメッセージ2のデータは、例えばメモリ1030やストレージデバイス1040といった、設備管理装置10の記憶領域に予め記憶されている。
 対処処理実行部140は、原因フラグ2の値が「false」の場合(S710:NO)、原因フラグ3の値が「true」となっているか否かを判定する(S714)。原因フラグ3の値が「true」であることは、映像機器22と端末70とのペアリングが行われていないことを意味する。原因フラグ3の値が「true」である場合(S714:YES)、対処処理実行部140は、端末70と映像機器22とのペアリングに関する問題を解消するためのメッセージ(図11では「メッセージ3」と表記)のデータを読み出し、当該メッセージ3をスマートスピーカー4を介して出力する(S716)。メッセージ3は、例えば、「画像伝送アプリケーションで映像機器が見つからない場合は、IPアドレス(xxx.xxx.xxx.xxx)を指定して探してください。よろしいですか?」などである。このようなメッセージ3のデータは、例えばメモリ1030やストレージデバイス1040といった、設備管理装置10の記憶領域に予め記憶されている。なお、ここで例示したメッセージにつき、対処処理実行部140は、映像機器22のIPアドレスを、設備管理装置10に事前に登録された映像機器22の情報に基づいて設定することができる。
 対処処理実行部140は、原因フラグ3の値が「false」である場合、または、メッセージ3に対して会議室内の人物が肯定の返事を行ったことをスマートスピーカー4で拾った音声から検出した場合、特定の状態が解消されたか否かを判定する(S718)。対処処理実行部140は、例えば、撮像装置30から取得した映像を解析した結果、映像機器22からの映像の出力を検出できた場合、または、スマートスピーカー4から取得した音声を解析した結果、所定のキーワード(「なおった」や「(映像または音が)出た」など)を検出できた場合に、特定の状態が解消されたと判断できる。ここで、特定の状態が解消された場合(S718:YES)、対処処理実行部140は処理を終了する。一方、特定の状態が解消されていない場合(S718:NO)、対処処理実行部140は、会議室に設置された各種設備を管理する担当者(設備管理者)の端末に、映像機器22のトラブルが発生したことを通知する(S720)。これにより、映像機器22(会議室に設けられた設備)のトラブルが除去できずに残った場合は、映像機器22を含む設備に詳しい設備管理者を呼び出し、トラブルの早期除去を図ることができる。
 以上、図11に例示されるように、映像機器22(会議室に設けられた設備)のハードウエアの状態に関する原因が推定された場合、スマートスピーカー4を用いて対話形式のメッセージが出力される。これにより、会議室にいる人物が、映像機器22のハードウエア状態を原因とするトラブルを解消するための作業を円滑に進めることが見込める。
 以上、図面を参照して本発明の実施の形態について述べたが、本発明はこれらに限定されて解釈されるべきものではなく、本発明の要旨を逸脱しない限りにおいて、当業者の知識に基づいて、種々の変更、改良等を行うことができる。
 例えば、上述の例において、トラブルの原因を推定する処理(例:図5、図9)、トラブルを自動的に除去する処理(例:図6、図10)およびトラブルを手動で除去する処理(例:図7、図11)は、それぞれまとめて実行されているが、原因の推定~除去を原因毎に逐次実行するようにしてもよい。
 また、対処処理実行部140は、会議室にいる人物から追加情報を収集し、その追加情報を用いて更なる対処処理を実行するように構成されていてもよい。ここで、「映像機器に対する入力信号がない」という原因で「映像が出力されない」という特定の状態が発生している場合を考える。この場合において、「映像機器に対する入力信号がない」という原因は、例えば、「映像機器とソース機器とがケーブルで接続されていない」、「映像機器とソース機器とをつなぐケーブルに異常がある」など、より詳細な複数の原因に細分化することができる。対処処理実行部140は、「お手持ちの端末と映像機器とをケーブルで接続してください。・・・よろしいですか?」といった問い合わせ形式のメッセージを出力した場合に、スマートスピーカー4などの音声収集装置を用いて、会議室内の人物からの応答音声を追加情報として収集する。ここで、先のメッセージに対して肯定を示す追加情報が得られた場合、対処処理実行部140は、「映像機器とソース機器とがケーブルで接続されていない」という原因以外の原因によって特定の状態が発生していると判断することができる。言い換えると、対処処理実行部140は、収集した追加情報を用いて、特定の状態の原因を絞り込むことができる。そして、対処処理実行部140は、「映像機器につないでいるケーブルを別のケーブルに交換してください・・・よろしいですか?」といった更なるメッセージを出力する。このような構成によって、会議室内に設けられた設備について発生した特定の状態(トラブル)に対して、的確な対処を実行することができる。
 また、実施形態に開示されている複数の構成要素は、適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよいし、異なる実施形態の構成要素を適宜組み合わせてもよい。
 また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
 会議室の映像または前記会議室の音声を取得する情報収集手段と、
 前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出する特定状態検出手段と、
 前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定する原因推定手段と、
 前記推定された原因に基づいて実行すべき対処処理を選択して実行する対処処理実行手段と、
 を備える設備管理装置。
2.
 前記対処処理実行手段は、
  前記推定された原因が前記設備のソフトウエア設定に関連する場合、前記設備のソフトウエア設定を変更する制御信号を生成して前記設備に送信する処理を実行し、
  前記推定された原因が前記設備のソフトウエア設定に関連しない場合、前記推定された原因を除去するために確認すべき点に関するメッセージを出力装置を介して出力する処理を実行する、
 1.に記載の設備管理装置。
3.
 前記対処処理実行手段は、前記設備のソフトウエア設定を変更する制御信号によって前記特定の状態が解消されなかった場合に、前記メッセージを出力する処理を実行する、
 2.に記載の設備管理装置。
4.
 前記対処処理実行手段は、前記メッセージに応じて前記会議室内の人物が行った対処によって前記特定の状態が解消されなかった場合、前記設備の管理を行う人物の端末に通知を行う、
 3.に記載の設備管理装置。
5.
 前記設備情報は、前記設備のハードウエアまたはソフトウエアの状態を示す情報である、
 1.から4.のいずれか1つに記載の設備管理装置。
6.
 前記設備が映像機器である場合、
 前記設備情報は、前記映像機器のネットワーク接続状態を示す情報、前記映像機器の電源状態を示す情報、前記映像機器に対する入力信号の有無を示す情報、入力信号を受け付ける入力端子の選択状態を示す情報、映像または音声のミュート機能の実行状態を示す情報、画像伝送アプリケーションの対応可否を示す情報、映像信号を送信する外部機器からの探索コマンドの受信状態を示す情報、の少なくともいずれか1つを含む、
 5.に記載の設備管理装置。
7.
 前記対処処理実行手段は、
  前記推定された原因が複数ある場合に追加情報を取得し、
  前記追加情報を用いて更なる対処処理を選択して実行する、
 1.から6.のいずれか1つに記載の設備管理装置。
8.
 前記追加情報は、複数の前記推定された原因に基づいて選択した質問に対する回答を、前記会議室内のいずれかの装置から受け付けることにより取得される、
 7.に記載の設備管理装置。
9.
 前記対処処理実行手段は、特定の状態の原因と当該原因に対する対処処理とを前記設備について想定される前記特定の状態の内容毎に対応付けて記憶する情報を用いて、前記実行すべき対処処理を選択する、
 1.から8.のいずれか1つに記載の設備管理装置。
10.
 コンピュータが、
  会議室の映像または前記会議室の音声を取得し、
 前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出し、
 前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定し、
 前記推定された原因に基づいて実行すべき対処処理を選択して実行する、
 ことを含む設備管理方法。
11.
 前記コンピュータが、
  前記推定された原因が前記設備のソフトウエア設定に関連する場合、前記設備のソフトウエア設定を変更する制御信号を生成して前記設備に送信する処理を実行し、
  前記推定された原因が前記設備のソフトウエア設定に関連しない場合、前記推定された原因を除去するために確認すべき点に関するメッセージを出力装置を介して出力する処理を実行する、
 ことを含む10.に記載の設備管理方法。
12.
 前記コンピュータが、
 前記設備のソフトウエア設定を変更する制御信号によって前記特定の状態が解消されなかった場合に、前記メッセージを出力する処理を実行する、
 ことを含む11.に記載の設備管理方法。
13.
 前記コンピュータが、
 前記メッセージに応じて前記会議室内の人物が行った対処によって前記特定の状態が解消されなかった場合、前記設備の管理を行う人物の端末に通知を行う、
 ことを含む12.に記載の設備管理方法。
14.
 前記設備情報は、前記設備のハードウエアまたはソフトウエアの状態を示す情報である、
 10.から13.のいずれか1つに記載の設備管理方法。
15.
 前記設備が映像機器である場合、
 前記設備情報は、前記映像機器のネットワーク接続状態を示す情報、前記映像機器の電源状態を示す情報、前記映像機器に対する入力信号の有無を示す情報、入力信号を受け付ける入力端子の選択状態を示す情報、映像または音声のミュート機能の実行状態を示す情報、画像伝送アプリケーションの対応可否を示す情報、映像信号を送信する外部機器からの探索コマンドの受信状態を示す情報、の少なくともいずれか1つを含む、
 14.に記載の設備管理方法。
16.
 前記コンピュータが、
  前記推定された原因が複数ある場合に追加情報を取得し、
  前記追加情報を用いて更なる対処処理を選択して実行する、
 ことを含む10.から15.のいずれか1つに記載の設備管理方法。
17.
 前記追加情報は、複数の前記推定された原因に基づいて選択した質問に対する回答を、前記会議室内のいずれかの装置から受け付けることにより取得される、
 16.に記載の設備管理方法。
18.
 前記コンピュータが、
 特定の状態の原因と当該原因に対する対処処理とを前記設備について想定される前記特定の状態の内容毎に対応付けて記憶する情報を用いて、前記実行すべき対処処理を選択する、
 ことを含む10.から17.のいずれか1つに記載の設備管理方法。
19.
 コンピュータを、
 会議室の映像または前記会議室の音声を取得する情報収集手段、
 前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出するトラブル検出手段、
 前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定する原因推定手段、
 前記推定された原因に基づいて実行すべき対処処理を選択して実行する対処処理実行手段、
 として機能させるためのプログラム。
20.
 前記対処処理実行手段は、
  前記推定された原因が前記設備のソフトウエア設定に関連する場合、前記設備のソフトウエア設定を変更する制御信号を生成して前記設備に送信する処理を実行し、
  前記推定された原因が前記設備のソフトウエア設定に関連しない場合、前記推定された原因を除去するために確認すべき点に関するメッセージを出力装置を介して出力する処理を実行する、
 19.に記載のプログラム。
21.
 前記対処処理実行手段は、前記設備のソフトウエア設定を変更する制御信号によって前記特定の状態が解消されなかった場合に、前記メッセージを出力する処理を実行する、
 20.に記載のプログラム。
22.
 前記対処処理実行手段は、前記メッセージに応じて前記会議室内の人物が行った対処によって前記特定の状態が解消されなかった場合、前記設備の管理を行う人物の端末に通知を行う、
 21.に記載のプログラム。
23.
 前記設備情報は、前記設備のハードウエアまたはソフトウエアの状態を示す情報である、
 19.から22.のいずれか1つに記載のプログラム。
24.
 前記設備が映像機器である場合、
 前記設備情報は、前記映像機器のネットワーク接続状態を示す情報、前記映像機器の電源状態を示す情報、前記映像機器に対する入力信号の有無を示す情報、入力信号を受け付ける入力端子の選択状態を示す情報、映像または音声のミュート機能の実行状態を示す情報、画像伝送アプリケーションの対応可否を示す情報、映像信号を送信する外部機器からの探索コマンドの受信状態を示す情報、の少なくともいずれか1つを含む、
 23.に記載のプログラム。
25.
 前記対処処理実行手段は、
  前記推定された原因が複数ある場合に追加情報を取得し、
  前記追加情報を用いて更なる対処処理を選択して実行する、
 19.から24.のいずれか1つに記載のプログラム。
26.
 前記追加情報は、複数の前記推定された原因に基づいて選択した質問に対する回答を、前記会議室内のいずれかの装置から受け付けることにより取得される、
 25.に記載のプログラム。
27.
 前記対処処理実行手段は、特定の状態の原因と当該原因に対する対処処理とを前記設備について想定される前記特定の状態の内容毎に対応付けて記憶する情報を用いて、前記実行すべき対処処理を選択する、
 19.から26.のいずれか1つに記載のプログラム。
10   情報処理装置
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース
110  情報収集部
120  特定状態検出部
130  原因推定部
140  対処処理実行部
20   映像機器
30   撮像装置
4    スマートスピーカー
40   マイクロフォン
42   スピーカー
50   LAN
60   アクセスポイント
70   端末

Claims (11)

  1.  会議室の映像または前記会議室の音声を取得する情報収集手段と、
     前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出する特定状態検出手段と、
     前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定する原因推定手段と、
     前記推定された原因に基づいて実行すべき対処処理を選択して実行する対処処理実行手段と、
     を備える設備管理装置。
  2.  前記対処処理実行手段は、
      前記推定された原因が前記設備のソフトウエア設定に関連する場合、前記設備のソフトウエア設定を変更する制御信号を生成して前記設備に送信する処理を実行し、
      前記推定された原因が前記設備のソフトウエア設定に関連しない場合、前記推定された原因を除去するために確認すべき点に関するメッセージを出力装置を介して出力する処理を実行する、
     請求項1に記載の設備管理装置。
  3.  前記対処処理実行手段は、前記設備のソフトウエア設定を変更する制御信号によって前記特定の状態が解消されなかった場合に、前記メッセージを出力する処理を実行する、
     請求項2に記載の設備管理装置。
  4.  前記対処処理実行手段は、前記メッセージに応じて前記会議室内の人物が行った対処によって前記特定の状態が解消されなかった場合、前記設備の管理を行う人物の端末に通知を行う、
     請求項3に記載の設備管理装置。
  5.  前記設備情報は、前記設備のハードウエアまたはソフトウエアの状態を示す情報である、
     請求項1から4のいずれか1項に記載の設備管理装置。
  6.  前記設備が映像機器である場合、
     前記設備情報は、前記映像機器のネットワーク接続状態を示す情報、前記映像機器の電源状態を示す情報、前記映像機器に対する入力信号の有無を示す情報、入力信号を受け付ける入力端子の選択状態を示す情報、映像または音声のミュート機能の実行状態を示す情報、画像伝送アプリケーションの対応可否を示す情報、映像信号を送信する外部機器からの探索コマンドの受信状態を示す情報、の少なくともいずれか1つを含む、
     請求項5に記載の設備管理装置。
  7.  前記対処処理実行手段は、
      前記推定された原因が複数ある場合に追加情報を取得し、
      前記追加情報を用いて更なる対処処理を選択して実行する、
     請求項1から6のいずれか1項に記載の設備管理装置。
  8.  前記追加情報は、複数の前記推定された原因に基づいて選択した質問に対する回答を、前記会議室内のいずれかの装置から受け付けることにより取得される、
     請求項7に記載の設備管理装置。
  9.  前記対処処理実行手段は、特定の状態の原因と当該原因に対する対処処理とを前記設備について想定される前記特定の状態の内容毎に対応付けて記憶する情報を用いて、前記実行すべき対処処理を選択する、
     請求項1から8のいずれか1項に記載の設備管理装置。
  10.  コンピュータが、
      会議室の映像または前記会議室の音声を取得し、
     前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出し、
     前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定し、
     前記推定された原因に基づいて実行すべき対処処理を選択して実行する、
     ことを含む設備管理方法。
  11.  コンピュータを、
     会議室の映像または前記会議室の音声を取得する情報収集手段、
     前記映像または前記音声の解析結果に基づいて、前記会議室に設けられた設備が特定の状態であることを検出するトラブル検出手段、
     前記設備が特定の状態であることが検出された場合、前記設備に関する設備情報を取得し、前記設備情報に基づいて前記特定の状態の原因を推定する原因推定手段、
     前記推定された原因に基づいて実行すべき対処処理を選択して実行する対処処理実行手段、
     として機能させるためのプログラム。
PCT/JP2020/013033 2020-03-24 2020-03-24 設備管理装置、設備管理方法およびプログラム WO2021192039A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/013033 WO2021192039A1 (ja) 2020-03-24 2020-03-24 設備管理装置、設備管理方法およびプログラム
US17/949,793 US20230016819A1 (en) 2020-03-24 2022-09-21 Equipment management device, equipment management method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/013033 WO2021192039A1 (ja) 2020-03-24 2020-03-24 設備管理装置、設備管理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/949,793 Continuation US20230016819A1 (en) 2020-03-24 2022-09-21 Equipment management device, equipment management method, and program

Publications (1)

Publication Number Publication Date
WO2021192039A1 true WO2021192039A1 (ja) 2021-09-30

Family

ID=77891140

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/013033 WO2021192039A1 (ja) 2020-03-24 2020-03-24 設備管理装置、設備管理方法およびプログラム

Country Status (2)

Country Link
US (1) US20230016819A1 (ja)
WO (1) WO2021192039A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108412A (ja) * 2008-10-31 2010-05-13 Toshiba Corp 電化製品制御システムおよび電化製品制御方法
WO2015037239A1 (ja) * 2013-09-12 2015-03-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報通知方法
JP2017534189A (ja) * 2014-07-18 2017-11-16 サムスン エレクトロニクス カンパニー リミテッド 家電機器およびその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108412A (ja) * 2008-10-31 2010-05-13 Toshiba Corp 電化製品制御システムおよび電化製品制御方法
WO2015037239A1 (ja) * 2013-09-12 2015-03-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報通知方法
JP2017534189A (ja) * 2014-07-18 2017-11-16 サムスン エレクトロニクス カンパニー リミテッド 家電機器およびその制御方法

Also Published As

Publication number Publication date
US20230016819A1 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
US7682028B2 (en) Image transmission system and image transmission method
KR20060135485A (ko) 전자 회의 시스템에서의 회의 단말 장치, 전자 회의 시스템및 표시 화상 제어 방법
JP2007323533A (ja) 監視サーバ、監視システム及び監視方法
JP6305883B2 (ja) 通知装置、出力装置、情報通知システム、通知装置の制御方法、および制御プログラム
CN112136102B (zh) 信息处理装置、信息处理方法以及信息处理系统
US8544055B2 (en) Communication apparatus, control method, and computer-readable storage medium
EP2784661A1 (en) Computer program product, information processing method, and information processing apparatus
EP2869584A1 (en) Method and device for realizing distributed remote control, and television terminal and mobile terminal thereof
CN101138202B (zh) 通信连接方法及装置
US9237083B2 (en) Main electronic device for communicating within a network and method for operating a main electronic device for communicating within the network
WO2021192039A1 (ja) 設備管理装置、設備管理方法およびプログラム
US20190306320A1 (en) Transmission apparatus, teleconference system, information processing method, and recording medium
US11412577B2 (en) Electronic apparatus and control method thereof
CN112860204A (zh) 数据处理方法及系统
JP2017092844A (ja) 通信端末、通信システム、通信制御方法、及びプログラム
EP4376422A1 (en) Electronic device and operating method therefor
WO2017113528A1 (zh) 一种智能家居设备匹配的方法、装置、设备以及系统
JP3104019B2 (ja) ディジタル放送装置
US20220101631A1 (en) Data processing device, data processing method, and program
US20220083306A1 (en) Information processing device, non-transitory recording medium, and information processing system
US20200244475A1 (en) Notification control apparatus, detection apparatus, notification control system, notification control method, and detection method
JP6668519B1 (ja) リモコン機能設定プログラム、リモコンサーバ、リモコン機能設定方法、携帯端末
WO2021065130A1 (ja) 設備管理装置、設備管理方法、及びプログラム
JP2002305527A (ja) 機器接続状態表示装置、並びに該装置における機器接続状態の表示方法
JP6633139B2 (ja) 情報処理装置、プログラム及び情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20926830

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20926830

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP