WO2022153567A1 - 情報提示システム、端末装置およびプログラム - Google Patents

情報提示システム、端末装置およびプログラム Download PDF

Info

Publication number
WO2022153567A1
WO2022153567A1 PCT/JP2021/009846 JP2021009846W WO2022153567A1 WO 2022153567 A1 WO2022153567 A1 WO 2022153567A1 JP 2021009846 W JP2021009846 W JP 2021009846W WO 2022153567 A1 WO2022153567 A1 WO 2022153567A1
Authority
WO
WIPO (PCT)
Prior art keywords
light emission
display
terminal
information
server
Prior art date
Application number
PCT/JP2021/009846
Other languages
English (en)
French (fr)
Inventor
義明 小林
雄大 永田
雄也 渡邉
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021004730A external-priority patent/JP7517161B2/ja
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to CN202180087621.6A priority Critical patent/CN116762053A/zh
Priority to EP21919460.2A priority patent/EP4280005A1/en
Priority to US18/269,703 priority patent/US12026417B2/en
Publication of WO2022153567A1 publication Critical patent/WO2022153567A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Definitions

  • This disclosure relates to an information presentation system, and in particular, an information presentation system that presents information about a device to be controlled.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2019-68239 states that the signal lamp is in a continuously lit state, a blinking state, and a continuously extinguished state based on the light emission information of the signal lamp displaying the information of the processing equipment.
  • a device that determines which one is used and manages the state of the processing equipment is disclosed.
  • the equipment monitoring mobile terminal of Patent Document 2 (Japanese Unexamined Patent Publication No. 2017-224229) expresses augmented reality by superimposing an explanatory text on an image of the electronic control device 10 being photographed (overlay display). Provide an environment for monitoring the equipment used.
  • Patent Document 3 Japanese Unexamined Patent Publication No. 2008-1710864 discloses a design support device for a sequence program of a production line.
  • the design support device displays the state of the signal output by the equipment on the line by turning on and off a plurality of light emitting means provided corresponding to the signal, reads the state of the displayed signal, and reads the read signal. It is configured to write the state to the sequence program as an operating condition for advancing to the next step.
  • the usage scene of the information presented about the equipment on the production line includes, for example, a usage scene for supporting the on-site response when an abnormality or a sign of an abnormality is detected in the equipment.
  • On-site workers acquire device information on the spot while identifying the location of the target device on the production line that the user actually sees, and perform work (operation) on the device while checking the information. There is a request to do.
  • One object of the present disclosure is to provide an information presentation system that presents information about a target device in association with the location of the target device in the user's field of view.
  • the information presentation system includes a controller for controlling a device provided on a production line, a terminal having a display and a camera capable of photographing the device, and a server for communicating with the controller and the terminal.
  • the field of view of the display is included in the imaging range
  • the controller has a means for transmitting a light emission command for causing the light emitting unit of the device to emit light in a predetermined light emission pattern
  • the terminal has a means within the display area of the display. It is a display position, and has means for displaying information about a device in association with a display position corresponding to a position of a partial image representing a light emission pattern in an image captured by a camera.
  • the information can be presented by displaying the information about the device on the display in association with the location position of the device in the field of view through the user's display.
  • the controller further has means for causing the light emitting unit of another device in the vicinity of the device to emit light in a pattern different from the light emitting pattern.
  • the user can be guided to the target device by causing other devices in the vicinity of the target device to emit light.
  • the information about the device includes information indicating the state of the device.
  • the state of the device can be displayed as the information about the device.
  • the server sends a notification specifying the light emission pattern to the controller.
  • the controller can acquire the light emission pattern from the server.
  • the server processes the captured image received from the terminal to detect the position of the partial image representing the light emission pattern in the captured image, and the terminal determines the position of the partial image detected by the image processing means. Has means to transmit to.
  • the server can be responsible for image processing for position detection.
  • the server sends a notification specifying the light emission pattern to the terminal, and the terminal further processes the image captured by the camera to detect the position of the partial image representing the light emission pattern in the captured image. It has a processing means.
  • the terminal can be responsible for image processing of position detection.
  • the server determines the light emission pattern based on the device identification information. Thereby, the light emission pattern can be variably determined based on the identification information of the device.
  • the server determines the light emission pattern based on the state of the device.
  • the light emission pattern can be variably determined based on the state of the device.
  • the controller determines the state of the device based on the state value output from the device, and sends a notification of the determined state to the server.
  • the controller determines that the device is in a predetermined state, the device can be made to emit light.
  • the controller sends a database operation instruction for storing the information indicating the device status in the database provided in the server to the server, and the server determines the device status based on the information stored in the database. do.
  • the state of the device can be determined based on the data stored in the database of the server.
  • the controller outputs a light emission command to the device specified based on the user operation.
  • the controller can output a light emission command to the device specified by the user to emit light.
  • the terminal further has a gaze sensor that detects the gaze direction of the user who operates the terminal, and the imaging direction of the camera coincides with the gaze direction.
  • the camera captures the gaze direction when the user gazes at the direction in which the device is located. This makes it possible to increase the certainty that the device is included in the subject.
  • the terminal device of the present disclosure is a terminal device, and includes a means for communicating with a controller that controls a device provided in a production line, a display, and a camera capable of imaging the device, and the camera provides a field of view of the display. Included in the imaging range, the device has a light source that emits light in a predetermined emission pattern based on a emission command from the controller, and the terminal device is a display position within the display area of the display and emits light in the image captured by the camera. It has means for displaying information about a device in association with a display position corresponding to the position of a partial image representing a pattern.
  • information related to the device can be presented by displaying the information about the device on the display in association with the location position of the device in the field of view through the user's display.
  • a program for causing a processor included in a terminal device to execute an information presentation method is provided.
  • the terminal device further includes a means for communicating with a controller that controls a device provided in the production line, a display, and a camera capable of capturing an image of the device.
  • the camera includes the field of view of the display in the imaging range, and the device is a controller. It has a light source that emits light in a predetermined light emission pattern based on a light emission command from It has a step of acquiring the image and a step of controlling the display so as to display information about the device in association with the acquired display position in the display area of the display.
  • information about the device is displayed on the display in association with the location of the device in the field of view through the user's display, and information related to the device can be presented. ..
  • information about the target device can be presented in association with the location of the target device in the user's field of view.
  • FIG. 1 is a schematic diagram showing an overall configuration example of the network system 1 according to the present embodiment.
  • the network system 1 is an embodiment of the "information presentation system”.
  • the network system 1 is intended as a "maintenance system” that enables on-site maintenance of equipment or equipment provided in a production line as a main usage pattern, but the technical scope of the present invention is the scope of this term. It should be reasonably interpreted based on the description of the scope of claims.
  • the network system 1 provides a platform for sharing various information on the target device or equipment and giving a command to the target device or equipment as needed.
  • the target device or equipment includes a PLC (programmable logic controller) 100 and one or a plurality of field devices 90.
  • the network system 1 may include a plurality of PLC100s.
  • the plurality of PLC100s may be connected to a field network.
  • an industrial network such as EtherCAT (registered trademark) or EtherNet / IP (registered trademark) may be used.
  • the PLC100 corresponds to an industrial controller and controls various manufacturing equipment and machines (not shown) according to a control cycle.
  • information (state value 110) indicating the state of the field device 90 is collected by using the field device 90 including the sensor via the field network 5, and the information (state value 110) indicating the state of the field device 90 is collected according to the program executed by the PLC 100.
  • a control command is calculated and output to a field device such as an actuator.
  • the control command is calculated by executing a control operation such as a sequence program or a motion program.
  • the field device 90 operates under control according to a control command, and the state value 110 changes.
  • the field device 90 is an example of an object controlled by the PLC 100 by communicating with the PLC 100 via the field network 5.
  • the data exchanged between the PLC 100 and the field device 90 via the field network 5 is updated in a very short cycle of several hundred ⁇ sec order to several tens of msec order synchronized with the control cycle.
  • the process of updating the data exchanged in this way is also referred to as input / output refresh.
  • the field device 90 includes one or a plurality of LEDs (Light Emitting Diodes) as a light emitting unit, and drives the LED to emit light in order to notify the output or operating state of the own device.
  • the emission of LEDs has different or the same wavelength of visible light.
  • the field device 90 changes the pulse width or period of the LED drive signal (current signal) with time based on the light emission command 9A from the PLC 100.
  • the LED of the field device 90 emits light in a pattern according to the light emission command 9A.
  • a PWM (Pulse Width Modulation) circuit can be applied to generate the LED drive signal.
  • the network system 1 includes, in addition to the target equipment (PLC100 and field equipment 90), a terminal 30 that can be worn by a worker (user) on the head, and a server 200 that communicates between the PLC100 and the terminal 30.
  • the server 200 is typically provided outside the factory and is provided, for example, as a cloud-based server in this embodiment.
  • the server 200 receives data including at least one of images and sounds from at least one of the terminal 30 and the PLC 100 connected via the network, processes the received data, and processes the processed data into the PLC 100 or the terminal 30. Send to.
  • the server 200 can also have a function as a database server that manages a DB (abbreviation of database) 400.
  • the PLC 100 transfers the state value 110 collected in synchronization with the control cycle to the server 200 together with a database operation command (SQL (Structured Query Language, etc.)).
  • the server 200 transfers the state value 110 received from the PLC 100 to the database operation command.
  • the state values 110 are collected in the database 400 in chronological order.
  • the server 200 reads data such as the state values 110 from the database 400 and processes the read data.
  • the server 200 can also store the control command transmitted from the PLC 100 in the database 400 in association with, for example, the state value 110.
  • the terminal 30 is an embodiment of the "terminal device” and can be attached to the head of a user (worker) in the form of an HMD (Head-Mounted Device), more specifically in the form of a glasses-type display. ..
  • the terminal 30 includes a transmissive display 32 such as a liquid crystal display system, a gaze sensor 140, a speaker 35, a microphone 119, and a camera 34 in a housing 115.
  • the user can see the real space (landscape) through the transmissive display 32. Further, when an object (an image such as a photograph, a picture, a character / numerical value, a symbol, or a graph) is displayed on the transmissive display 32, the object is displayed superimposed on the landscape in the real space.
  • the terminal 30 provides the user with so-called Augmented Reality by the superimposed display object.
  • the camera 34 is an imaging device having optical characteristics, and includes, for example, a CCD (Charge Coupled Device).
  • CCD Charge Coupled Device
  • the field of view corresponding to the display area of the transmissive display 32 that the user can see through the transmissive display 32 corresponding to the lens of the glasses is the imaging range of the camera 34.
  • the transmissive display 32 superimposes and displays an object that supports the operation on the landscape in the real space, that is, the real landscape including the field device 90.
  • the user can operate the field device 90 in the field of view while being assisted by the information indicated by the object superimposed on the real landscape in the field of view in the form of Augmented Reality.
  • the operation of the field device 90 of the user may also include an operation for confirming the operating state of the field device 90 or an operation for adjusting the state.
  • the gaze sensor 140 detects the direction (line-of-sight direction) in which the line of sight of the user wearing the terminal 30 is directed.
  • the detection of the direction is realized by, for example, a known eye tracking function.
  • the camera 34 is controlled so that the line-of-sight direction of the user detected by the gaze sensor 140 matches the imaging direction.
  • a head posture detecting unit for detecting the head posture (position and orientation (tilt)) of the user.
  • the head posture detection unit includes, for example, a gyro sensor 341 described later provided in the camera 34.
  • the signal processing / image processing circuit 300 calculates (estimates) the viewing angle of the user from the output of the head posture detection unit, for example, according to a predetermined calculation formula.
  • the signal processing / image processing circuit 300 controls the angle of view of the camera 34 so that the viewing angle of the user and the angle of view match. As a result, the signal processing / image processing circuit 300 can change the angle of view of the camera 34 by following the change in the viewing angle based on the user's head posture.
  • the field of view of the transmissive display 32 can be included in the imaging range of the camera 34.
  • the gyro sensor 341 is provided in the camera 34, the mounting location is not limited to the camera 34 as long as the posture of the head can be detected.
  • the predetermined state of the field device 90 may include an abnormal state including a failure of the field device 90 or a state indicating a sign of an abnormality (hereinafter, referred to as a sign state).
  • the PLC 100 compares the state value 110 from the field device 90 with the threshold value, and detects that the field device 90 has transitioned to a predetermined state based on the comparison result as an event.
  • the PLC 100 can periodically perform event detection processing in synchronization with, for example, a control cycle.
  • the PLC 100 When the PLC 100 detects an event (step S1), it transmits a notification of the detected event content 22a (device ID (identifier) of the field device 90 and information about the event) to the server 200 (step S2), and also the terminal 30.
  • the notification of the event detection 22b is transmitted to (step S2).
  • the server 200 receives the notification of the event content from the PLC 100, the server 200 transmits the notification of the light emission pattern 23a based on the event content to the PLC 100 (step S3), and the PLC 100 generates the light emission command 9A based on the light emission pattern 23a from the server 200.
  • Output to the field device 90 (step S4).
  • the LED of the light emitting unit of the field device 90 emits light according to the pattern indicated by the light emission command 9A based on the light emission pattern 23a.
  • the mode of light emission includes blinking (switching of lighting cycle), switching of emission color, and the like.
  • the user wearing the terminal 30 turns his gaze to the field device 90 that emits light.
  • the camera 34 aligns the imaging direction with the line-of-sight direction based on the output of the gaze sensor 140.
  • the field device 90 that the user gazes at (that is, is in the field of view) is positioned within the imaging range of the camera 34.
  • the terminal 30 Upon receiving the notification of the event detection 22b from the PLC 100, the terminal 30 causes the camera 34 to start imaging (step S26), and transmits the captured image 27a to the server 200 (step S27).
  • the imaging of the camera 34 may be started in response to receiving the notification of the event detection 22b from, for example, the PLC 100.
  • the server 200 detects a partial image whose brightness is changed according to the light emission pattern 23a in the image 27a by performing image processing of the image 27a from the terminal 30, for example, in frame units, and determines the position of the partial image in the image 27a. The detection process is performed, and the marker information 29a including the determined position and the AR marker is transmitted to the terminal 30 (step S29). The server 200 generates an AR marker as an object for displaying the event content 22a indicated by the notification received from the PLC 100.
  • the terminal 30 receives the marker information 29a from the server 200 and executes the display processing of the received AR marker (step S30). More specifically, the terminal 30 causes the transmissive display 32 to display the AR marker in association with the position in the display area of the transmissive display 32 corresponding to the determined position of the marker information 29a from the server 200. As a result, the AR marker is visually displayed in association with the field device 90 (LED of the field device 90) that emits light according to the light emission pattern 23a in the user's field of view via the transmissive display 32.
  • the field device 90 LED of the field device 90
  • the detection process of the partial image whose brightness is changed according to the light emission pattern 23a is performed by the server 200, but may be performed by the terminal 30.
  • the server 200 transmits the light emission pattern 23a to the terminal 30 (step S23), and the terminal 30 detects a partial image whose brightness is changed according to the light emission pattern 23a from the server 200 in the image 27a captured by the camera 34.
  • Image processing is performed, and the position of the partial image in the image 27a is determined based on the result of the image processing.
  • the terminal 30 executes the above display process (step S30) based on the determined position and the AR marker from the server 200.
  • the microphone 119 collects the voice of the user's utterance, and the terminal 30 transmits the voice data corresponding to the collected voice to the server 200.
  • the server 200 analyzes the voice data from the terminal 30 and transmits the information based on the analysis result to the terminal 30 as an AR marker.
  • the terminal 30 displays the AR marker in association with the above-mentioned determination position. As a result, the user can also acquire an additional AR marker by speaking with the microphone 119.
  • the presentation mode of the information regarding the field device 90 indicated by the AR marker is not limited to the display, and the voice may be output from the speaker 35 by the voice reading function.
  • information about the device for example, event contents (device ID, AR marker, etc.) can be presented in association with the location of the field device 90 in the user's field of view via the transmissive display 32.
  • the user wearing the terminal 30 can operate the field device 90 in the field of view via the transmissive display 32 with reference to the information presented by the AR marker or the like, and can deal with the failure or failure sign of the field device 90.
  • FIG. 2 is a schematic diagram showing an overall configuration example of the network system 1 according to the present embodiment.
  • the network system 1 includes equipment 2 to be maintained including one or more PLCs 100.
  • the PLC 100 may be connected to the field network 4.
  • As the field network 4 an industrial network such as EtherCAT (registered trademark) or EtherNet / IP (registered trademark) may be used.
  • the field network 4 connects a gateway terminal 3 for connecting a component connected to the field network 4 to the server 200 and a wireless router 6 for connecting the terminal 30 as a portable terminal to the field network 4.
  • the terminal 30 exchanges data with the PLC 100 by wireless communication 410.
  • the terminal 30 communicates with the PLC 100 and the wireless router 6 according to a wireless LAN (Local Area Network).
  • a wireless LAN Local Area Network
  • the terminal 30 communicates with the PLC 100 according to, for example, Bluetooth®, and communicates with the wireless router 6 according to Bluetooth or Wi-Fi®.
  • the terminal 30 can communicate with the server 200 according to, for example, LTE (Long Term Evolution) without relaying the wireless router 6, and a VPN (Virtual Private Network) can be applied to the communication path.
  • LTE Long Term Evolution
  • VPN Virtual Private Network
  • FIG. 3 is a schematic view showing a configuration example of the PLC 100 according to the present embodiment.
  • the PLC 100 corresponds to a computer that realizes control over a controlled object by executing a pre-installed program by a processor.
  • the PLC 100 includes a processor 102 such as a CPU (Central Processing Unit) and an MPU (Micro-Processing Unit), a chip set 104, a main memory 106, a flash memory 108, a network controller 116, and wireless. It includes a wireless interface 117 including a communication circuit, a memory card interface 118, an internal bus controller 122, and a field bus controller 124.
  • the processor 102 reads out the system program 109, the user program 112, and the IoT gateway program 160 stored in the flash memory 108, expands them in the main memory 106, and executes them.
  • the user program 112 is executed under the system program 109, control over the controlled object is realized. That is, the processor 102 realizes a control unit that executes input / output refresh and control calculation by linking with the main memory 106 and the flash memory 108.
  • the system program 109 includes an instruction code for providing basic functions of the PLC 100 such as data input / output processing and execution timing control.
  • the user program 112 is arbitrarily designed according to the control target, and includes a sequence program 112A for executing sequence control, a motion program 112B for executing motion control, and an input / output refresh program (not shown).
  • the chipset 104 realizes the processing of the PLC100 as a whole by controlling each component.
  • the internal bus controller 122 is an interface for exchanging data with the I / O unit 126 connected to the PLC 100 through the internal bus.
  • the fieldbus controller 124 is an interface for exchanging data with the I / O unit 128 connected to the PLC100 through the fieldbus.
  • the internal bus controller 122 and the fieldbus controller 124 acquire the state values 110 input to the corresponding I / O units 126 and 128, respectively, and obtain the calculation result of the processor 102 from the corresponding I / O units 126 and 128. It is output as a control command.
  • the memory card interface 118 is configured so that the memory card 120 can be attached and detached, and data can be written to and read from the memory card 120.
  • the network controller 116 controls the exchange of data through various networks including the field network 4.
  • the wireless interface 117 controls data exchange with a wireless communication device such as a terminal 30.
  • the flash memory 108 further holds (stores) setting information 150, an event code table 152, a light emitting program 167, and a nearby light emitting program 167a in addition to the IoT gateway program 160 for realizing the network system 1 of the present embodiment. )do.
  • the setting information 150 includes information for managing the user of the network system 1, information for managing devices such as the field device 90 constituting the network system 1, and the like.
  • FIG. 4 is a diagram showing an example of the event code table 152 according to the present embodiment.
  • the event code table 152 has a plurality of sets including the device ID 152B which is an identifier of the field device 90 and the event type 152A, and the event code 152C associated with each set.
  • the event type 152A includes a threshold value TH for determining the state (abnormal or predictive state) of the field device 90 of the corresponding device ID 152B.
  • the light emitting program 167 When the light emitting program 167 is executed, the light emitting command 9A according to the light emitting pattern 23a received from the server 200 is generated and transmitted to the field device 90 indicated by the device ID included in the light emitting pattern 23a.
  • the near light emitting program 167a transmits a light emitting command 9B according to the near light emitting pattern 33a received from the server 200 to one or a plurality of field devices 90 indicated by the device ID of the near light emitting pattern 33a.
  • the IoT gateway program 160 is an embodiment of a program that operates the PLC 100 as a component of an information presentation system by being executed.
  • the IoT gateway program 160 includes an event detection program 161 and an information collection program 162 that detect an event based on the state (abnormality or sign) of the field device 90 from the state value 110 output by the field device 90 that follows control.
  • the state information collection 163 and the control command collection 164 that collect the state value 110 and the control command that the PLC 100 exchanges with the field device 90 by input / output refresh in real time, and the device-related information collection 165. And carry out.
  • the information collected by the device-related information collection 165 includes, for example, information on the usage record of the field device 90.
  • FIG. 5 is a schematic diagram showing a configuration example of the server 200 of the present embodiment.
  • the server 200 is a computer having a general-purpose architecture.
  • the server 200 realizes various processes as described later by executing a pre-installed program by the processor.
  • the server 200 includes a processor 202 such as a CPU and an MPU, a main memory 204, a hard disk (HDD) 206, a display 208 for presenting information to a user, an input unit 210 such as a keyboard and a mouse, and other devices. Includes a network controller 212 for exchanging data with and from. These components are connected to each other via the internal bus 214 so as to be capable of data communication.
  • the hard disk 206 includes an OS (Operating System) 220 for providing an execution environment for a basic program on the server 200, and a server program 222 executed under the OS. These programs are read into main memory 204 and executed by processor 202.
  • OS Operating System
  • the server program 222 includes a program and data (information) for realizing the service of the information providing system. More specifically, the server program 222 includes a light emission pattern determination program 223 for determining the light emission pattern of the event-detected field device 90, a communication program 224, an image processing program 225, and an event-detected field device 90. It includes a proximity determination program 228 for determining the position of another field device 90 (hereinafter, also referred to as a vicinity field device 90) arranged in the vicinity (surroundings, periphery), a bot program 229, and further, device position information 231 and the like. , A light emitting pattern table 232 and a nearby light emitting pattern 33a.
  • the device position information 231 corresponds to the device ID of each field device 90 arranged on the production line, and corresponds to each of the plurality of field devices 90 arranged in a predetermined range area in the vicinity of the field device 90. Includes device ID.
  • the communication program 224 includes a light emission pattern notification program 24a for transmitting a notification of the light emission pattern 23a to the PLC 100 or the terminal 30, a marker notification program 24b for transmitting marker information 29a including a position and an AR marker to the terminal 30. It includes a near light emission pattern notification program 24c for notifying the PLC 100 of the light emission pattern of the near field device 90.
  • FIG. 6 is a diagram schematically showing an example of the light emission pattern table 232 according to the present embodiment.
  • the light emission pattern table 232 has a plurality of types of event codes 152C and a light emission pattern 152D corresponding to each event code 152C.
  • the light emission pattern table 232 of FIG. 6B has a plurality of types of device IDs 152B, which are identifiers of the field device 90, and a light emission pattern 152D associated with each device ID 152B.
  • the light emission pattern table 232 is configured so that the light emission pattern 152D is determined according to the type of event (event code 152C) detected for the field device 90.
  • the light emission pattern 152D may be determined according to the type of the field device 90 (device ID 152B).
  • FIG. 7 is a schematic view showing a configuration example of the terminal 30 according to the present embodiment.
  • the terminal 30 includes a transmissive display 32, a voice circuit 36 for exchanging signals with the microphone 119 and the speaker 35, a wireless communication circuit 304 for communicating with the wireless router 6 or the PLC 100, and a non-volatile storage.
  • An MPU or an MPU that connects a storage 302 that is a medium, a memory card such as an SD card 306 that is an example of an external storage medium that can be detachably attached to the terminal 30, and a signal processing / image processing circuit 300, and controls them.
  • a processor 301 such as a CPU is included.
  • the processor 301 has a main memory 303 including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the terminal 30 further includes a camera 34 and a gaze sensor 140.
  • the camera 34 and the gaze sensor 140 are controlled by the processor 301 via the signal processing / image processing circuit 300, and also exchange data with the processor 301.
  • the signal processing / image processing circuit 300 controls the imaging operation of the camera 34 in accordance with a command from the processor 301, and processes the captured image output by the camera 34 in frame units (noise removal, color adjustment, etc.) and outputs the image. do. Further, the signal processing / image processing circuit 300 adjusts the angle of the camera 34 and the like so that the imaging direction coincides with the gaze direction based on the gaze direction of the user detected by the gaze sensor 140.
  • the processor 301 controls each connected unit by expanding and executing various programs including a presentation program 305 for presenting information stored in the storage 302 or the SD card 306 in the main memory 303.
  • the signal processing / image processing circuit 300 may be configured to include a hardware circuit such as an ASIC (application specific integrated circuit) or an FPGA (field-programmable gate array).
  • FIG. 8 is a schematic view showing a configuration example of the field device 90 according to the present embodiment.
  • FIG. 8 illustrates a communication device that communicates with the RF (Radio Frequency) tag 99 in a non-contact manner as the field device 90.
  • This type of communication device uses a short-range radio technology called RFID (Radio Frequency Identification) to support or house a controlled item (such as a workpiece flowing through a production line) or an object (pallet, container) that supports or houses the item. It corresponds to a "reader / writer" that exchanges data with the RF tag 99 attached to (etc.).
  • RFID Radio Frequency Identification
  • the communication device has both a function of reading data from the RF tag 99 (reader function) and a function of writing data to the RF tag 99 (writer function), and at least one of the functions. It may be equipped with only.
  • the RF tag 99 does not have a built-in power supply and operates by the electromotive force generated by the transmitted wave from the communication device (field device 90).
  • the communication device (field device 90) processes the reception signal from the RF tag 99 passing through the communicable region, and transmits a state value 110 indicating the reception strength to the PLC 100.
  • the field device 90 communicates with the communication circuit 97 for communicating with the RF tag 99, the antenna 98 connected to the communication circuit 97, the control unit 91 including the CPU 92 and the memory 93, and the PLC 100. It includes a communication interface 96 for storing a communication interface 96, an LED 95 as a light source constituting a light emitting unit, and a storage 94 for storing programs and data.
  • the CPU 92 executes various data processing including communication processing with the PLC 100 and communication processing with the RF tag 99 based on the program stored in the storage 94.
  • the CPU 92 transmits the command signal received from the PLC 100 to the RF tag 99 and receives the response to the command signal from the RF tag 99 in both the case where the information is read from the RF tag 99 and the case where the information is written.
  • the CPU 92 decodes the response content of the RF tag 99 and outputs the communication result data including the decoded data. For example, the communication result is transmitted to the PLC 100, stored in the storage 94, or displayed using the LED 95.
  • the PLC 100 compares the reception intensity (current value) of the RF tag 99 indicated by the response content from the RF tag 99 with the threshold value, and based on the comparison result, the communication device (field device 90) is in an abnormal state or is abnormal. It is determined whether the state is a sign state indicating a sign of, that is, an event is detected.
  • the type of the field device 90 is not limited to the RFID communication device, and may be, for example, a proximity switch capable of notifying the amount of received light by an LED.
  • FIG. 9 is a diagram schematically showing a module configuration related to information presentation of the PLC 100 according to the present embodiment.
  • the PLC 100 is a module configured by executing the program, and includes an event detection unit 170 corresponding to the event detection program 161 and a light emission control unit 171 corresponding to the light emission program 167 or the nearby light emission program 167a. And a communication control unit 172 that controls communication with other devices by a program of the network controller 116 or the wireless interface 117.
  • the event detection unit 170 detects the event of the field device 90. More specifically, the event detection unit 170 searches the event code table 152 for the event type 152A corresponding to the device ID 152B that matches the device ID of the state value 110 received from the field device 90. When the event detection unit 170 compares the received state value 110 with the threshold value TH of the searched event type 152A and determines that the comparison result indicates (state value 110> threshold value TH), the field device 90 determines that the event type 90 has an event. It is detected that the event code 152A is in an abnormal state or a sign state, and the event code 152C corresponding to the event type 152A is searched from the event code table 152.
  • the event detection unit 170 is based on the state value 110 from the RFID communication device (field device 90), and the state of the communication device (field device 90) is the event type indicated by the arrow 1521 in the event code table 152 of FIG. It is detected that the abnormality is indicated by 152A (“Communication device output abnormality”).
  • the communication control unit 172 transmits a notification of the event content 22a including the device ID of the field device 90 and the event code 152C to the server 200.
  • the light emission control unit 171 generates a light emission command 9A based on the light emission pattern 23a received from the server 200 by the communication control unit 172, and transmits the light emission command 9A to the field device 90 indicated by the light emission pattern 23a via the communication control unit 172. do. Further, the light emission control unit 171 generates a light emission command 9B based on the near light emission pattern 33a received from the server 200 by the communication control unit 172, and the light emission command 9B is indicated by one or more device IDs indicated by the near light emission pattern 33a. It is transmitted to the field device 90 via the communication control unit 172.
  • FIG. 10 is a diagram schematically showing a module configuration related to information presentation of the server 200 according to the present embodiment.
  • the server 200 includes a light emission pattern notification unit 239 corresponding to the light emission pattern notification program 24a and an image processing unit 240 corresponding to the image processing program 225 as modules configured by executing the program.
  • a communication control unit 244 that controls communication with other devices by a program is included.
  • the light emission pattern notification unit 239 searches for the light emission pattern 152D corresponding to the event code 152C from the light emission pattern table 232 ((A) in FIG. 6) based on the event code 152C indicated by the event content 22a received from the PLC 100, and searches for the light emission pattern 152D.
  • the notification of the light emission pattern 23a indicating the light emission pattern 152D is transmitted to the PLC 100 via the communication control unit 244.
  • the light emission pattern notification unit 239 transmits a light emission pattern notification based on the device ID.
  • the light emission control unit 171 sets the light emission pattern 152D corresponding to the device ID 152B corresponding to the device ID indicated by the event content 22a received from the PLC 100 or the device ID of the field device 90 received from the terminal 30 to the light emission pattern table 232. ((B) of FIG. 6) is searched, and the notification of the light emission pattern 23a indicating the searched light emission pattern 152D is transmitted to the PLC 100 via the communication control unit 244.
  • the image processing unit 240 receives the image 27a captured by the camera 34 received from the terminal 30 via the communication control unit 244, and emits light by performing the position detection process described above for the received image 27a.
  • the position of the partial image that emits light in the pattern 23a is determined and output. More specifically, when the light emission pattern is periodic blinking, the frame images of the image 27a including the blinking image are arranged in the order of the time when the light source (LED95) is turned on and off. The frame and the frame are classified on the time axis, and the light emission pattern of the LED 95 is detected based on the classification result.
  • the image processing unit 240 collates the detected light emission pattern with the light emission pattern 23a, and when the collation results indicate that they match, the image processing unit 240 performs a partial image (a portion of the light source) showing the light emission pattern. The position of the image) in the image 27a is detected.
  • the marker information generation unit 241 generates marker information 29a including the position of the above partial image and the AR marker, and transmits the marker information 29a to the terminal 30 via the communication control unit 244.
  • the marker information generation unit 241 generates an AR marker indicating information about the field device 90 that emits light in the light emission pattern 23a.
  • the AR marker may include, for example, a device ID of the field device 90, information on an event detected for the field device 90, information indicating a state value 110 of the field device 90, and the like, but the type of information is not limited thereto.
  • the neighborhood device detection unit 242 detects a plurality of field devices 90 arranged in the vicinity of the field devices 90 that emit light in the light emission pattern 23a on the production line. More specifically, the nearby device detection unit 242 uses the device position information 231 to indicate the device ID of the nearby field device 90 (hereinafter referred to as the nearby device ID) associated with the device ID of the field device 90 that emits light in the light emission pattern 23a. Also called) is acquired (detected).
  • the near light emission pattern notification unit 243 transmits the notification of the near light emission pattern 33a to the PLC 100 via the communication control unit 244.
  • the near light emission pattern 33a indicates a predetermined light emission pattern for causing the field device 90 indicated by the near device ID detected by the near device detection unit 242 to emit light.
  • FIG. 11 is a diagram schematically showing a module configuration related to information presentation of the terminal 30 according to the present embodiment.
  • the terminal 30 processes the image capture control unit 310 that controls the camera 34 and the image captured from the camera 34 as a module configured by executing the program stored in the storage 302.
  • the image processing unit 311, the marker display processing unit 313, the display control unit 312 that controls the transmissive display 32 so as to display an image, and the communication control unit 314 that controls the wireless communication circuit 304 are included.
  • the marker display processing unit 313 generates display control data for displaying the AR marker in association with the position in the display area of the transmissive display 32 corresponding to the determined position of the marker information 29a received from the server 200, and the display control unit 313. Output to 312.
  • the display control unit 312 drives the transmissive display 32 according to the display control data.
  • the AR marker object is displayed superimposed on the landscape of the real space in the user's field of view, that is, the reality landscape including the field device 90.
  • the image processing unit 311 has the same function as the image processing unit 240 of the server 200.
  • the image processing unit 311 detects the position of the partial image whose brightness is changed according to the light emission pattern 23a in the image 27a captured by the camera 34. As a result, the display position of the AR marker in the display area of the transmissive display 32 can be determined by the terminal 30 instead of the server 200.
  • FIG. 12 is a flowchart showing an information presentation process according to the present embodiment.
  • the PLC 100 exchanges a state value 110 and a control command with the field device 90 (step S20).
  • the PLC 100 detects the presence or absence of an event based on the state value 110 from the field device 90 (step S21).
  • the process returns to step S20, but when the event is detected (YES in step S21), the PLC100 sends a notification of the event content 22a to the server 200 and the event is sent.
  • a notification of the event detection 22b indicating that the event has been detected is transmitted to the terminal 30 worn by the user (step S22).
  • the event content 22a includes information about the event such as the device ID of the field device 90 and the event code 152C.
  • the terminal 30 may notify the user that the event has been detected by displaying the notification of the event detection 22b received from the PLC 100, for example, the voice output from the speaker 35 or the AR marker on the transmissive display 32. ..
  • the server 200 determines the light emission pattern based on the event content 22a from the PLC 100, and transmits the notification of the determined light emission pattern 23a to the PLC 100 (step S23).
  • the light emitting pattern 23a is a predetermined pattern, and specifically, the light emitting pattern 152D corresponding to the event code 152C, which is searched from the light emitting pattern table 232 of FIG. 6 (A), or the light emitting pattern 152D of FIG.
  • the PLC 100 Based on the light emission pattern 23a received from the server 200, the PLC 100 generates a light emission command 9A for causing the LED 95 to emit light in the pattern, and transmits the light emission command 9A to the field device 90 (step S24).
  • the field device 90 controls the LED 95 so that it lights up (lights up) in accordance with the light emission command 9A received from the PLC 100 (step S25).
  • the user watches the field device 90 that starts lighting according to the pattern.
  • the terminal 30 receives the notification of the event detection 22b and the gaze sensor 140 detects the gaze direction
  • the terminal 30 causes the camera 34 to start imaging so that the detected gaze direction is the imaging direction (step S26).
  • the terminal 30 transmits the image 27a acquired by imaging to the server 200 (step S27).
  • the server 200 detects the position of a partial image of the light source (LED95) that blinks according to the light emission pattern 23a in the image 27a from the terminal 30 by image processing (step S28).
  • the server 200 transmits the marker information 29a including the detected position and the AR marker to the terminal 30 (step S29).
  • the terminal 30 receives the marker information 29a from the server 200 (step S29b), and controls the transmissive display 32 according to the display control data based on the received marker information 29a (step S30).
  • the transmissive display 32 displays the AR marker in association with the position of the field device 90 (more specifically, the LED 95) existing in the actual landscape in the user's field of view (step S30).
  • FIG. 13 is a flowchart showing a modified example of the information presentation process according to the present embodiment.
  • the server 200 detected the position of the partial image of the light source (LED95) showing the light emission pattern 23a in the image 27a, but the position detection process was performed instead of the server 200. It may be carried out at the terminal 30 as shown in FIG.
  • the server 200 transmits the notification of the light emission pattern 23a to the terminal 30 (step S23b), and transmits the marker information 29b including the AR marker to the terminal 30 (step S29a).
  • the terminal 30 detects the position of the partial image blinking in the light emission pattern 23a in the image 27a by performing image processing on the image 27a captured by the camera 34 (step S27a).
  • the terminal 30 generates display control data for displaying the AR marker indicated by the marker information 29c from the server 200 in association with the position detected in the image 27a, and controls the transmissive display 32 based on the display control data. (Step S30). Since the other processes of FIG. 13 are the same as the processes shown in FIG. 12, the description will not be repeated.
  • the server 200 uses the near light emission pattern 33a (a pattern different from the light emission pattern 23a) to cause the other field devices 90 arranged in the vicinity of the target field device 90 to emit light according to the light emission pattern 23a. It may emit light.
  • the user wearing the terminal 30 can easily identify the position of the target field device 90 by using the field device 90 that emits light in the near light emitting pattern 33a as a guide in the field of view through the transmissive display 32, and the target.
  • the field device 90 can be watched.
  • the user uses the field device 90 that emits light in the vicinity emission pattern 33a as a guide, and keeps the target field device 90 in the user's field of view. It is easily possible to move to a position where it can be placed.
  • the target field device 90 that emits light according to the light emission pattern 23a is the field device 90 in which the event is detected, but the target field device 90 is limited to the field device 90 in which the event is detected. Not done.
  • the field device 90 specified by the user may be used.
  • the user specifies the device ID by utterance.
  • the terminal 30 receives the voice of the utterance from the microphone 119 and transfers the received voice data to the server 200.
  • the bot service provided by executing the bot program 229 of the server 200 performs voice recognition processing on the voice data from the terminal 30 to acquire the device ID 152B, and obtains the light emission pattern 152D corresponding to the acquired device ID 152B. Search from the light emission pattern table 232.
  • the bot service transmits a notification of the light emission pattern 23a based on the device ID 152B and the light emission pattern 152D to the PLC 100.
  • the target field device 90 to emit light according to the light emission pattern 23a can be specified by the user operation regardless of the event detection.
  • the information displayed by the AR marker on the transmissive display 32 at the time of event detection or user designation is the information of the state value 110 (that is, the state value 110 stored in the DB 400) of the target field device 90 searched by the server 200 from the DB 400.
  • the state value 110 of the target field device 90 received by the server 200 from the PLC 100 ie, the state value 110 collected in real time.
  • the user can also specify information to be indicated by the AR marker by utterance (information accumulated in the DB 400 or information collected in real time from the PLC 100).
  • the processing of the terminal 30 shown in FIGS. 12 and 13 and the like is mainly realized by executing the presentation program 305 by the processor 301.
  • FIG. 14 to 18 are views showing a display example of the transmissive display 32 according to the present embodiment.
  • FIG. 14 shows no objects displayed on the transmissive display 32
  • FIG. 14 shows only the landscape in the user's field of view 320 through the transmissive display 32.
  • the user visualizes the field equipment 90 provided on the production line.
  • the LED 95 of the field device 90 is lit 321 according to the light emission command 9A.
  • the camera 34 takes an image with the user's gaze direction as the imaging direction.
  • the position of the partial image of the lighting 321 in the image 27a is determined by the position determination process for the captured image 27a.
  • the AR marker 322 which is information about the field device 90, is displayed in association with the determined position.
  • the AR marker 322 is superposed on the landscape of the user's visual field and is displayed, for example, by a balloon from the location position of the field device 90.
  • the AR marker 322 includes an object of identification information 323 (device ID, model number, etc.) of the field device 90 in which the event is detected or the field device 90 specified by the user and information 324 based on the state value 110 in the balloon.
  • the information 324 includes information on an abnormality or a sign (for example, a decrease in the amount of light), a state value 110 (amount of light), and an indicator indicating the state.
  • the object information 324 is not limited to these. Further, when the AR marker 322 is displayed, the light emission of the lighting 321 may be stopped.
  • the information 324 may be information (for example, a trend graph or the like) indicating a change with time of the accumulated state value 110.
  • the LED 95 of the near field device 90 is lit 325 according to the near light emission pattern 33a.
  • the lighting 325 starts in the field of view 320 of FIG. 17 (A) ((B) of FIG. 17)
  • the lighting 325 of the nearby field device 90 guides the user to the location position of the target field device 90. ..
  • the object of the guide 326 includes an arrow extending in the direction of the location, a balloon containing identification information of the target field device 90, and the like.
  • the transmissive display 32 is associated with the display position of the target field device 90 as shown in FIG. 17 (D). Display the object of AR marker 322.
  • the number of target field devices 90 that emit light in the light emission pattern 23a is one, but a plurality of target field devices 90 may be used.
  • the target field devices 90 may emit light with a time difference, change the light emission pattern (blinking pattern), change the light emission color, change the light emission frequency (blinking cycle), or the like. ..
  • the server 200 may notify the plurality of terminals 30 of the light emission pattern 23a by broadcasting to notify that the event has been detected.
  • sound may be output in addition to the light emission by the light emission pattern 23a.
  • the start / stop of light emission may be performed by synchronizing the time with the control cycle.
  • the terminal 30 is not limited to the head-mounted type or the glasses type, and a tablet terminal or a smartphone type terminal having a camera and a display may be used.
  • the display included in the terminal 30 may be a non-transparent display.
  • the transmissive display 32 is not limited to the optical transmissive type that transmits the scenery in the real space by transmitting external light, and may be configured as a video transmissive type. When a video transmissive display is adopted, the terminal 30 displays the captured image output from the camera 34 on the video transmissive display.
  • the presentation of the information shown in FIGS. 14 to 17 at the terminal 30 can be realized by the processor 301 executing the software of the presentation program 305.
  • the presentation program 305 may be stored in a storage unit such as a storage 302 or an SD card 306.
  • the processor 301 executes a required program
  • the target program (various programs including the presentation program 305) stored in the storage unit is expanded in the RAM of the main memory 303.
  • the processor 301 interprets and executes the program expanded in the RAM to realize the presentation of information.
  • the processor 301 includes a CPU or MPU, a main memory 303, and the like, and controls each component of the terminal 30 according to information processing.
  • the storage 302 is, for example, an auxiliary storage device such as a hard disk drive or a solid state drive, and stores the presentation program 305 executed by the processor 301 and related information.
  • the external storage medium such as the SD card 306 can read the information of the program or the like recorded by the computer or other device or the machine by electrically, magnetically, optically, mechanically or mechanically. It is a medium that accumulates by chemical action.
  • the terminal 30 may acquire the presentation program 305 from the SD card 306 of the external storage medium. Further, the presentation program 305 may be downloaded and provided to the terminal 30 via an external network and a wireless communication circuit 304.
  • the camera includes the field of view of the display in the imaging range.
  • the controller has a means for transmitting a light emitting command (9A) for causing the light emitting unit (95) included in the device to emit light in a predetermined light emitting pattern (23a) to the device.
  • the terminal An information presentation system having a means for displaying information about the device in association with a display position in a display area of the display and corresponding to a position of a partial image representing the light emission pattern in an image captured by the camera.
  • the controller further The information presentation system according to configuration 1, further comprising means for causing a light emitting unit of another device in the vicinity of the device to emit light in a pattern (33b) different from the light emitting pattern.
  • Structure 3 The information presentation system according to configuration 1 or 2, wherein the information about the device includes information indicating the state of the device.
  • the server A notification specifying the light emission pattern is transmitted to the terminal (S23), The terminal further The information presentation system according to any one of configurations 1 to 4, further comprising an image processing means (311) for processing a captured image of the camera and detecting a position of a partial image representing the light emission pattern in the captured image.
  • the terminal further has a gaze sensor (140) that detects the gaze direction of the user who operates the terminal, and the imaging direction of the camera is in any one of configurations 1 to 11 that coincides with the gaze direction. Described information presentation system.
  • a terminal device (30) Means (314) for communicating with a controller (100) that controls equipment (90) provided on a production line, and Display (32) and A camera (34) capable of photographing the device is provided.
  • the camera includes the field of view of the display in the imaging range.
  • the device has a light source (95) that emits light in a predetermined light emission pattern (23a) based on a light emission command (9A) from the controller.
  • the terminal device further It has a means (312) for displaying information about the device in association with a display position in the display area of the display and corresponding to the position of a partial image representing the light emission pattern in the image captured by the camera.
  • Terminal device [Structure 14] A program (305) that causes a processor (301) included in a terminal device (30) to execute an information presentation method.
  • the terminal device is Means (314) for communicating with a controller (100) that controls equipment (90) provided on a production line, and Display (32) and A camera (34) capable of photographing the device is further provided.
  • the camera includes the field of view of the display in the imaging range.
  • the device has a light source (95) that emits light in a predetermined light emission pattern (23a) based on a light emission command (9A) from the controller.
  • the information presentation method is A step (S29b) of acquiring a position (29a) of a partial image representing the light emission pattern in the image captured by the camera, which is a display position in the display area of the display.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ユーザ視野内で機器の所在位置に関連付けて当該機器に関する情報を提示する。生産ラインの機器(90)を制御するコントローラと、ディスプレイ(32)とカメラ(34)とを有する端末(30)と、サーバ(200)とを備えるシステムにおいて、カメラは、ディスプレイの視野を撮像範囲に含み、コントローラは、当該機器が備える発光部を所定のパターンで発光させる発光指令(9A)を機器に送信し、端末は、ディスプレイの表示領域内の表示位置であって、カメラの撮像画像における発光パターンを表す部分画像の位置に応じた表示位置に関連付けて機器に関する情報を表示する。

Description

情報提示システム、端末装置およびプログラム
 この開示は情報提示システムに関し、特に、制御対象の機器に関する情報を提示する情報提示システムに関する。
 設備の状態を提示する技術として、特許文献1(特開2019-68239号公報)は、処理設備の情報を表示する信号灯の発光情報に基づいて信号灯が連続点灯状態、点滅状態及び連続消灯状態の何れであるか判定し、処理設備の状態を管理する装置を開示する。
 特許文献2(特開2017-224229号公報)の設備監視携帯端末は、説明文を、撮影中の電子制御装置10の画像に重ね合わせて表示すること(オーバーレイ表示)で、拡張現実の表現を用いた設備監視の環境を提供する。
 特許文献3(特開2008-171084号公報)は、生産ラインのシーケンスプログラムの設計支援装置を開示する。設計支援装置は、ライン上の設備が出力する信号の状態を、信号に対応して設けられた複数の発光手段を点消灯させて表示し、表示された信号の状態を読み取り、読み取った信号の状態を次のステップへ進むための動作条件としてシーケンスプログラムに書き込むよう構成されている。
特開2019-68239号公報 特開2017-224229号公報 特開2008-171084号公報
 生産ラインでの機器に関して提示される情報の利用シーンには、例えば機器の異常または異常の予兆が検出されたとき、現場で対処を支援するための利用シーンが含まれる。現場の作業者は、対象機器の所在位置をユーザが実際に視る生産ライン上で特定しながら、その場で機器の情報を取得し、当該情報を確認しながら機器に対する作業(操作)を実施したいとの要望がある。
 特許文献1、2および3の生産ラインの設備を監視する情報を提示する仕組みを提案するが、ユーザの視野内で対象機器の所在位置と機器に関する情報とを関連付けて提示する環境は提供しない。
 本開示の1つの目的は、ユーザの視野内における対象機器の所在位置に関連付けて当該機器に関する情報を提示する情報提示システムを提供することである。
 本開示において情報提示システムは、生産ラインに備えられる機器を制御するコントローラと、ディスプレイと、機器を撮像可能なカメラとを有する端末と、コントローラおよび端末と通信するサーバと、を備え、カメラは、ディスプレイの視野を撮像範囲に含み、コントローラは、当該機器が備える発光部を予め定められた発光パターンで発光させる発光指令を、機器に送信する手段を有し、端末は、ディスプレイの表示領域内の表示位置であって、カメラの撮像画像における発光パターンを表す部分画像の位置に応じた表示位置に関連付けて機器に関する情報を表示する手段を有する。
 上述の開示によれば、ユーザのディスプレイを介した視野内における機器の所在位置に関連付けて当該機器に関する情報をディスプレイに表示することで、情報を提示することができる。
 上述の開示において、コントローラは、さらに、機器の付近に在る他の機器が有する発光部を、発光パターンとは異なるパターンで発光させる手段を有する。
 上述の開示によれば、対象機器の付近に在る他の機器も発光させることで、ユーザを対象機器に案内することができる。
 上述の開示において、機器に関する情報は、機器の状態を示す情報を含む。この開示によれば、上記の機器に関する情報として、機器の状態を表示することができる。
 上述の開示において、サーバは、発光パターンを指定する通知を、コントローラに送信する。これにより、コントローラはサーバから発光パターンを取得できる。
 上述の開示において、サーバは、端末から受信する撮像画像を処理して発光パターンを表す部分画像の撮像画像における位置を検出する画像処理手段と、画像処理手段によって検出された部分画像の位置を端末に送信する手段と、を有する。
 上述の開示によれば、サーバに位置検出のための画像処理を担わせることができる。
 上述の開示において、サーバは、発光パターンを指定する通知を、端末に送信し、端末は、さらに、カメラの撮像画像を処理して発光パターンを表す部分画像の当該撮像画像における位置を検出する画像処理手段を有する。
 上述の開示によれば、端末に位置検出の画像処理を担わせることができる。
 上述の開示において、サーバは、機器の識別情報に基づき発光パターンを決定する。これにより、発光パターンを、機器の識別情報に基づき可変に決定できる。
 上述の開示において、サーバは、機器の状態に基づき発光パターンを決定する。これにより、発光パターンを、機器の状態に基づき可変に決めることができる。
 上述の開示において、コントローラは、機器から出力される状態値に基づき当該機器の状態を判定し、判定された状態の通知をサーバに送信する。これにより、コントローラが、機器が予め定められた状態になったことを判定したとき、当該機器を発光させることができる。
 上述の開示において、コントローラは、機器の状態を示す情報を、サーバが備えるデータベースに格納するためのデータベース操作命令をサーバに送信し、サーバは、データベースに格納された情報に基づき機器の状態を判定する。
 上述の開示によれば、機器の状態は、サーバのデータベースに蓄積されたデータに基づき判定できる。
 上述の開示において、コントローラは、ユーザ操作に基づき指定される機器に、発光指令を出力する。これにより、コントローラは、ユーザが指定した機器に発光指令を出力して、発光させることができる。
 上述の開示において、端末は、当該端末を操作するユーザの注視方向を検出する注視センサを、さらに有し、カメラの撮像方向は、注視方向に一致する。
 上述の開示によれば、機器が発光をした場合、ユーザが当該機器の所在する方向を注視したとき、カメラは注視方向を撮像する。これにより、被写体に当該機器を含める確実性を高めることができる。
 本開示の端末装置は、端末装置であって、生産ラインに備えられる機器を制御するコントローラと通信する手段と、ディスプレイと、機器を撮像可能なカメラと、を備え、カメラは、ディスプレイの視野を撮像範囲に含み、機器はコントローラからの発光指令に基づき予め定められた発光パターンで発光する光源を有し、端末装置は、ディスプレイの表示領域内の表示位置であって、カメラの撮像画像における発光パターンを表す部分画像の位置に応じた表示位置に関連付けて、機器に関する情報を表示する手段を有する。
 上述の開示によれば、ユーザのディスプレイを介した視野内における機器の所在位置に関連付けて、当該機器に関する情報をディスプレイに表示することで、機器に関連の情報を提示できる。
 本開示では、端末装置が備えるプロセッサに情報提示方法を実行させるプログラムが提供される。端末装置は、生産ラインに備えられる機器を制御するコントローラと通信する手段と、ディスプレイと、機器を撮像可能なカメラと、をさらに備え、カメラは、ディスプレイの視野を撮像範囲に含み、機器はコントローラからの発光指令に基づき予め定められた発光パターンで発光する光源を有し、情報提示方法は、ディスプレイの表示領域内の表示位置であって、カメラの撮像画像における発光パターンを表す部分画像の位置を取得するステップと、ディスプレイの表示領域内の取得された表示位置に関連付けて、機器に関する情報を表示するようディスプレイを制御するステップとを有する。
 上述の開示によれば、プログラムが実行されると、ユーザのディスプレイを介した視野内における機器の所在位置に関連付けて、当該機器に関する情報がディスプレイに表示されて、機器に関連の情報を提示できる。
 本開示によれば、ユーザの視野内における対象機器の所在位置に関連付けて当該機器に関する情報を提示できる。
本実施の形態に係るネットワークシステム1の全体構成例を示す模式図である。 本実施の形態に係るネットワークシステム1の全体構成例を示す模式図である。 本実施の形態に係るPLC100の構成例を示す模式図である。 本実施の形態に係るイベントコードテーブル152の一例を示す図である。 本実施の形態のサーバ200の構成例を示す模式図である。 本実施の形態に係る発光パターンテーブル232の一例を模式的に示す図である。 本実施の形態に係る端末30の構成例を示す模式図である。 本実施の形態に係るフィールド機器90の構成例を示す模式図である。 本実施の形態に係るPLC100の情報提示に関連するモジュール構成を模式的に示す図である。 本実施の形態に係るサーバ200の情報提示に関連するモジュール構成を模式的に示す図である。 本実施の形態に係る端末30の情報提示に関連するモジュール構成を模式的に示す図である。 本実施の形態に係る情報提示の処理を示すフローチャートである。 本実施の形態に係る情報提示の処理の変形例を示すフローチャートである。 本実施の形態に係る透過型ディスプレイ32の表示例を示す図である。 本実施の形態に係る透過型ディスプレイ32の表示例を示す図である。 本実施の形態に係る透過型ディスプレイ32の表示例を示す図である。 本実施の形態に係る透過型ディスプレイ32の表示例を示す図である。
 本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
 <A.適用例>
 まず、図1を参照して、本発明が適用される場面の一例について説明する。
 図1は、本実施の形態に係るネットワークシステム1の全体構成例を示す模式図である。本開示において、ネットワークシステム1は「情報提示システム」の一実施例である。ネットワークシステム1は、主たる使用形態として、生産ラインに備えられる機器または設備を現場で保守することを可能にする「保守システム」を意図しているが、本願発明の技術的範囲はこの用語の範囲に限定されることはなく、請求の範囲の記載に基づいて、合理的に解釈されるべきである。
 ネットワークシステム1は、対象の機器または設備における各種情報を共有するとともに、必要に応じて、対象の機器または設備に対して指令を与えるためのプラットフォームを提供する。
 図1に示す例において、対象の機器または設備は、PLC(プログラマブルロジックコントローラ)100および1または複数のフィールド機器90を含む。図1では、1台のPLC100を示したが、ネットワークシステム1は複数台のPLC100を備えてもよい。複数のPLC100が備えられる場合は、複数のPLC100は、フィールドネットワークに接続されていてもよい。フィールドネットワークとしては、EtherCAT(登録商標)やEtherNet/IP(登録商標)などの産業用ネットワークが用いられてもよい。
 PLC100は、産業用のコントローラに相当し、図示しない各種の製造設備や機械を制御周期に従い制御する。PLC100による制御においては、フィールドネットワーク5を介してセンサを含むフィールド機器90などを用いてフィールド機器90の状態を示す情報(状態値110)を収集し、PLC100で実行されるプログラムに従って、それらの収集された情報を用いて予め定められた制御演算を制御周期に従い周期的に実行することで、制御指令を算出しアクチュエータなどのフィールド機器に出力する。PLC100においては、制御指令は、シーケンスプログラムやモーションプログラムなどの制御演算が実行されることにより算出される。フィールド機器90は制御指令に従い制御されて動作し、状態値110が変化する。
 フィールド機器90は、フィールドネットワーク5を介してPLC100と通信することによって、PLC100が制御する対象の一例である。フィールドネットワーク5を介して、PLC100とフィールド機器90との間で遣り取りされるデータは、制御周期に同期した数100μsecオーダ~数10msecオーダのごく短い周期で更新されることになる。なお、このような遣り取りされるデータの更新処理は、入出力リフレッシュとも称される。
 フィールド機器90は、発光部としての1または複数のLED(Light Emitting Diode)を備え、自機器の出力または稼働の状態を報知するために当該LEDを発光するよう駆動する。LEDの発光は、異なるまたは同じ可視光の波長を有する。本開示では、フィールド機器90は、PLC100からの発光指令9Aに基づき、LEDの駆動信号(電流信号)のパルスの幅または周期を経時的に変化させる。これにより、フィールド機器90のLEDは発光指令9Aに従うパターンで発光する。LED駆動信号の生成には、例えばPWM(Pulse Width Modulation)回路を適用できる。
 ネットワークシステム1は、対象設備(PLC100およびフィールド機器90)に加えて、作業者(ユーザ)が頭部に装着可能な端末30、および、PLC100と端末30と通信するサーバ200を備える。サーバ200は、典型的には工場の外部に設けられて、本実施の形態では、例えばクラウドベースサーバとして提供される。
 サーバ200は、ネットワークを介して接続されている端末30およびPLC100の少なくとも一方から画像および音声の少なくとも一方を含むデータを受信し、受信したデータを処理して、処理結果のデータをPLC100または端末30に送信する。サーバ200は、DB(データベースの略)400を管理するデータベースサーバとしての機能を備えることもできる。PLC100は制御周期に同期して収集された状態値110を、データベース操作指令(SQL(Structured Query Languageなど)とともにサーバ200に転送する。サーバ200は、PLC100から受信する状態値110を、データベース操作指令に従いデータベース400に格納する。これにより、データベース400には、時系列に状態値110が収集される。サーバ200は、データベース400から状態値110などのデータを読出し、読出されたデータを処理する。また、サーバ200は、PLC100から送信される制御指令を、例えば状態値110と関連付けてデータベース400に格納することもできる。
 端末30は、「端末装置」の一実施例であって、HMD(Head-Mounted Device)の形態で、より特定的にはメガネ型ディスプレイの形態でユーザ(作業者)の頭部に装着され得る。端末30は、筐体115に、例えば液晶ディスプレイ方式等の透過型ディスプレイ32と、注視センサ140と、スピーカ35と、マイク119と、カメラ34と備える。
 ユーザは透過型ディスプレイ32を介して、現実の空間(風景)を視ることができる。また、透過型ディスプレイ32にオブジェクト(写真、絵、文字・数値、記号、グラフなどの画像)が表示される場合、オブジェクトは現実空間の風景に重畳されて表示される。重畳表示されるオブジェクトにより、端末30は、ユーザに対し、いわゆる拡張現実(Augmented Reality)を提供する。
 カメラ34は、光学特性を持つ撮像装置であって、例えばCCD(Charge Coupled Device)を含む。端末30が装着されるとき、メガネのレンズに相当する透過型ディスプレイ32を通してユーザが視ることができる透過型ディスプレイ32の表示領域に相当する視野が、カメラ34の撮像範囲となる。例えば、端末30を装着したユーザは、フィールド機器90を操作する場合、拡張現実の仕組みを用いて操作がサポートされ得る。より具体的には、透過型ディスプレイ32は、操作を支援するオブジェクトを現実空間の風景、すなわちフィールド機器90を含む現実風景に重畳して表示する。これにより、ユーザは、拡張現実(Augmented Reality)の態様で視野内の現実風景に重畳表示されたオブジェクトが示す情報によって支援されながら、視野内のフィールド機器90を操作することができる。ユーザのフィールド機器90の操作は、当該フィールド機器90の稼働の状態を確認するための操作または状態を調整するための操作も含み得る。
 注視センサ140は、端末30を装着するユーザの視線が向けられる方向(視線方向)を検出する。当該方向の検出は、たとえば、公知のアイトラッキング機能によって実現される。カメラ34は、注視センサ140によって検出されたユーザの視線方向を撮像方向に一致させるように制御される。
 本実施の形態では、ユーザの頭部姿勢(位置と向き(傾き))を検出する頭部姿勢検出部を備える。頭部姿勢検出部は、例えばカメラ34に備えられる後述のジャイロセンサ341を含んで構成される。後述の信号処理・画像処理回路300は、頭部姿勢検出部の出力から、例えば予め定められた演算式に従い、ユーザの視野角を算出(推定)する。信号処理・画像処理回路300は、ユーザの視野角と画角が整合するようにカメラ34の画角を制御する。これにより、信号処理・画像処理回路300は、カメラ34の画角をユーザの頭部姿勢に基づく視野角の変化に追従させて変化させることができる。その結果、透過型ディスプレイ32の視野をカメラ34の撮像範囲に含めることができる。なお、ジャイロセンサ341はカメラ34に備えたが、頭部の姿勢を検出可能であれば、取付場所はカメラ34に限定されない。
 端末30を装着したユーザに透過型ディスプレイ32を介して拡張現実を提供するシーンとして、例えば、フィールド機器90の稼働状態が予め定められた状態になったときを説明する。フィールド機器90の予め定められた状態は、フィールド機器90の故障を含む異常状態または異常の予兆を示す状態(以下、予兆状態という)を含み得る。例えば、PLC100が、フィールド機器90からの状態値110を閾値と比較し、比較結果に基づき、フィールド機器90が予め定められた状態に遷移したことを、イベントとして検出する。PLC100は、例えば制御周期等に同期して周期的にイベントの検出処理を実施することができる。
 PLC100は、イベントを検出すると(ステップS1)、検出されたイベント内容22a(フィールド機器90のデバイスID(識別子)とイベントに関する情報)の通知をサーバ200に送信し(ステップS2)、また、端末30にイベント検知22bの通知を送信する(ステップS2)。サーバ200は、PLC100からイベント内容の通知を受信すると、イベント内容に基づく発光パターン23aの通知をPLC100に送信し(ステップS3)、PLC100はサーバ200からの発光パターン23aに基づく発光指令9Aを生成し、フィールド機器90に出力する(ステップS4)。フィールド機器90の発光部のLEDは、発光パターン23aに基づく発光指令9Aが示すパターンに従い発光する。発光の態様は、点滅(点灯周期の切替)、発光色の切替などを含む。
 端末30を装着したユーザは、発光するフィールド機器90に視線を向ける。カメラ34は、注視センサ140の出力に基づき、撮像方向を視線方向に一致させる。これにより、カメラ34の撮像範囲内にユーザの注視する(すなわち視野内にある)フィールド機器90が位置することになる。端末30は、PLC100からイベント検知22bの通知を受信したことに応じて、カメラ34に撮像を開始させ(ステップS26)、撮像された画像27aをサーバ200に送信する(ステップS27)。カメラ34の撮像は、例えばPLC100からイベント検知22bの通知を受信したことに応じて開始されてもよい。
 サーバ200は、端末30からの画像27aを例えばフレーム単位で画像処理することにより、画像27aにおいて発光パターン23aに従い輝度を変化させる部分画像を検出し、画像27aにおける当該部分画像の位置を決定する位置検出処理を実施し、決定位置とARマーカとを含むマーカ情報29aを端末30に送信する(ステップS29)。サーバ200は、PLC100から受信した通知が示すイベント内容22aを表示するための、オブジェクトとしてのARマーカを生成する。
 端末30は、サーバ200からマーカ情報29aを受信し、受信したARマーカの表示処理を実施する(ステップS30)。より具体的には、端末30は、透過型ディスプレイ32に、サーバ200からのマーカ情報29aが有する決定位置に対応した当該透過型ディスプレイ32の表示領域における位置に関連付けてARマーカを表示させる。これにより、透過型ディスプレイ32を介したユーザの視野内の発光パターン23aに従い発光しているフィールド機器90(フィールド機器90のLED)に関連付けてARマーカが視覚可能に表示される。
 上記の構成では、発光パターン23aに従い輝度を変化させる部分画像の検出処理は、サーバ200によって実施されたが、端末30によって実施されてもよい。その場合、サーバ200は、発光パターン23aを端末30に送信し(ステップS23)、端末30は、カメラ34が撮像した画像27aにおいて、サーバ200からの発光パターン23aに従い輝度を変化させる部分画像を検出する画像処理を実施し、画像処理の結果に基づき、画像27aにおける当該部分画像の位置を決定する。端末30は、決定位置とサーバ200からのARマーカとに基づき、上記の表示処理(ステップS30)を実施する。
 マイク119は、ユーザの発話の音声を収集し、端末30は、収集音声に対応する音声データをサーバ200に送信する。サーバ200は、端末30からの音声データを解析し、解析結果に基づく情報を、端末30にARマーカとして送信する。端末30は、ARマーカを上記の決定位置に関連付けて表示する。これにより、ユーザは、マイク119を用いて発話することで、追加のARマーカを取得することもできる。ARマーカが示すフィールド機器90に関する情報の提示態様は表示に限定されず、音声読み上げ機能によりスピーカ35から音声出力されもよい。
 本開示では、透過型ディスプレイ32を介したユーザの視野内におけるフィールド機器90の所在位置に関連付けて当該機器に関する情報、例えばイベント内容(デバイスIDとARマーカ等)を提示することができる。端末30を装着したユーザは、透過型ディスプレイ32を介した視野内のフィールド機器90を、ARマーカ等で提示された情報を参考に操作し、フィールド機器90の故障または故障予兆に対処できる。
 以下、本発明のより具体的な応用例として、本実施の形態に係るネットワークシステム1のより詳細な構成および処理について説明する。
 <B.システム構成>
 図2は、本実施の形態に係るネットワークシステム1の全体構成例を示す模式図である。ネットワークシステム1は、1または複数のPLC100を含む保守対象の設備装置2を備える。PLC100は、フィールドネットワーク4に接続されていてもよい。フィールドネットワーク4としては、EtherCAT(登録商標)やEtherNet/IP(登録商標)などの産業用ネットワークが用いられてもよい。フィールドネットワーク4は、フィールドネットワーク4に接続されるコンポーネントをサーバ200に接続するためのゲートウェイ端末3と、携帯型端末としての端末30をフィールドネットワーク4に接続するための無線ルータ6を接続する。端末30は、無線通信410によりPLC100とデータを遣り取りする。端末30は、PLC100および無線ルータ6と無線LAN(Local Area Network)に従い通信する。端末30は、例えばBluetooth(登録商標)に従いPLC100と通信し、BluetoothまたはWi-Fi(登録商標)に従い無線ルータ6と通信する。端末30は、無線ルータ6を中継しないで、例えば、LTE(Long Term Evolution)に従いサーバ200と通信することも可能であり、通信路はVPN(Virtual Private Network)が適用され得る。
 (B1.PLC100の構成)
 図3は、本実施の形態に係るPLC100の構成例を示す模式図である。図3を参照して、PLC100は、予めインストールされたプログラムをプロセッサが実行することで、制御対象に対する制御を実現するコンピュータに相当する。より具体的には、PLC100は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)などのプロセッサ102と、チップセット104と、メインメモリ106と、フラッシュメモリ108と、ネットワークコントローラ116と、無線通信回路を含む無線インターフェイス117と、メモリカードインターフェイス118と、内部バスコントローラ122と、フィールドバスコントローラ124とを含む。
 プロセッサ102は、フラッシュメモリ108に格納されたシステムプログラム109、ユーザプログラム112およびIoTゲートウェイプログラム160を読み出して、メインメモリ106に展開して実行する。システムプログラム109のもとでユーザプログラム112が実行されると、制御対象に対する制御を実現する。すなわち、プロセッサ102は、メインメモリ106およびフラッシュメモリ108と連係することで、入出力リフレッシュおよび制御演算を実行する制御部を実現する。
 システムプログラム109は、データの入出力処理や実行タイミング制御などの、PLC100の基本的な機能を提供するための命令コードを含む。ユーザプログラム112は、制御対象に応じて任意に設計され、シーケンス制御を実行するためのシーケンスプログラム112Aと、モーション制御を実行するためのモーションプログラム112Bと、図示しないが入出力リフレッシュプログラムを含む。
 チップセット104は、各コンポーネントを制御することで、PLC100全体としての処理を実現する。内部バスコントローラ122は、PLC100と内部バスを通じて連結されるI/Oユニット126とデータを遣り取りするインターフェイスである。フィールドバスコントローラ124は、PLC100とフィールドバスを通じて連結されるI/Oユニット128とデータを遣り取りするインターフェイスである。内部バスコントローラ122およびフィールドバスコントローラ124は、対応のI/Oユニット126および128にそれぞれ入力される状態値110を取得するとともに、プロセッサ102での演算結果を対応のI/Oユニット126および128から制御指令としてそれぞれ出力する。
 メモリカードインターフェイス118は、メモリカード120を着脱可能に構成されており、メモリカード120に対してデータを書込み、メモリカード120からデータを読出すことが可能になっている。
 ネットワークコントローラ116は、フィールドネットワーク4を含む各種ネットワークを通じたデータの遣り取りを制御する。無線インターフェイス117は、端末30などの無線通信装置との間におけるデータ遣り取りを制御する。
 フラッシュメモリ108は、本実施の形態のネットワークシステム1を実現するための、IoTゲートウェイプログラム160に追加して、設定情報150、イベントコードテーブル152、発光プログラム167および付近発光プログラム167aをさらに保持(格納)する。設定情報150は、ネットワークシステム1のユーザを管理する情報、およびネットワークシステム1を構成するフィールド機器90などの装置を管理する情報などを含む。
 図4は、本実施の形態に係るイベントコードテーブル152の一例を示す図である。図4を参照して、イベントコードテーブル152は、フィールド機器90の識別子であるデバイスID152Bと事象種類152Aからなる複数の組と、各組に対応付けてイベントコード152Cを有する。事象種類152Aは、対応するデバイスID152Bのフィールド機器90の状態(異常または予兆の状態)を判定するための閾値THを含む。
 発光プログラム167は、実行されると、サーバ200から受信する発光パターン23aに従う発光指令9Aを生成し、発光パターン23aに含まれるデバイスIDが示すフィールド機器90に送信する。付近発光プログラム167aは、実行されると、サーバ200から受信される付近発光パターン33aに従う発光指令9Bを、付近発光パターン33aが有するデバイスIDが示す1または複数のフィールド機器90に送信する。
 IoTゲートウェイプログラム160は、実行されることにより、PLC100を情報提示システムのコンポーネントとして動作させるプログラムの一実施例である。IoTゲートウェイプログラム160は、制御に従うフィールド機器90が出力する状態値110から、当該フィールド機器90の状態(異常または予兆)に基づくイベントを検出するイベント検出プログラム161および情報収集プログラム162を含む。
 情報収集プログラム162は、実行されると、PLC100が入出力リフレッシュによりフィールド機器90と遣り取りする状態値110および制御指令をリアルタイムに収集する状態情報収集163および制御指令収集164と、装置関連情報収集165とを実施する。装置関連情報収集165によって収集される情報は、例えばフィールド機器90の使用実績の情報を含む。
 なお、PLC100がプログラムを実行することで提供される機能の一部または全部を専用のハードウェア回路として実装してもよい。
 (B2.サーバ200の構成)
 図5は、本実施の形態のサーバ200の構成例を示す模式図である。図5を参照して、サーバ200は、汎用的なアーキテクチャを有するコンピュータである。サーバ200は、予めインストールされたプログラムをプロセッサが実行することで、後述するような各種処理を実現する。
 サーバ200は、CPUやMPUなどのプロセッサ202と、メインメモリ204と、ハードディスク(HDD)206と、ユーザへ情報を提示するためのディスプレイ208と、キーボードやマウスなどの入力部210と、他の装置との間でデータを遣り取りするためのネットワークコントローラ212とを含む。これらのコンポーネントは、内部バス214を介して互いにデータ通信可能に接続されている。ハードディスク206は、サーバ200での基本的なプログラムの実行環境を提供するためのOS(Operating System)220と、OSのもとで実行されるサーバプログラム222とを含む。これらのプログラムがメインメモリ204に読み出されて、プロセッサ202によって実行される。
 サーバプログラム222は、情報提供システムのサービスを実現するためのプログラムとデータ(情報)を含む。より具体的には、サーバプログラム222は、イベント検出されたフィールド機器90の発光パターンを決定する発光パターン決定プログラム223と、通信プログラム224と、画像処理プログラム225と、イベント検出されたフィールド機器90の付近(周囲、周辺)に配置された他のフィールド機器90(以下、付近フィールド機器90ともいう)の位置を判定する付近判定プログラム228と、Botプログラム229とを含み、さらに、デバイス位置情報231と、発光パターンテーブル232と、付近発光パターン33aとを含む。
 デバイス位置情報231は、生産ラインに配置された各フィールド機器90のデバイスIDに対応して、当該フィールド機器90の付近の予め定められた範囲のエリア内に配置された複数のフィールド機器90それぞれのデバイスIDを含む。
 通信プログラム224は、発光パターン23aの通知をPLC100または端末30に送信するための発光パターン通知プログラム24aと、位置とARマーカを含むマーカ情報29aを端末30に送信するためのマーカ通知プログラム24bと、付近フィールド機器90の発光パターンをPLC100に通知する付近発光パターン通知プログラム24cとを含む。
 図6は、本実施の形態に係る発光パターンテーブル232の一例を模式的に示す図である。図6の(A)を参照して、発光パターンテーブル232は、複数種類のイベントコード152Cと、各イベントコード152Cに対応して発光パターン152Dを有する。図6の(B)の発光パターンテーブル232は、フィールド機器90の識別子である複数種類のデバイスID152Bと、各デバイスID152Bに対応付けて発光パターン152Dを有する。本実施の形態では、発光パターンテーブル232は、図6の(A)に示すように、フィールド機器90について検出されたイベントの種類(イベントコード152C)に応じて発光パターン152Dが決定されるよう構成されてもよく、または、図6の(B)に示すように、フィールド機器90の種類(デバイスID152B)に応じて発光パターン152Dが決定されるよう構成されてもよい。
 (B3.端末30の構成)
 図7は、本実施の形態に係る端末30の構成例を示す模式図である。図7を参照して、端末30は、透過型ディスプレイ32と、マイク119およびスピーカ35と信号を遣り取りする音声回路36と、無線ルータ6またはPLC100と通信するための無線通信回路304と、不揮発記憶媒体であるストレージ302と、着脱自在に端末30に装着され得る外部記憶媒体の一例であるSDカード306等のメモリカードと、信号処理・画像処理回路300とを接続し、これらを制御するMPUまたはCPUなどのプロセッサ301を含む。プロセッサ301は、ROM(Read Only Memory)またはRAM(Random Access Memory)等を含むメインメモリ303を有する。端末30は、さらに、カメラ34および注視センサ140を有する。カメラ34および注視センサ140は、信号処理・画像処理回路300を介して、プロセッサ301により制御されて、また、プロセッサ301とデータを遣り取りする。信号処理・画像処理回路300は、プロセッサ301からの指令に従い、カメラ34の撮像動作を制御するとともに、カメラ34が出力する撮像画像を例えばフレーム単位で画像処理(雑音除去、色調整等)し出力する。また、信号処理・画像処理回路300は、注視センサ140が検出するユーザの注視方向に基づき、撮像方向が注視方向と一致すようにカメラ34のアングルなどを調整する。
 プロセッサ301は、ストレージ302またはSDカード306に格納された情報提示のための提示プログラム305を含む各種プログラムをメインメモリ303に展開して実行することにより、接続される各部を制御する。また、信号処理・画像処理回路300は、ASIC(application specific integrated circuit)またはFPGA(field-programmable gate array)などのハードウェア回路を含んで構成され得る。
 (B4.フィールド機器90の構成)
 図8は、本実施の形態に係るフィールド機器90の構成例を示す模式図である。図8は、フィールド機器90として、RF(Radio Frequency)タグ99と非接触で交信する交信装置を例示する。この種の交信装置は、RFID(Radio Frequency Identification)と称される近距離無線技術を用いて、管理対象の物品(生産ラインを流れるワークなど)またはその物品を支持もしくは収容する物体(パレット、コンテナなど)に取付けられたRFタグ99との間でデータをやり取りする「リーダライタ」に相当する。
 交信装置は、RFタグ99からデータを読出す機能(リーダ機能)、および、RFタグ99へのデータ書込の機能(ライタ機能)の両方が備わっていることは必須ではなく、少なくとも一方の機能のみが備わっているものであってもよい。
 RFタグ99は、電源を内蔵せず、交信装置(フィールド機器90)からの送信波により生じた起電力によって動作する。交信装置(フィールド機器90)は、交信可能領域を通過するRFタグ99からの受信信号を処理し、受信強度を示す状態値110をPLC100に送信する。
 図8を参照して、フィールド機器90は、RFタグ99と交信するための通信回路97と、通信回路97に接続されるアンテナ98と、CPU92およびメモリ93を含む制御部91と、PLC100と通信するための通信インターフェイス96と、発光部を構成する光源としてのLED95と、プログラムおよびデータを格納するためのストレージ94とを含む。
 CPU92は、ストレージ94に格納されたプログラムに基づき、PLC100との通信処理、RFタグ99との交信処理を含む各種のデータ処理を実行する。CPU92は、RFタグ99から情報が読み出す場合、および書き込む場合のいずれにおいても、PLC100から受信したコマンド信号をRFタグ99に送信し、RFタグ99からそのコマンド信号に対するレスポンス(応答)を受信する。CPU92は、RFタグ99の応答内容を解読し、この解読データを含む交信結果データを出力する。例えば、交信結果をPLC100に送信し、またはストレージ94に格納し、またはLED95を用いて表示する。PLC100は、RFタグ99からの応答内容が示すRFタグ99の受信強度(電流値)を閾値と比較し、比較の結果に基づき、交信装置(フィールド機器90)が異常状態であるか、または異常の予兆を示す予兆状態であるかを判定する、すなわちイベントを検出する。
 フィールド機器90の種類はRFIDの交信装置に限定されず、例えば受光量をLEDで報知可能な近接スイッチなどであってもよい。
 (B5.PLC100のモジュール構成)
 図9は、本実施の形態に係るPLC100の情報提示に関連するモジュール構成を模式的に示す図である。図9を参照してPLC100は、プログラムが実行されることで構成されるモジュールとして、イベント検出プログラム161に対応のイベント検出部170と、発光プログラム167または付近発光プログラム167aに対応の発光制御部171と、ネットワークコントローラ116または無線インターフェイス117のプログラムによって他の装置との通信を制御する通信制御部172を含む。
 イベント検出部170は、フィールド機器90のイベントを検出する。より具体的には、イベント検出部170は、フィールド機器90から受信する状態値110のデバイスIDに一致するデバイスID152Bに対応する事象種類152Aをイベントコードテーブル152から検索する。イベント検出部170は、受信された状態値110を検索された事象種類152Aが有する閾値THと比較し、比較結果が、(状態値110>閾値TH)を示すと判定すると、フィールド機器90は事象種類152Aが示す異常状態または予兆状態にあると検出し、イベントコードテーブル152から当該事象種類152Aに対応のイベントコード152Cを検索する。例えば、イベント検出部170は、RFIDの交信装置(フィールド機器90)からの状態値110に基づき、交信装置(フィールド機器90)の状態は、図4のイベントコードテーブル152の矢印1521で示す事象種類152A(“交信装置の出力異常”)が示す異常であると検出する。イベント検出部170はイベントを検出すると、通信制御部172は、フィールド機器90のデバイスIDおよびイベントコード152Cを含むイベント内容22aの通知をサーバ200に送信する。
 発光制御部171は、通信制御部172がサーバ200から受信する発光パターン23aに基づき発光指令9Aを生成し、発光指令9Aを当該発光パターン23aが示すフィールド機器90に通信制御部172を介して送信する。また、発光制御部171は、通信制御部172がサーバ200から受信する付近発光パターン33aに基づき発光指令9Bを生成し、発光指令9Bを当該付近発光パターン33aが示す1つ以上のデバイスIDが示すフィールド機器90に、通信制御部172を介して送信する。
 (B6.サーバ200のモジュール構成)
 図10は、本実施の形態に係るサーバ200の情報提示に関連するモジュール構成を模式的に示す図である。図10を参照してサーバ200は、プログラムが実行されることで構成されるモジュールとして、発光パターン通知プログラム24aに対応の発光パターン通知部239と、画像処理プログラム225に対応の画像処理部240と、マーカ通知プログラム24bに対応のマーカ情報生成部241と、付近判定プログラム228に対応の付近デバイス検出部242と、付近発光パターン通知プログラム24cに対応する付近発光パターン通知部243と、ネットワークコントローラ212のプログラムによって他の装置との通信を制御する通信制御部244を含む。
 発光パターン通知部239は、PLC100から受信するイベント内容22aが示すイベントコード152Cに基づき発光パターンテーブル232(図6の(A))から、当該イベントコード152Cに対応する発光パターン152Dを検索し、検索された発光パターン152Dを示す発光パターン23aの通知を、通信制御部244を介してPLC100に送信する。
 また、発光パターン通知部239は、デバイスIDに基づく発光パターンの通知を送信する。具体的には、発光制御部171は、PLC100から受信するイベント内容22aが示すデバイスIDまたは端末30から受信するフィールド機器90のデバイスIDに一致するデバイスID152Bに対応する発光パターン152Dを発光パターンテーブル232(図6の(B))から検索し、検索された発光パターン152Dを示す発光パターン23aの通知を、通信制御部244を介してPLC100に送信する。
 画像処理部240は、端末30から受信するカメラ34が撮像した画像27aを、通信制御部244を介して受信し、受信した画像27aについて、上記に述べた位置検出処理を実施することにより、発光パターン23aで発光する部分画像の位置を決定し出力する。より具体的には、発光パターンが周期的な点滅である場合、点滅画像を含む画像27aのフレーム画像を撮影された時刻の順に並べて、光源(LED95)が点灯しているフレームと消灯しているフレームとを時間軸上で分類し、分類の結果に基づき、LED95の発光パターンを検出する。画像処理部240は、検出された発光パターンを発光パターン23aと照合し、照合の結果が、両者は一致することを示すとき、画像処理部240は、当該発光パターンを示す部分画像(光源の部分画像)の画像27aにおける位置を検出する。
 マーカ情報生成部241は、上記の部分画像の位置とARマーカを含むマーカ情報29aを生成し、通信制御部244を介して端末30に送信する。マーカ情報生成部241は、発光パターン23aで発光するフィールド機器90に関する情報を示すARマーカを生成する。ARマーカは、例えばフィールド機器90のデバイスID、フィールド機器90について検出されたイベントの情報、フィールド機器90の状態値110を示す情報などを含み得るが、情報の種類はこれらに限定されない。
 付近デバイス検出部242は、生産ラインにおいて、発光パターン23aで発光するフィールド機器90の付近に配置された複数のフィールド機器90を検出する。より具体的には、付近デバイス検出部242は、デバイス位置情報231から、発光パターン23aで発光するフィールド機器90のデバイスIDに対応付けられた付近のフィールド機器90のデバイスID(以下、付近デバイスIDともいう)を取得(検出)する。
 付近発光パターン通知部243は、付近発光パターン33aの通知を、通信制御部244を介して、PLC100に送信する。付近発光パターン33aは、付近デバイス検出部242によって検出された付近デバイスIDが示すフィールド機器90を発光させるための予め定められた発光パターンを示す。
 (B7.端末30のモジュール構成)
 図11は、本実施の形態に係る端末30の情報提示に関連するモジュール構成を模式的に示す図である。図11を参照して端末30は、ストレージ302に格納されているプログラムが実行されることで構成されるモジュールとして、カメラ34を制御する撮像制御部310と、カメラ34からの撮像画像を処理する画像処理部311と、マーカ表示処理部313と、画像を表示するよう透過型ディスプレイ32を制御する表示制御部312と、無線通信回路304を制御する通信制御部314を含む。
 マーカ表示処理部313は、サーバ200から受信されたマーカ情報29aが有する決定位置に対応した透過型ディスプレイ32の表示領域における位置に関連付けてARマーカを表示させる表示制御データを生成し、表示制御部312に出力する。表示制御部312は、表示制御データに従い透過型ディスプレイ32を駆動する。これにより、透過型ディスプレイ32の表示領域において、ユーザの視野内の現実空間の風景、すなわちフィールド機器90を含む現実風景に重畳してARマーカのオブジェクトが表示される。
 画像処理部311は、サーバ200の画像処理部240と同様の機能を備える。画像処理部311は、カメラ34が撮像する画像27aにおいて発光パターン23aに従い輝度を変化させる部分画像の位置を検出する。これにより、透過型ディスプレイ32の表示領域におけるARマーカの表示位置は、サーバ200に代えて、端末30により決定することができる。
 <C.フローチャート>
 図12は、本実施の形態に係る情報提示の処理を示すフローチャートである。図12を参照して、PLC100はフィールド機器90と状態値110および制御指令を遣り取りする(ステップS20)。PLC100はフィールド機器90からの状態値110に基づきイベントの有無を検出する(ステップS21)。イベントは検出されないとき(ステップS21でNO)、処理はステップS20に戻るが、イベントが検出されると(ステップS21でYES)、PLC100はイベント内容22aの通知をサーバ200に送信するとともに、イベントが検出された旨のイベント検知22bの通知をユーザが装着する端末30に送信する(ステップS22)。イベント内容22aは、フィールド機器90のデバイスIDとイベントコード152C等のイベントに関する情報を含む。端末30は、PLC100から受信するイベント検知22bの通知を、例えばスピーカ35からの音声出力または透過型ディスプレイ32にARマーカを表示することで、イベントが検知された旨をユーザに報知してもよい。
 サーバ200は、PLC100からのイベント内容22aに基づき発光パターンを決定し、決定された発光パターン23aの通知を、PLC100に送信する(ステップS23)。発光パターン23aは、予め定められたパターンであって、具体的には、図6の(A)の発光パターンテーブル232から検索された、イベントコード152Cに対応の発光パターン152D、または、図6の(B)の発光パターンテーブル232から検索された、フィールド機器90のデバイスID(デバイスID152B)に対応の発光パターン152Dに基づくパターンを示す。
 PLC100は、サーバ200から受信した発光パターン23aに基づき、当該パターンでLED95を発光させるための発光指令9Aを生成し、フィールド機器90に送信する(ステップS24)。フィールド機器90は、PLC100から受信した発光指令9Aに従い点灯(発光)するようLED95を制御する(ステップS25)。
 ユーザは、パターンに従い点灯を開始するフィールド機器90を注視する。端末30は、イベント検知22bの通知を受信したとき、注視センサ140によって注視方向が検出されると、検出された注視方向を撮像方向とするようにカメラ34に撮像を開始させる(ステップS26)。端末30は、撮像により取得された画像27aをサーバ200に送信する(ステップS27)。
 サーバ200は、画像処理によって、端末30からの画像27aにおける、発光パターン23aに従い点滅する光源(LED95)の部分画像の位置を検出する(ステップS28)。サーバ200は、検出された位置とARマーカとを含むマーカ情報29aを端末30に送信する(ステップS29)。
 端末30は、サーバ200からマーカ情報29aを受信し(ステップS29b)、受信したマーカ情報29aに基づく表示制御データに従い、透過型ディスプレイ32を制御する(ステップS30)。これにより、透過型ディスプレイ32は、ユーザの視野内の現実の風景に存在するフィールド機器90(より特定的にはLED95)の位置に関連付けてARマーカを表示する(ステップS30)。
 (C1.処理の変形例)
 図13は、本実施の形態に係る情報提示の処理の変形例を示すフローチャートである。上記に述べた図12の処理では、サーバ200が、画像27aにおける発光パターン23aを示す光源(LED95)の部分画像の位置検出を実施したが、当該位置検出の処理は、サーバ200に代えて、図13に示すように端末30において実施されてもよい。
 より具体的には、サーバ200は、発光パターン23aの通知を端末30に送信し(ステップS23b)、ARマーカを含むマーカ情報29bを端末30に送信する(ステップS29a)。端末30は、カメラ34によって撮像された画像27aを、画像処理することにより、画像27aにおいて発光パターン23aで点滅する部分画像の位置を検出する(ステップS27a)。端末30は、サーバ200からのマーカ情報29cが示すARマーカを、画像27aにおいて検出された位置に関連付けて表示するための表示制御データを生成し、表示制御データに基づき透過型ディスプレイ32を制御する(ステップS30)。図13の他の処理は図12で示された処理と同様であるから説明は繰り返さない。
 (C2.付近のフィールド機器90の点灯処理)
 図12と図13の処理において、サーバ200は、発光パターン23aに従い発光させるターゲットのフィールド機器90の付近に配置された他のフィールド機器90を付近発光パターン33a(発光パターン23aとは異なるパターン)で発光させてもよい。端末30を装着したユーザは、透過型ディスプレイ32を介した視野において、付近発光パターン33aで発光するフィールド機器90を目安(ガイド)にして、ターゲットのフィールド機器90の位置を容易に特定し、ターゲットのフィールド機器90を注視できる。例えば、ユーザの死角にターゲットのフィールド機器90が配置されるとしても、ユーザは、付近発光パターン33aで発光するフィールド機器90を目安(ガイド)にして、ターゲットのフィールド機器90をユーザの視野内に置くことができる位置にまで移動することが容易に可能となる。
 (C3.フィールド機器90のユーザ指定処理)
 図12と図13の処理では、発光パターン23aに従い発光させる対象フィールド機器90は、イベントが検出されたフィールド機器90であったが、対象フィールド機器90は、イベントが検出されたフィールド機器90に限定されない。例えば、ユーザが指定したフィールド機器90であってもよい。
 より具体的は、ユーザはデバイスIDを発話により指定する。端末30は発話の音声をマイク119から受付けて、受付けた音声データをサーバ200に転送する。サーバ200のBotプログラム229が実行されることで提供されるBotサービスは、端末30からの音声データについて音声認識処理を実施してデバイスID152Bを取得し、取得したデバイスID152Bに対応の発光パターン152Dを発光パターンテーブル232から検索する。Botサービスは、デバイスID152Bと発光パターン152Dに基づく発光パターン23aの通知をPLC100に送信する。これにより、イベント検知によらず、ユーザ操作によって、発光パターン23aに従い発光させる対象フィールド機器90を指定することができる。
 イベント検知時またはユーザ指定時に、透過型ディスプレイ32でARマーカによって表示される情報は、サーバ200がDB400から検索した対象フィールド機器90の状態値110(すなわちDB400に蓄積された状態値110)の情報、またはサーバ200がPLC100から受信した対象フィールド機器90の状態値110(すなわちリアルタイムに収集した状態値110)を含み得る。また、ユーザは発話によりARマーカで示されるべき情報(DB400の蓄積情報またはPLC100からリアルタイムに収集する情報)を指定することもできる。
 図12と図13等で示された端末30の処理は、主に、提示プログラム305がプロセッサ301により実行されることで実現される。
 <D.表示例>
 図14~図18は、本実施の形態に係る透過型ディスプレイ32の表示例を示す図である。図14は、透過型ディスプレイ32にはオブジェクトは表示されておらず、図14では、透過型ディスプレイ32を介したユーザの視野320における風景のみが示されている。視野320において、ユーザは、生産ラインに備えられるフィールド機器90を視覚する。図15のユーザの視野320では、フィールド機器90のLED95が発光指令9Aに従い点灯321している。ユーザは、点灯321を注視すると、カメラ34はユーザの注視方向を撮像方向として撮像する。撮像された画像27aについての位置決定処理によって画像27a内の点灯321の部分画像の位置が決定される。
 図16では、透過型ディスプレイ32において、決定された位置に関連付けてフィールド機器90に関する情報であるARマーカ322が表示される。図16では、ユーザの視野の風景に重畳してARマーカ322が、例えば当該フィールド機器90の所在位置からの吹き出しで表示される。ARマーカ322は、吹き出し内において、イベント検出がなされたフィールド機器90、またはユーザ指定のフィールド機器90の識別情報323(デバイスID、型番など)と状態値110に基づく情報324のオブジェクトを含む。情報324は、異常または予兆(例えば光量低下)の情報、状態値110(光量)、および状態を示すインジケータを含む。なお、オブジェクトの情報324は、これらに限定されない。また、ARマーカ322が表示されるとき、点灯321の発光は停止してもよい。
 情報324は、DB400に格納された情報に基づく場合、蓄積された状態値110の経時的変化を示す情報(例えばトレンドグラフ等)であってもよい。
 図17は付近発光パターン33aに従い付近フィールド機器90のLED95が点灯325する。図17の(A)の視野320で点灯325が開始すると(図17の(B))、付近フィールド機器90の点灯325により、ユーザは、対象フィールド機器90の所在位置に案内(ガイド)される。案内326のオブジェクトは、図17の(C)に示すように、当該所在位置の方向に延びる矢印または対象フィールド機器90の識別情報を含む吹き出し等を含む。ユーザが、案内326に促されて対象フィールド機器90の点灯を確認し、注視すると、透過型ディスプレイ32は、図17の(D)に示されるように、対象フィールド機器90の表示位置に関連付けてARマーカ322のオブジェクトを表示する。
 (変形例)
 本実施の形態では、発光パターン23aで発光する対象フィールド機器90は1台としたが、複数台であってもよい。その場合は、対象フィールド機器90間で、時差を有して発光する、発光パターン(点滅パターン)を変更する、発光色を変更する、発光の周波数(点滅周期)を変更する等してもよい。
 また、サーバ200が複数の端末30と通信するケースでは、サーバ200は発光パターン23aを複数の端末30にブロードキャストにより通知して、イベント検知があった旨を通知してもよい。
 また、発光パターン23aによる発光に追加して、音を出力してもよい。また、発光の開始/停止を、制御周期に時刻同期させて実施してもよい。
 端末30は、頭部装着型またはメガネ型に限定されず、カメラおよびディスプレイを有するタブレット端末またはスマートフォン型の端末を利用してもよい。
 また、端末30が備えるディスプレイは、非透過型ディスプレイであってもよい。
 また、透過型ディスプレイ32は、外光を透過することで現実空間の風景を透過する光学透過型に限定されず、ビデオ透過型で構成されてもよい。ビデオ透過型ディスプレイを採用する場合、端末30は、カメラ34から出力される撮像画像をビデオ透過型ディスプレイに表示する。
 <E.プログラム>
 端末30における、図14~図17に示した情報の提示は、プロセッサ301が提示プログラム305のソフトウェアを実行することによって実現され得る。提示プログラム305は、ストレージ302またはSDカード306等の記憶ユニットに記憶されていてもよい。プロセッサ301が必要なプログラムを実行する際は、記憶ユニットに記憶された対象となるプログラム(提示プログラム305を含む各種のプログラム)をメインメモリ303のRAMに展開する。そして、プロセッサ301は、RAMに展開された当該プログラムを解釈および実行して情報の提示を実現する。
 プロセッサ301は、CPUまたはMPUおよびメインメモリ303等を含み、情報処理に応じて端末30の各構成要素の制御を行う。ストレージ302は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、プロセッサ301で実行される提示プログラム305および関連する情報等を記憶する。
 SDカード306などの外部記憶媒体は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的または化学的作用によって蓄積する媒体である。端末30は、外部記憶媒体のSDカード306から、提示プログラム305を取得してもよい。また、提示プログラム305は、外部のネットワークおよび無線通信回路304を経由して端末30にダウンロードされて提供されてもよい。
 <F.付記>
 上述したような本実施の形態は、以下のような技術思想を含む。
[構成1]
 生産ラインに備えられる機器(90)を制御するコントローラ(100)と、
 ディスプレイ(32)と、前記機器を撮像可能なカメラ(34)とを有する端末(30)と、
 前記コントローラおよび前記端末と通信するサーバ(200)と、を備え、
 前記カメラは、前記ディスプレイの視野を撮像範囲に含み、
 前記コントローラは、当該機器が備える発光部(95)を予め定められた発光パターン(23a)で発光させる発光指令(9A)を、前記機器に送信する手段を有し、
 前記端末は、
 前記ディスプレイの表示領域内の表示位置であって、前記カメラの撮像画像における前記発光パターンを表す部分画像の位置に応じた表示位置に関連付けて前記機器に関する情報を表示する手段を有する、情報提示システム(1)。
[構成2]
 前記コントローラは、さらに、
 前記機器の付近に在る他の機器が有する発光部を、前記発光パターンとは異なるパターン(33b)で発光させる手段を有する、構成1に記載の情報提示システム。
[構成3]
 前記機器に関する情報は、前記機器の状態を示す情報を含む、構成1または2に記載の情報提示システム。
[構成4]
 前記サーバは、
 前記発光パターンを指定する通知を、前記コントローラに送信する(S23)、構成1から3のいずれか1に記載の情報提示システム。
[構成5]
 前記サーバは、
 前記端末から受信する前記撮像画像を処理して前記発光パターンを表す部分画像の前記撮像画像における位置を検出する画像処理手段(240)と、
 前記画像処理手段によって検出された前記部分画像の位置を前記端末に送信する手段(S29)と、を有する、構成1から4のいずれか1に記載の情報提示システム。
[構成6]
 前記サーバは、
 前記発光パターンを指定する通知を、前記端末に送信し(S23)、
 前記端末は、さらに、
 前記カメラの撮像画像を処理して前記発光パターンを表す部分画像の当該撮像画像における位置を検出する画像処理手段(311)を有する、構成1から4のいずれか1に記載の情報提示システム。
[構成7]
 前記サーバは、
 前記機器の識別情報に基づき前記発光パターンを決定する(図6(A))、構成1から6のいずれか1に記載の情報提示システム。
[構成8]
 前記サーバは、
 前記機器の状態に基づき前記発光パターンを決定する(図6(B))、構成1から7のいずれか1に記載の情報提示システム。
[構成9]
 前記コントローラは、
 前記機器から出力される状態値に基づき当該機器の状態を判定し、判定された状態の通知(22a)を前記サーバに送信する、構成7に記載の情報提示システム。
[構成10]
 前記コントローラは、
 前記機器の状態を示す情報を、前記サーバが備えるデータベースに格納するためのデータベース操作命令を前記サーバに送信し、
 前記サーバは、
 前記データベースに格納された情報に基づき前記機器の状態を判定する、構成7に記載の情報提示システム。
[構成11]
 前記コントローラは、
 ユーザ操作に基づき指定される機器に、前記発光指令を出力する、構成1から10のいずれか1に記載の情報提示システム。
[構成12]
 前記端末は、当該端末を操作するユーザの注視方向を検出する注視センサ(140)を、さらに有し、前記カメラの撮像方向は、前記注視方向に一致する、構成1から11のいずれか1に記載の情報提示システム。
[構成13]
 端末装置(30)であって、
 生産ラインに備えられる機器(90)を制御するコントローラ(100)と通信する手段(314)と、
 ディスプレイ(32)と、
 前記機器を撮像可能なカメラ(34)と、を備え、
 前記カメラは、前記ディスプレイの視野を撮像範囲に含み、
 前記機器は前記コントローラからの発光指令(9A)に基づき予め定められた発光パターン(23a)で発光する光源(95)を有し、
 前記端末装置は、さらに、
 前記ディスプレイの表示領域内の表示位置であって、前記カメラの撮像画像における前記発光パターンを表す部分画像の位置に応じた表示位置に関連付けて、前記機器に関する情報を表示する手段(312)を有する、端末装置。
[構成14]
 端末装置(30)が備えるプロセッサ(301)に情報提示方法を実行させるプログラム(305)であって、
 前記端末装置は、
 生産ラインに備えられる機器(90)を制御するコントローラ(100)と通信する手段(314)と、
 ディスプレイ(32)と、
 前記機器を撮像可能なカメラ(34)と、をさらに備え、
 前記カメラは、前記ディスプレイの視野を撮像範囲に含み、
 前記機器は前記コントローラからの発光指令(9A)に基づき予め定められた発光パターン(23a)で発光する光源(95)を有し、
 前記情報提示方法は、
 前記ディスプレイの表示領域内の表示位置であって、前記カメラの撮像画像における前記発光パターンを表す部分画像の位置(29a)を取得するステップ(S29b)と、
 前記ディスプレイの表示領域内の取得された前記表示位置に関連付けて、前記機器に関する情報を表示するよう前記ディスプレイを制御するステップ(S30)とを有する、プログラム。
 今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
1 ネットワークシステム、9A,9B 発光指令、22a イベント内容、22b イベント検知、32 透過型ディスプレイ、23a,152D 発光パターン、24a 発光パターン通知プログラム、24b マーカ通知プログラム、24c 付近発光パターン通知プログラム、27a 画像、29a,29b マーカ情報、30 端末、33a 付近発光パターン、34 カメラ、35 スピーカ、36 音声回路、90 フィールド機器、110 状態値、140 注視センサ、152 イベントコードテーブル、152A 事象種類、152C イベントコード、160 ゲートウェイプログラム、161 イベント検出プログラム、162 情報収集プログラム、163 状態情報収集、164 制御指令収集、167 発光プログラム、167a 付近発光プログラム、170 イベント検出部、171 発光制御部、172,244,314 通信制御部、200 サーバ、223 発光パターン決定プログラム、225 画像処理プログラム、228 付近判定プログラム、231 デバイス位置情報、232 発光パターンテーブル、239 発光パターン通知部、240,311 画像処理部、241 マーカ情報生成部、242 付近デバイス検出部、243 付近発光パターン通知部、305 提示プログラム、310 撮像制御部、312 表示制御部、313 マーカ表示処理部、320 視野、321,325 点灯、322 ARマーカ、323 識別情報、326 案内、400 データベース。

Claims (14)

  1.  生産ラインに備えられる機器を制御するコントローラと、
     ディスプレイと、前記機器を撮像可能なカメラとを有する端末と、
     前記コントローラおよび前記端末と通信するサーバと、を備え、
     前記カメラは、前記ディスプレイの視野を撮像範囲に含み、
     前記コントローラは、当該機器が備える発光部を予め定められた発光パターンで発光させる発光指令を、前記機器に送信する手段を有し、
     前記端末は、
     前記ディスプレイの表示領域内の表示位置であって、前記カメラの撮像画像における前記発光パターンを表す部分画像の位置に応じた表示位置に関連付けて前記機器に関する情報を表示する手段を有する、情報提示システム。
  2.  前記コントローラは、さらに、
     前記機器の付近に在る他の機器が有する発光部を、前記発光パターンとは異なるパターンで発光させる手段を有する、請求項1に記載の情報提示システム。
  3.  前記機器に関する情報は、前記機器の状態を示す情報を含む、請求項1または2に記載の情報提示システム。
  4.  前記サーバは、
     前記発光パターンを指定する通知を、前記コントローラに送信する、請求項1から3のいずれか1項に記載の情報提示システム。
  5.  前記サーバは、
     前記端末から受信する前記撮像画像を処理して前記発光パターンを表す部分画像の前記撮像画像における位置を検出する画像処理手段と、
     前記画像処理手段によって検出された前記部分画像の位置を前記端末に送信する手段と、を有する、請求項1から4のいずれか1項に記載の情報提示システム。
  6.  前記サーバは、
     前記発光パターンを指定する通知を、前記端末に送信し、
     前記端末は、さらに、
     前記カメラの撮像画像を処理して前記発光パターンを表す部分画像の当該撮像画像における位置を検出する画像処理手段を有する、請求項1から4のいずれか1項に記載の情報提示システム。
  7.  前記サーバは、
     前記機器の識別情報に基づき前記発光パターンを決定する、請求項1から6のいずれか1項に記載の情報提示システム。
  8.  前記サーバは、
     前記機器の状態に基づき前記発光パターンを決定する、請求項1から7のいずれか1項に記載の情報提示システム。
  9.  前記コントローラは、
     前記機器から出力される状態値に基づき当該機器の状態を判定し、判定された状態の通知を前記サーバに送信する、請求項7に記載の情報提示システム。
  10.  前記コントローラは、
     前記機器の状態を示す情報を、前記サーバが備えるデータベースに格納するためのデータベース操作命令を前記サーバに送信し、
     前記サーバは、
     前記データベースに格納された情報に基づき前記機器の状態を判定する、請求項7に記載の情報提示システム。
  11.  前記コントローラは、
     ユーザ操作に基づき指定される機器に、前記発光指令を出力する、請求項1から10のいずれか1項に記載の情報提示システム。
  12.  前記端末は、当該端末を操作するユーザの注視方向を検出する注視センサを、さらに有し、前記カメラの撮像方向は、前記注視方向に一致する、請求項1から11のいずれか1項に記載の情報提示システム。
  13.  端末装置であって、
     生産ラインに備えられる機器を制御するコントローラと通信する手段と、
     ディスプレイと、
     前記機器を撮像可能なカメラと、を備え、
     前記カメラは、前記ディスプレイの視野を撮像範囲に含み、
     前記機器は前記コントローラからの発光指令に基づき予め定められた発光パターンで発光する光源を有し、
     前記端末装置は、さらに、
     前記ディスプレイの表示領域内の表示位置であって、前記カメラの撮像画像における前記発光パターンを表す部分画像の位置に応じた表示位置に関連付けて、前記機器に関する情報を表示する手段を有する、端末装置。
  14.  端末装置が備えるプロセッサに情報提示方法を実行させるプログラムであって、
     前記端末装置は、
     生産ラインに備えられる機器を制御するコントローラと通信する手段と、
     ディスプレイと、
     前記機器を撮像可能なカメラと、をさらに備え、
     前記カメラは、前記ディスプレイの視野を撮像範囲に含み、
     前記機器は前記コントローラからの発光指令に基づき予め定められた発光パターンで発光する光源を有し、
     前記情報提示方法は、
     前記ディスプレイの表示領域内の表示位置であって、前記カメラの撮像画像における前記発光パターンを表す部分画像の位置を取得するステップと、
     前記ディスプレイの表示領域内の取得された前記表示位置に関連付けて、前記機器に関する情報を表示するよう前記ディスプレイを制御するステップとを有する、プログラム。
PCT/JP2021/009846 2021-01-15 2021-03-11 情報提示システム、端末装置およびプログラム WO2022153567A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180087621.6A CN116762053A (zh) 2021-01-15 2021-03-11 信息提示系统、终端装置以及程序
EP21919460.2A EP4280005A1 (en) 2021-01-15 2021-03-11 Information presentation system, terminal device, and program
US18/269,703 US12026417B2 (en) 2021-01-15 2021-03-11 Information presentation system, terminal device, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-004730 2021-01-15
JP2021004730A JP7517161B2 (ja) 2021-01-15 情報提示システム、端末装置およびプログラム

Publications (1)

Publication Number Publication Date
WO2022153567A1 true WO2022153567A1 (ja) 2022-07-21

Family

ID=82447044

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/009846 WO2022153567A1 (ja) 2021-01-15 2021-03-11 情報提示システム、端末装置およびプログラム

Country Status (4)

Country Link
US (1) US12026417B2 (ja)
EP (1) EP4280005A1 (ja)
CN (1) CN116762053A (ja)
WO (1) WO2022153567A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0620175A (ja) * 1992-07-03 1994-01-28 Hitachi Ltd 監視装置
JP2008171084A (ja) 2007-01-09 2008-07-24 Nissan Motor Co Ltd シーケンスプログラム設計支援装置およびこの装置を用いたシーケンスプログラム設計支援方法、ならびにシーケンス動作確認装置およびこの装置を用いたシーケンス動作確認方法
JP2017224229A (ja) 2016-06-17 2017-12-21 東芝三菱電機産業システム株式会社 設備監視携帯端末および設備監視システム
JP2019068239A (ja) 2017-09-29 2019-04-25 株式会社ジェイテクト 設備管理システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8971715B2 (en) * 2013-03-15 2015-03-03 Jingxi Zhang Apparatus and methods of displaying messages for electronic devices
US10521926B1 (en) * 2018-03-21 2019-12-31 Facebook Technologies, Llc Tileable non-planar structured light patterns for wide field-of-view depth sensing
EP3677995B1 (en) * 2018-08-01 2021-10-06 Rakuten Group, Inc. Display device, display method, program, and non-temporary computer-readable information storage medium
JP7309724B2 (ja) * 2018-08-15 2023-07-18 株式会社小糸製作所 車両用表示システム及び車両
US20200409643A1 (en) * 2019-06-27 2020-12-31 Synaptics Incorporated User interface system for display-less input devices
JP2021089315A (ja) * 2019-12-02 2021-06-10 ソニーグループ株式会社 情報処理装置、および情報処理方法
US11671311B2 (en) * 2020-10-23 2023-06-06 Netapp, Inc. Infrastructure appliance malfunction detection
US11681370B2 (en) * 2021-09-16 2023-06-20 Htc Corporation Handheld controller and control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0620175A (ja) * 1992-07-03 1994-01-28 Hitachi Ltd 監視装置
JP2008171084A (ja) 2007-01-09 2008-07-24 Nissan Motor Co Ltd シーケンスプログラム設計支援装置およびこの装置を用いたシーケンスプログラム設計支援方法、ならびにシーケンス動作確認装置およびこの装置を用いたシーケンス動作確認方法
JP2017224229A (ja) 2016-06-17 2017-12-21 東芝三菱電機産業システム株式会社 設備監視携帯端末および設備監視システム
JP2019068239A (ja) 2017-09-29 2019-04-25 株式会社ジェイテクト 設備管理システム

Also Published As

Publication number Publication date
US12026417B2 (en) 2024-07-02
EP4280005A1 (en) 2023-11-22
JP2022109428A (ja) 2022-07-28
CN116762053A (zh) 2023-09-15
US20240061632A1 (en) 2024-02-22

Similar Documents

Publication Publication Date Title
US10416946B1 (en) Wearable computer using programmed local tag
US9857863B2 (en) Display apparatus, control method for display apparatus, and program that can switch an operation mode of a display apparatus from a normal operation mode to a battery replacement mode
US9678654B2 (en) Wearable computer with superimposed controls and instructions for external device
EP3189511B1 (en) Home automation control using context sensitive menus
EP3210095B1 (en) System, method and computer program for hands-free configuration of a luminous distribution
JP2010003190A (ja) 保守点検システム
JP2006208997A (ja) 映像表示装置及び映像表示システム
CN108063909B (zh) 视频会议系统、图像跟踪采集方法及装置
WO2020031260A1 (ja) 制御装置、制御システム、報知方法及びプログラム
JP2017033334A (ja) ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。
JP2017010185A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2019105885A (ja) 頭部装着型表示装置、情報処理装置、情報処理システム、及び頭部装着型表示装置の制御方法
WO2022153567A1 (ja) 情報提示システム、端末装置およびプログラム
JP7517161B2 (ja) 情報提示システム、端末装置およびプログラム
US20100085275A1 (en) Device selection control apparatus
US20220070365A1 (en) Mixed reality image capture and smart inspection
CN114567535B (zh) 一种基于增强现实的产品交互与故障诊断方法
JP2006140816A (ja) 映像表示装置及び映像表示システム
KR20170038530A (ko) 복수의 디바이스에 대한 원격제어를 수행할 수 있는 원격제어장치
JP7057300B2 (ja) 制御システム
KR20170082040A (ko) 조명시스템 및 그의 제어방법
US20170195559A1 (en) Information processing device, imaging device, imaging system, method of controlling information processing device and program
KR102377988B1 (ko) 로봇과의 협업 보조 방법 및 장치
WO2017168622A1 (ja) 撮像画像共有システム、撮像画像共有方法及びプログラム
JP2016187130A (ja) ウェアラブル端末

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21919460

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18269703

Country of ref document: US

Ref document number: 202180087621.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021919460

Country of ref document: EP

Effective date: 20230816