WO2020196276A1 - 保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像 - Google Patents

保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像 Download PDF

Info

Publication number
WO2020196276A1
WO2020196276A1 PCT/JP2020/012325 JP2020012325W WO2020196276A1 WO 2020196276 A1 WO2020196276 A1 WO 2020196276A1 JP 2020012325 W JP2020012325 W JP 2020012325W WO 2020196276 A1 WO2020196276 A1 WO 2020196276A1
Authority
WO
WIPO (PCT)
Prior art keywords
maintenance
processed image
pixel region
identification information
dimensional
Prior art date
Application number
PCT/JP2020/012325
Other languages
English (en)
French (fr)
Inventor
剛士 波部
典洋 辻岡
Original Assignee
Sppテクノロジーズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/JP2019/012279 external-priority patent/WO2020194413A1/ja
Application filed by Sppテクノロジーズ株式会社 filed Critical Sppテクノロジーズ株式会社
Priority to JP2021509316A priority Critical patent/JP6970858B2/ja
Priority to US17/053,829 priority patent/US20220012868A1/en
Priority to EP20775810.3A priority patent/EP3822923A4/en
Priority to CN202080004994.8A priority patent/CN112655027A/zh
Priority to KR1020217001936A priority patent/KR20210142084A/ko
Publication of WO2020196276A1 publication Critical patent/WO2020196276A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Definitions

  • the present invention relates to a maintenance support system, a maintenance support method, a program, a processed image generation method, and a processed image for supporting maintenance work of industrial equipment to be maintained.
  • the present invention relates to a maintenance support system, a maintenance support method, a program, a processed image generation method, and a processed image, which can prevent leakage of confidential information other than the industrial equipment to be maintained and have few restrictions on imaging conditions. ..
  • a maintenance worker at the installation site of the industrial equipment to be maintained confirms the trouble situation and then performs the maintenance target.
  • the maintenance supporter on the manufacturer side is notified of the trouble situation by telephone, and the maintenance supporter issues various instructions to the maintenance worker by telephone. If the trouble is not solved even if the above telephone response is performed, the skilled worker is dispatched to the installation site to be maintained at the timing when the skilled worker on the manufacturer side is scheduled.
  • the trouble situation may not be well communicated to the maintenance supporter, or the maintenance supporter's instructions may not be well communicated to the maintenance worker, and the trouble may not be solved.
  • the captured image of the maintenance target acquired by the maintenance worker may be sent to the maintenance supporter by e-mail or the like, and the maintenance supporter may check the captured image to grasp the trouble situation. There is a problem that it takes time to grasp the situation.
  • the maintenance supporter may check the captured image to grasp the trouble situation.
  • immediate response is difficult.
  • a maintenance worker wears a wearable terminal (head-mounted display) equipped with an imaging means and a display, images the maintenance target using the wearable terminal, and this captured image (moving image).
  • a maintenance support system has been proposed that transmits the above to the maintenance supporter's terminal via a telecommunication line such as the Internet.
  • the captured image may include confidential information at the installation site. If the captured image containing the confidential information is transmitted to the maintenance supporter, the maintenance supporter can know the confidential information, which is a problem.
  • Patent Document 1 As a maintenance support system capable of preventing the leakage of confidential information, for example, the maintenance support system described in Patent Document 1 (in Patent Document 1, the image processing system) has been proposed.
  • the system described in Patent Document 1 includes an acquisition unit that acquires an original image that captures the original region, a recognition unit that recognizes one or more identifiers in the original image, and the one recognized by the recognition unit. Based on the above identifier, at least one of the first image portion that captures the first region of the original region and the second image portion that captures the second region obtained by removing the first region from the original region is specified.
  • Patent Document 1 It is an image processing system including a specific unit for generating an image and a generation unit for generating a processed image including the first image portion according to a specific result by the specific unit (Patent Document 1 claim 1). According to the system described in Patent Document 1, it is considered that leakage of confidential information or the like can be prevented by setting the first area as a maintenance target and the second area as confidential information or the like other than the maintenance target.
  • Patent Document 1 gives an example in which the internal area of the printing apparatus 300 (a rectangular area surrounded by four identifiers 30) is to be maintained, and the wearable tool 100 including the camera 170 is used.
  • the original region fluctuates according to the movement of the worker 10 to be mounted, and the original images 171a to 173a that capture different original regions are acquired, but it is necessary that the identifier 30 is included in each of the original images 171a to 173a.
  • Patent Document 1 paragraphs 0063 to 0065, FIGS. 6, 7, etc.). Therefore, for example, when an attempt is made to image the details of the maintenance target in close proximity to the maintenance target, there is a restriction that the proximity can be made only within the range in which the identifier is included in the original image.
  • Patent Document 1 since the system described in Patent Document 1 has a configuration in which the first image portion (the portion corresponding to the maintenance target) is two-dimensionally specified based on the identifier, the maintenance target to which the identifier is pasted is used as the identifier. There is a restriction that the image must be taken from one specific direction facing each other.
  • the present invention has been made to solve the above-mentioned problems of the prior art, and is a maintenance support system capable of preventing leakage of confidential information and the like other than industrial equipment to be maintained and having few restrictions on imaging conditions.
  • An object of the present invention is to provide a maintenance support method, a program, a processed image generation method, and a processed image.
  • the present invention is subject to maintenance with reference to a wearable terminal provided with an imaging means and worn by a maintenance worker and a predetermined reference point in the captured image acquired by the imaging means in the initial state.
  • the mask pixel region excluding the effective pixel region corresponding to the first three-dimensional region in the captured image acquired by the imaging means is specified and / or the mask pixel corresponding to the second three-dimensional region is specified.
  • the present invention provides a maintenance support system including a generation means and a communication means for transmitting the processed image generated by the processed image generation means to a maintenance supporter-side terminal operated by the maintenance supporter.
  • a predetermined first three-dimensional region including industrial equipment to be maintained and / or a predetermined reference point in an image captured by the imaging means in the initial state by the first specific means are used as a reference.
  • a predetermined second three-dimensional region excluding the industrial equipment to be maintained is specified.
  • the "imaging means in the initial state" in the present invention means an imaging means in which a predetermined reference point is located in the captured image. Specifically, for example, when an arbitrary point of the captured image is designated by using the AR cursor and the designated position is used as a reference point, the imaging means in the initial state is a point designated by using the AR cursor. It means an imaging means at a position where it can image.
  • the imaging means in the initial state means an imaging means at a position where a characteristic portion can be imaged.
  • the imaging means in the initial state means an imaging means at a position where the marker can be imaged.
  • first three-dimensional region and the second three-dimensional region are, for example, 8 of the three-dimensional region represented by the three-dimensional coordinate system with respect to the reference point when they are rectangular parallelepiped-shaped three-dimensional regions. It will be defined by the coordinates of each of the two vertices.
  • the coordinates of each vertex with reference to the reference point are stored in advance in the first specific means, or each vertex is specified using the AR cursor, and the sensor is used in an unknown environment.
  • the first specific means is a first three-dimensional region and / or a second 3
  • the dimensional area can be specified.
  • FIG. 10 is an explanatory diagram illustrating an outline of the SLAM technology.
  • First step First, the same corresponding points (feature points) are detected in two captured images obtained by imaging the imaging target at different times t0 and t1, respectively. In the example shown in FIG. 10, the corner portion to be imaged is detected as a feature point.
  • Second step Next, the amount of change in the posture (parallel / rotation component) of the imaging means is calculated by comparing the positions of the feature points in the two captured images. In addition, the position of the feature points in the three-dimensional space is obtained from the combination of the feature points by the principle of triangulation. This corresponds to the construction of an environmental map.
  • Third step Further, in two captured images obtained by imaging the imaging target at different times t1 and t2, changes in the positions of the feature points in the three-dimensional space are obtained, and imaging is performed from this change. Estimate the self-position of the means.
  • Fourth step Register and update feature points in a three-dimensional space (update the environment map). After that, in the SLAM technology, the third and fourth steps are repeatedly executed.
  • the SLAM technology is a technology for constantly grasping the three-dimensional space by alternately repeating the construction of the environmental map (restoration of the three-dimensional shape) and the estimation of the self-position of the imaging means.
  • the reference point in the present invention is arbitrarily set on the three-dimensional space after constructing this environmental map (restoring the three-dimensional shape, in other words, grasping the three-dimensional space). More specific contents of SLAM technology are described in, for example, IPSJ Research Report Vol. 2014-CVIM-190 No. Since it is known as described in 40 “3D shape restoration / self-position estimation (SLAM) and high-density 3D shape restoration from a moving camera image”, further detailed description thereof will be omitted in this specification. ..
  • the mask pixel area excluding the effective pixel area corresponding to the first three-dimensional area is specified by the second specific means.
  • the mask pixel area corresponding to the second three-dimensional area is specified by the second specific means.
  • the second specific means has a mask pixel region excluding the effective pixel region corresponding to the first three-dimensional region. And the mask pixel region corresponding to the second three-dimensional region is specified.
  • the first three-dimensional region and / or the second three-dimensional region based on the reference point in the captured image acquired by the imaging means in the initial state is specified by the first specific means.
  • the first three-dimensional region and / or the second three-dimensional region based on the reference point in the captured image acquired by the imaging means can be specified by using, for example, SLAM technology. It is possible.
  • the image captured by the imaging means in the post-movement state does not necessarily have to include the reference point.
  • the mask pixel region specified by the second specific means (the mask pixel region excluding the effective pixel region corresponding to the first three-dimensional region and / or the second 3) by the processed image generation means.
  • a processed image in which the mask pixel area corresponding to the three-dimensional area) is invisible is generated.
  • the "processed image in which the mask pixel region is invisible" in the present invention includes, for example, an image in which the captured image and the captured region are the same but the mask pixel region in the captured image is painted black, or a mask pixel from the captured image. An image obtained by cutting out only a pixel area other than the area can be mentioned.
  • the first three-dimensional area includes the maintenance target and the effective pixel area is the first.
  • the processed image in which the mask pixel area excluding the effective pixel area is invisible contains confidential information other than the maintenance target.
  • the pixel area corresponding to the above is not included.
  • the mask pixel area specified by the second specific means is the mask pixel area corresponding to the second three-dimensional area
  • the maintenance target is not included in the second three-dimensional area, so that the second three-dimensional area is not included. Is set to include at least confidential information other than the maintenance target, so that the processed image in which the mask pixel area is invisible does not include the pixel area corresponding to the confidential information other than the maintenance target.
  • the processed image generated by the processed image generation means is transmitted to the maintenance supporter side terminal operated by the maintenance supporter by the communication means. Therefore, on the maintenance supporter side terminal, the maintenance target included in the first three-dimensional area is visually recognized, and / or the confidential information other than the maintenance target included in the second three-dimensional area is not visually recognized. Therefore, it is possible to prevent leakage of confidential information, etc. that is not subject to maintenance.
  • the captured image acquired by the imaging means in the initial state includes a reference point
  • the captured image acquired by the imaging means in the moved state in which the wearable terminal is moved includes the image.
  • the reference point need not be included.
  • the mask pixel area excluding the effective pixel area corresponding to the predetermined first three-dimensional area including the maintenance target and / or the mask pixel area corresponding to the predetermined second three-dimensional area excluding the maintenance target refer to a technique for generating a processed image invisible to prevent leakage of confidential information and the like included in a mask pixel area other than the maintenance target, as a "Virtual Partition" technique.
  • the "industrial equipment” in the present invention includes mining machinery, chemical machinery, environmental equipment, power transmission equipment, tanks, commercial washing machines, etc., which are defined as industrial machinery by the Japan Industrial Machinery Manufacturers Association. Includes boilers / motors, plastic machines, wind and hydraulic machines, transport machines, iron making machines, etc. From another point of view, the "industrial equipment” in the present invention includes a manufacturing apparatus for manufacturing a tangible object.
  • a substrate processing device is a type of industrial equipment, and is a type of manufacturing device that manufactures tangible materials in that it manufactures a processed substrate (for example, a substrate that has been etched or a substrate that has been subjected to film formation). is there.
  • the "post-movement state in which the wearable terminal has moved” does not mean only the state in which the wearable terminal has reached the movement end point (for example, the position of the wearable terminal at the end of maintenance work). It means a state of moving to each position at a predetermined short-time pitch in the moving process until reaching the moving end point. Therefore, the processed image generation means generates a processed image in which the mask pixel region is invisible for all the captured images acquired by the imaging means in real time (at predetermined short-time pitches) until the moving end point is reached. Will be done.
  • the wearable terminal is provided so that not only the reference point is included in the captured image acquired by the imaging means in the initial state but also the reference point is always included in the captured image acquired by the imaging means in the moved state. It is also possible to move it to provide maintenance support. However, in such an embodiment, the same imaging conditions as the system described in Patent Document 1 are restricted. According to the present invention, it is possible to adopt an embodiment in which the reference point does not need to be included in the captured image acquired by the imaging means in the moved state. In other words, maintenance support can be provided by removing the restriction on the moving position of the wearable terminal so that the imaging means moves from the position where the reference point exists to the position where the reference point does not exist in the field of view of the imaging means.
  • the reference point is defined by a marker.
  • the first specific means grasps the three-dimensional space using the captured image acquired by the imaging means (for example, by SLAM technology using the captured image). , Excluding the predetermined first three-dimensional region including the industrial equipment to be maintained and / or the industrial equipment to be maintained, based on the reference point in the captured image acquired by the imaging means in the initial state. It is configured to specify a predetermined second three-dimensional region.
  • the second specifying means includes a plurality of second imaging means having different imaging directions, and identifies the mask pixel region based on the captured images acquired by the plurality of second imaging means.
  • the second specific means includes a plurality of second imaging means having different imaging directions, for example, based on the captured images acquired by the plurality of second imaging means, so-called both.
  • SLAM technology using ocular stereoscopic vision can be applied.
  • the mask pixel region can be accurately specified by applying the monocular SLAM technique for each captured image acquired by the second imaging means and combining them.
  • the wearable terminal is a head-mounted display including a display
  • the head-mounted display includes a state in which the captured image is displayed on the display and a state in which the processed image is recognizable on the display. Is configured to be switchable.
  • the "state of displaying the captured image" in the above preferred configuration is a state of actually displaying the captured image acquired by the imaging means on the display like an MR headset (a state in which a maintenance worker displays the displayed image).
  • a state in which the display is transparent and the maintenance worker can directly see the maintenance target through the transparent display in which nothing is displayed such as a transmissive AR headset. It is a concept that also includes.
  • the maintenance worker in the state where the processed image is recognizable on the display, the maintenance worker can also recognize the processed image transmitted to the maintenance supporter side terminal. Therefore, the maintenance worker can also confirm that the leakage of confidential information other than the maintenance target is prevented, and the maintenance worker can be given a sense of security.
  • the "state in which the processed image is recognizablely displayed" in the above preferable configuration is the same as the processed image transmitted to the maintenance supporter side terminal (the captured image and the captured area are the same, but the captured image).
  • the captured image In addition to displaying an image in which the mask pixel area is painted black or an image in which only the pixel area other than the mask pixel area is cut out from the captured image), the captured image has a mask pixel area and a pixel area other than the mask pixel area. It also includes a state in which an image overlaid with the boundary line with and is displayed, and a state in which a processed image is reduced and displayed on a part (for example, one corner) of the display screen.
  • the first specific means, the second specific means, the processed image generation means, and the communication means are attached to the wearable terminal.
  • This is an inside-out system in which the position of the wearable terminal (imaging means) is detected by a sensor or the like attached to the wearable terminal itself.
  • An outside-in configuration that detects the position of the wearable terminal using an external device separate from the wearable terminal (for example, using an imaging means or sensor installed outside the imaging means provided by the wearable terminal).
  • a wearable terminal such as a configuration for detecting the position of an imaging means provided in the wearable terminal
  • the power consumption of the wearable terminal is reduced, but there is a shield between the external device and the wearable terminal.
  • drawbacks such as non-existence and environmental restrictions, and high cost due to the need for high-precision external devices. Therefore, the above-mentioned preferable configuration has the advantages of low cost and few environmental restrictions.
  • the present invention includes the maintenance supporter side terminal, and the maintenance supporter side terminal is configured to be capable of bidirectional data communication with the communication means.
  • the maintenance supporter side terminal and the communication means can perform data communication in both directions, not only the processed image is transmitted from the communication means to the maintenance supporter side terminal, but also maintenance support is performed.
  • Effective maintenance work can be performed using only the maintenance support system according to the present invention, such as transmitting an image for maintenance work or transmitting voice data instructing the content of maintenance work from a terminal on the user side to a communication means. It is possible to do.
  • the server includes a server in which the second identification information is stored, and the server determines whether or not the identification information transmitted from the communication means to the server matches the first identification information stored in the server. At the same time, it is determined whether or not the identification information transmitted from the maintenance supporter side terminal to the server matches the second identification information stored in the server, and the communication means transmits the identification information to the server. When the identification information and the first identification information match, and the identification information transmitted from the maintenance supporter side terminal to the server and the second identification information match, the said via the server. It is configured to enable bidirectional data communication between the communication means and the maintenance supporter side terminal.
  • the server determines whether or not the identification information transmitted from the communication means to the server matches the first identification information (identification information of the maintenance worker) stored in the server. To. In other words, the server determines whether or not the identification information of the maintenance worker who uses the maintenance support system according to the present invention has been transmitted to the server. Further, the server determines whether or not the identification information transmitted from the maintenance supporter side terminal to the server and the second identification information (identification information of the maintenance supporter) stored in the server match. In other words, the server determines whether or not the identification information of the maintenance supporter who uses the maintenance support system according to the present invention has been transmitted to the server.
  • the identification information transmitted from the communication means to the server matches the first identification information
  • the identification information transmitted from the maintenance support terminal to the server matches the second identification information (in other words, in other words).
  • the communication means via the server and the maintenance supporter Bidirectional data communication with the side terminal becomes possible.
  • the communication means and the communication means Since bidirectional data communication with the maintenance supporter side terminal is possible, only predetermined maintenance workers and maintenance supporters can use the maintenance support system according to the present invention, and the industry is the target of maintenance. It is possible to more reliably prevent the leakage of confidential information other than equipment.
  • a configuration capable of data communication from the maintenance target industrial equipment (for example, a board processing device or the like) to the maintenance supporter side terminal is made, for example, the maintenance target. If the obtained process log data (measured values and set values related to the process to be maintained) is sent to the maintenance supporter terminal, the maintenance supporter can instruct the contents of maintenance work while referring to this process log data. It is possible to perform even more effective maintenance work.
  • the present invention is a maintenance support method using a wearable terminal provided with an image pickup means and worn by a maintenance worker, and is acquired by the image pickup means in the initial state by the first specific means.
  • the effective pixel region corresponding to the first three-dimensional region in the captured image acquired by the imaging means is excluded by the second specific means.
  • Imaging acquired by the imaging means in the moved state by the second specifying step of specifying the mask pixel region and / or the mask pixel region corresponding to the second three-dimensional region and the processed image generation means is provided for the processed image generation step of generating the processed image in which the mask pixel region specified in the second specific step is invisible, and the processed image generated in the processed image generation step by the communication means. It is also provided as a maintenance support method characterized by including a communication process of transmitting to a user-side terminal.
  • the present invention combines the first specific step, the second specific step, the processed image generation step and the communication step included in the maintenance support method with the first specific means and the first. 2 It is also provided as a program for causing each of the specific means, the processed image generation means, and the communication means to execute. It is also possible to provide the above program as a storage medium that can be read by a computer (CPU) that stores the program.
  • the present invention presents a predetermined first three-dimensional region including an industrial device to be maintained in an image captured by an imaging means provided in a wearable terminal worn by a maintenance worker.
  • the mask pixel area excluding the effective pixel area corresponding to is specified, and / or the mask pixel area corresponding to the predetermined second three-dimensional area excluding the industrial equipment to be maintained is specified, and the mask pixel area is specified. It is also provided as a method for generating a processed image, which comprises generating a processed image in which the above is invisible.
  • the present invention is a method of generating a processed image using an image captured by an image capturing means provided in a wearable terminal worn by a maintenance worker, and the first specific means is used.
  • the predetermined first three-dimensional region including the industrial equipment to be maintained and / or the industrial equipment to be maintained is excluded.
  • the first specific step of specifying a predetermined second three-dimensional region and in the post-movement state in which the wearable terminal has moved the first three-dimensional region in the captured image acquired by the imaging means by the second specific means.
  • the post-movement state by the second specific step of specifying the mask pixel area excluding the effective pixel area corresponding to the above and / or the mask pixel area corresponding to the second three-dimensional area and the processed image generation means is also provided as a generation method.
  • the present invention presents a predetermined first three-dimensional region including an industrial device to be maintained in an image captured by an imaging means provided in a wearable terminal worn by a maintenance worker.
  • the mask pixel area excluding the effective pixel area corresponding to the above and / or the mask pixel area corresponding to the predetermined second three-dimensional area excluding the industrial equipment to be maintained is also provided as an invisible processed image.
  • the present invention has a mask pixel area excluding an effective pixel area generated by the above-mentioned generation method and corresponding to the first three-dimensional area including the industrial equipment to be maintained. / Or, the mask pixel region corresponding to the second three-dimensional region excluding the industrial equipment to be maintained is also provided as an invisible processed image.
  • FIG. 1 It is a figure which shows typically the schematic structure of the maintenance support system which concerns on 1st Embodiment of this invention. It is explanatory drawing explaining the schematic operation of the maintenance support system shown in FIG. It is a figure which shows an example of the captured image acquired by the imaging means in the initial state shown in FIG. 1 and the processed image generated by the processed image generation means. It is a figure which shows an example of the captured image acquired by the image pickup means of the state after movement which the wearable terminal which has moved and the processed image generated by the processed image generation means shown in FIG. It is explanatory drawing explaining the setting example of the 1st 3D area in the maintenance support system which concerns on 2nd Embodiment of this invention.
  • FIG. 7 is a plan view illustrating a schematic operation of the second specific means when the first three-dimensional region is set as shown in FIG. 7. It is a figure which shows an example of the processed image generated by the processed image generation means when the 1st 3D area is set and the 2nd 3D area is set as shown in FIG. 7. It is explanatory drawing explaining the outline of SLAM technology.
  • FIG. 1 is a diagram schematically showing a schematic configuration of a maintenance support system according to a first embodiment of the present invention.
  • FIG. 1A is an overall configuration diagram
  • FIG. 1B is a diagram showing a wearable terminal and components attached to the wearable terminal
  • FIG. 1C is a control signal processing shown in FIG. 1B.
  • It is a block diagram which shows the internal structure of a means.
  • the maintenance support system 100 according to the present embodiment includes a wearable terminal 1, a maintenance supporter side terminal 2, and a control signal processing means 3. Further, the maintenance support system 100 includes a server 6 as a preferable configuration.
  • the wearable terminal 1 is a terminal worn by a maintenance worker who is at the installation site of the maintenance target (industrial equipment such as a substrate processing device) T and performs maintenance work.
  • the wearable terminal 1 of the present embodiment is a glasses-type wearable terminal (head-mounted display), and includes a frame 11 that a maintenance worker hangs on his / her ear.
  • the wearable terminal 1 is provided with an imaging means 12 at the center of the front side of the frame 11 (a position corresponding to the vicinity of the eyebrows of the maintenance worker when the maintenance worker puts the frame 11 on his / her ear).
  • a color (RGB) camera is used as the imaging means 12 of the present embodiment.
  • the imaging direction (line-of-sight direction) L1 of the imaging means 12 is set so as to face the eyebrows of the maintenance worker when the maintenance worker puts the frame 11 on his / her ear.
  • the wearable terminal 1 is attached to the front side of the frame 11 and includes a display 13 that covers the front of the field of view of the maintenance worker when the maintenance worker puts the frame 11 on his / her ear.
  • a transmissive type display 13 is used. Therefore, when nothing is displayed on the display 13, it can be used in the same manner as ordinary eyeglasses.
  • the imaging means 12 can also be used as a hardware part of the second specific means 32 described later, if necessary.
  • the wearable terminal 1 of the present embodiment is provided with a plurality of second imaging means 32a and 32b having different imaging directions.
  • a pair of second imaging means 32a and 32b are attached to the left and right ends on the front side of the frame 11, and the imaging direction (line-of-sight direction) of the second imaging means 32a.
  • the imaging direction (line-of-sight direction) L3 of the second imaging means 32b is set to be different from that of L2.
  • a color (RGB) camera can be used as in the imaging means 12.
  • the second imaging means 32a and 32b for example, a wide-angle camera provided with a wide-angle lens (including a super wide-angle lens and a fisheye lens) can be used.
  • the second imaging means 32a and 32b can be used as a hardware part of the second specific means 32 described later.
  • a distance image sensor (also referred to as a depth camera or a 3D camera) 32c having a line-of-sight direction substantially the same as that of the imaging means 12 is attached to the wearable terminal 1 of the present embodiment.
  • the distance image sensor 32c is attached below the image pickup means 12 at the center of the front side of the frame 11.
  • the distance image sensor 32c is, for example, a distance image that measures the distance to the subject in the field of view by the TOF (TimeOfFlight) method and acquires a distance image in which the distance to the subject is represented by the density value of each pixel.
  • a sensor is used.
  • the distance image sensor 32c can be used as a hardware part of the second specific means 32 described later.
  • an inertial sensor 32d is attached to the wearable terminal 1 of the present embodiment. Specifically, the inertial sensor 32d is attached to the side of the frame 11.
  • the inertial sensor 32d is composed of, for example, a 3-axis acceleration sensor, a 3-axis angular velocity sensor (gyro sensor), and a 3-axis geomagnetic (orientation) sensor.
  • the inertial sensor 32d can be used as a hardware part of the second specific means 32 described later.
  • a speaker 4 and a microphone 5 are also attached to the side of the frame 11 of the wearable terminal 1 of the present embodiment.
  • the wearable terminal 1 having the configuration as described above can be configured by using, for example, "HoloLens” (registered trademark), which is a smart glass manufactured by Microsoft Corporation, and improving it.
  • HoloLens registered trademark
  • the maintenance supporter side terminal 2 is generally a terminal that is located away from the installation site of the maintenance target T and is operated by the maintenance supporter.
  • the maintenance supporter side terminal 2 is electrically connected to the wearable terminal 1 (specifically, the control signal processing means 3 attached to the wearable terminal 1) through a telecommunication line N such as the Internet.
  • the maintenance supporter side terminal 2 of the present embodiment is electrically connected to the wearable terminal 1 via the server 6 electrically connected to the telecommunication line N.
  • the maintenance supporter side terminal 2 is configured to be capable of bidirectional data communication with the communication means 34 described later.
  • the maintenance supporter side terminal 2 for example, a desktop computer can be used, but the present invention is not limited to this, and a processed image is displayed on a laptop computer, a tablet computer, a smartphone, etc. as described later.
  • Various terminals can be used as long as possible.
  • the maintenance supporter side terminal 2 of the present embodiment is not an essential configuration, it is also electrically connected to the maintenance target T through the telecommunication line N.
  • a computer not shown in FIG. 1A
  • collects process log data measured values and set values related to the process of the maintenance target T
  • the computer is electrically connected to the maintenance supporter side terminal 2 via a server 6 which is provided and electrically connected to the telecommunications line N. Then, the process log data obtained by the maintenance target T is sequentially transmitted to the maintenance support side terminal 2 and stored in the maintenance support side terminal 2.
  • the server 6 it becomes easy to manage the identification information and the usage history of the wearable terminal 1 and the maintenance target T connected to the maintenance supporter side terminal 2.
  • the control signal processing means 3 is attached to the wearable terminal 1 (side of the frame 11), and is attached to the image pickup means 12, the display 13, the second image pickup means 32a, 32b, the distance image sensor 32c, the inertial sensor 32d, the speaker 4, and the microphone. It is electrically connected to each component of 5, and has a function of controlling each component and processing an output signal of each component.
  • the control signal processing means 3 is mainly composed of a CPU, a memory such as a ROM or RAM, and a program stored in the memory and causing the CPU to execute an operation described later.
  • the control signal processing means 3 is a program that causes the CPU to execute the operation as the first specific means 31, and a program that causes the CPU to execute the operation of the software portion 32e of the second specific means 32. And a program that causes the CPU to execute the operation as the processed image generation means 33. Further, the control signal processing means 3 includes a communication means 34.
  • the communication means 34 is composed of an antenna, a program for operating the antenna, and the like. The program as described above may be updated by directly connecting the predetermined computer and the control signal processing means 3 with a USB cable or the like, or by updating directly from the server 6.
  • the first specific means 31, the second specific means 32 (at least one of the image pickup means 12, the second image pickup means 32a and 32b, the distance image sensor 32c and the inertial sensor 32d, and the software portion 32e). All of the processed image generation means 33 and the communication means 34 are attached to the wearable terminal 1. As described above, this is an inside-out system configuration in which the position of the wearable terminal 1 (imaging means 12) is detected by a sensor or the like attached to the wearable terminal 1 itself.
  • the server 6 authenticates both the maintenance worker's identification information and the maintenance supporter's identification information. Specifically, it is determined whether or not both the maintenance worker's identification information and the maintenance supporter's identification information have been transmitted to the server 6.
  • the first identification information which is the identification information of the maintenance worker
  • the second identification information which is the identification information of the maintenance supporter
  • the first identification information for example, ID number
  • the first identification information for example, ID number
  • the maintenance supporter side terminal 2 Is input to the maintenance supporter side terminal 2, and the input first identification information is transmitted to the server 6 through the telecommunications line N and stored.
  • the maintenance supporter uses the keyboard or the like of the maintenance supporter side terminal 2 to obtain the second identification information (for example, ID number) of the maintenance supporter who is determined to use the maintenance support system 100.
  • the input second identification information is transmitted to the server 6 through the telecommunications line N and stored.
  • the maintenance supporter side terminal 2 stores the first identification information of the maintenance worker and the second identification information of the maintenance supporter who may use the maintenance support system 100 in advance, and the maintenance supporter performs this.
  • the first identification information of the maintenance worker who will actually use the maintenance support system 100 and the second identification information of the maintenance supporter are used.
  • the selected first identification information and the second identification information may be transmitted to the server 6 through the telecommunications line N and stored. ..
  • the server 6 when the first identification information and the second identification information are stored in the server 6, the server 6 also includes the start time and time of use of the maintenance support system 100 by the maintenance worker and the maintenance supporter.
  • the identification information is transmitted from the communication means 34 of the wearable terminal 1 to the server 6.
  • the identification information transmitted from the communication means 34 is, for example, the identification information of the wearable terminal 1 stored in advance in the control signal processing means 3 of the wearable terminal 1.
  • the wearable terminal 1 worn by the maintenance worker is determined in advance, and the identification information of the wearable terminal 1 is transmitted to the server 6 as the maintenance worker's identification information (first identification information).
  • the maintenance supporter side terminal 2 transmits the identification information to the server 6.
  • the identification information transmitted from the maintenance supporter side terminal 2 is, for example, the second identification information of the maintenance supporter input by the maintenance supporter using the keyboard or the like of the maintenance supporter side terminal 2.
  • the identification information of the maintenance supporter side terminal 2 stored in advance in the maintenance supporter side terminal 2 is used as the maintenance supporter identification information ( It may be transmitted to the server 6 as the second identification information).
  • the server 6 determines whether or not the identification information transmitted from the communication means 34 to the server 6 and the first identification information stored in the server 6 match as described above. Similarly, the server 6 determines whether or not the identification information transmitted from the maintenance supporter side terminal 2 to the server 6 and the second identification information stored in the server 6 match as described above. Then, the identification information transmitted from the communication means 34 to the server 6 matches the first identification information, and the identification information transmitted from the maintenance supporter side terminal 2 to the server 6 matches the second identification information. In the case (when it is authenticated that both the identification information of the maintenance worker who uses the maintenance support system 100 and the identification information of the maintenance supporter are transmitted to the server 6), the server is used from the start time until the usage time elapses.
  • Bidirectional data communication between the communication means 34 and the maintenance supporter side terminal 2 via 6 is enabled.
  • the maintenance support system 100 according to the present embodiment is maintained with the communication means 34 only when it is authenticated that both the maintenance worker's identification information and the maintenance supporter's identification information have been transmitted to the server 6 as described above. Bidirectional data communication with the supporter side terminal 2 becomes possible. Therefore, only a predetermined maintenance worker and maintenance supporter can use the maintenance support system 100, and it is possible to more reliably prevent leakage of confidential information or the like other than the maintenance target T.
  • bidirectional voice data can be transmitted and received, and the transmitted and received voice data can be transmitted and received. May be stored in the server 6 and / or the maintenance supporter side terminal 2. By storing the voice data, it is possible to surely leave the history of maintenance support. In addition, if at least one of the maintenance worker and the maintenance supporter suspends or middle-stages the use of the maintenance support system 100 before the usage time elapses, a predetermined setting for instructing the suspension or middle stage of use.
  • the server 6 cancels the bidirectional data communication between the communication means 34 and the maintenance supporter side terminal 2.
  • it can be configured to be interrupted.
  • each terminal 1 is only when all the identification information transmitted from the terminals 1 and 2 is authenticated by the server 6.
  • a mode that enables all bidirectional data communication in 2 and 2 may be adopted, or a mode that enables only bidirectional data communication in each of the authenticated terminals 1 and 2 may be adopted.
  • FIG. 2 is an explanatory diagram illustrating a schematic operation of the maintenance support system 100 according to the present embodiment.
  • the maintenance worker wearing the wearable terminal 1 is not shown.
  • FIG. 3 is a diagram showing an example of an captured image acquired by the imaging means 12 in the initial state and a processed image generated by the processed image generating means 33.
  • FIG. 3A shows an example of a captured image
  • FIG. 3B shows an example of a processed image.
  • FIG. 4 is a diagram showing an example of an captured image acquired by the image capturing means 12 in the moved state after the wearable terminal 1 has moved and a processed image generated by the processed image generating means 33.
  • FIG. 4A shows an example of a captured image
  • FIG. 4B shows an example of a processed image.
  • the boundary line of the first three-dimensional region TA is shown by a broken line in FIGS. 3 and 4 for convenience of explanation, the boundary line does not exist in the actual captured image.
  • members T1 to T3 are provided on the front surface of the maintenance target T of the present embodiment.
  • a device S related to confidential information is arranged. First, the maintenance worker wearing the wearable terminal 1 moves to a position facing the maintenance target T so that the image pickup means 12 of the wearable terminal 1 can image the maintenance target T, for example. Then, the maintenance target T is imaged by the image pickup means 12 in the initial state (the image pickup means 12 included in the wearable terminal 1 shown by the solid line in FIG. 2), and the captured image (moving image) as shown in FIG. 3 (a). To get.
  • the maintenance worker specifies an arbitrary point of the captured image displayed on the display 13 by using the AR cursor, and the first specifying means 31 specifies the designated point as the reference point M. Then, it is stored in the first specific means 31.
  • the first specific means 31 performs predetermined image processing on the captured image to extract a pixel region corresponding to a characteristic portion (for example, a corner portion of the maintenance target T) in the captured image, and this It is also possible to specify and store the center of the pixel area as the reference point M.
  • a marker is attached to the maintenance target T (markers such as AR marker, QR code (registered trademark), and bar code are attached by pasting, printing, engraving, etc.)
  • the first specific means when a marker is attached to the maintenance target T (markers such as AR marker, QR code (registered trademark), and bar code are attached by pasting, printing, engraving, etc.), the first specific means. It is also possible for 31 to extract a pixel region corresponding to a marker by performing predetermined image processing on the
  • the first specifying means 31 specifies a predetermined first three-dimensional region (for example, a rectangular parallelepiped three-dimensional region) TA including the maintenance target T with reference to the reference point M.
  • the first three-dimensional region TA is a three-dimensional region in the virtual space.
  • the first specific means 31 is represented by a three-dimensional coordinate system (a three-dimensional coordinate system having an X-axis, a Y-axis, and a Z-axis shown in FIG. 2) with reference to a reference point M.
  • the coordinates of the vertices P1 to P8 of the three-dimensional region TA of 1 are stored in advance, and the first specific means 31 uses, for example, SLAM technology, and the first 3 based on the coordinates of the vertices P1 to P8. Identify the dimensional region TA. Further, the maintenance worker specifies the vertices P1 to P8 of the first three-dimensional region TA with respect to the captured image displayed on the display 13 by using the AR cursor, so that the first specific means 31 can be, for example, , SLAM technology can also be used to identify the first three-dimensional region TA.
  • the first specifying means 31 calculates the feature amount of the pixel region corresponding to the marker, and identifies and identifies the marker identification information from the feature amount. It is also possible to specify the first three-dimensional region TA based on the coordinates of the vertices P1 to P8 stored in the first specific means 31 in association with the identification information, for example, by using SLAM technology.
  • each vertex P1 to P8 (or more than eight vertices) is set in detail based on the design drawing of the maintenance target T in advance and associated with the identification information of the marker. It can be kept and is especially effective.
  • FIG. 2 illustrates a case where the wearable terminal 1 worn by the maintenance worker moves within the first three-dimensional region TA.
  • the image pickup means 12 provided in the wearable terminal 1 (broken line in FIG. 2).
  • the image pickup means 12) provided in the wearable terminal 1 illustrated in 1 is used to image the maintenance target T, and an image as shown in FIG. 4A is acquired.
  • This captured image does not include the reference point M.
  • the image pickup means 12 and the second image pickup means 32a and 32b continuously acquire the captured images.
  • the distance image sensor 32c continuously acquires the distance image.
  • the inertial sensor 32d continuously detects the acceleration, angular velocity, and geomagnetism (azimuth) of the imaging means 12 included in the wearable terminal 1.
  • the second specific means 32 is in a post-movement state in which the wearable terminal 1 has moved.
  • a mask pixel region excluding the effective pixel region corresponding to the first three-dimensional region TA in the captured image acquired by the imaging means 12 is specified.
  • the second imaging means 32a and 32b constitute the second specific means 32
  • the second imaging means 32a and 32b are based on the captured images continuously acquired by the second imaging means 32a and 32b in the moving process.
  • the software portion 32e constituting the specific means 32 constructs a self-position of the wearable terminal 1 (imaging means 12) and a map of the surrounding environment by using, for example, SLAM technology, so that the first in the captured image in the post-movement state. Identify the three-dimensional region TA.
  • the software portion 32e constituting the second specific means 32 is based on the distance image continuously acquired by the distance image sensor 32c in the moving process. For example, SLAM technology is used to identify the first three-dimensional region TA in the captured image of the post-movement state. Further, the same applies when the image pickup means 12 and the inertial sensor 32d form the second specific means 32. Further, it is also conceivable that any one of the second image pickup means 32a and 32b, the distance image sensor 32c, the image pickup means 12 and the inertial sensor 32d may be combined to form the second specific means 32.
  • the identification means 32 identifies the first three-dimensional region TA in the captured image of the post-movement state, for example using SLAM technology.
  • the second specifying means 32 of the present embodiment does not use GPS when specifying the first three-dimensional region TA in the captured image in the post-movement state (as will be described later, the first in the captured image in the post-movement state). The same applies when specifying the two-dimensional region SA). This is because GPS cannot be used indoors and causes a position detection error of at least several meters.
  • the second specifying means 32 identifies the first three-dimensional region TA in the captured image in the moved state, and sets the mask pixel region excluding the effective pixel region corresponding to the first three-dimensional region TA. Identify. Geometric calculation determines which part of the visual field of the image pickup means 12 in the moved state the first three-dimensional region TA corresponds to, in other words, which pixel region of the image captured by the image pickup means 12 corresponds to. Therefore, the effective pixel region corresponding to the first three-dimensional region TA in the captured image can be specified, and the mask pixel region excluding the effective pixel region can be specified.
  • the processed image generation means 33 generates a processed image (moving image) in which the mask pixel region specified by the second specific means 32 is invisible with respect to the captured image acquired by the image capturing means 12 in the moved state.
  • a processed image moving image
  • an image in which the mask pixel region is painted black is generated as a processed image.
  • the processed image is not limited to this, and it is also possible to cut out only the effective pixel area (only the pixel area other than the mask pixel area) from the captured image. Further, instead of painting the mask pixel area black, various modes can be adopted as long as it is possible to prevent leakage of confidential information or the like by performing mosaic processing or applying foggy.
  • the communication means 34 transmits the processed image generated by the processed image generating means 33 to the maintenance supporter side terminal 2 through the telecommunication line N. Therefore, as shown in FIG. 4A, even if the device S related to the confidential information can be visually recognized in the captured image, the maintenance supporter side terminal 2 has the first one as shown in FIG. 4B. Only the maintenance target T included in the three-dimensional region TA is visually recognized, and it is possible to prevent leakage of confidential information or the like other than the maintenance target T.
  • the second specific means 32, the processed image generating means 33, and the communication means 34 also operate on the captured image acquired by the imaging means 12 in the initial state as shown in FIG. 3A. As a result, the processed image generation means 33 generates a processed image as shown in FIG. 3 (b) in which the mask pixel area is invisible even for the captured image acquired by the imaging means in the initial state, and the maintenance supporter side. It will be transmitted to the terminal 2.
  • the second imaging means 32a, 32b, etc. constituting the second specifying means 32 break down or some trouble occurs, the change in the position of the imaging means 12 in the moved state from the initial state can be correctly specified. It disappears. Along with this, the effective pixel region corresponding to the first three-dimensional region TA in the captured image acquired by the image capturing means 12 in the moved state cannot be correctly specified. As a result, there is a possibility that the generated processed image contains confidential information other than the maintenance target T. Therefore, when the second imaging means 32a, 32b, etc. fail or some trouble occurs, the processed image generation means 33 generates a processed image in which all the pixel areas are invisible, or the communication means 34 It is preferable to have a function of stopping the transmission of the processed image.
  • the display 13 of the present embodiment is in a state of displaying an captured image on the display 13 (specifically, in the present embodiment, nothing is displayed on the transmissive display 13 and nothing is displayed by a maintenance worker.
  • the state in which the maintenance target T can be directly visually recognized through the display 13 which is not provided) and the state in which the processed image is recognizable on the display 13 are switchable. Specifically, for example, it is possible to adopt a mode in which a switching button (not shown) is provided in the frame 11 and the control signal processing means 3 is controlled to select one of the states by pressing the switching button. is there.
  • the maintenance worker In the state where the captured image is displayed on the display 13 (the state in which the maintenance worker can directly see the maintenance target T), there is no portion that obstructs the view of the maintenance worker, so that the maintenance work can be performed safely.
  • the maintenance worker in the state where the processed image is recognizable on the display 13, the maintenance worker can also recognize the processed image transmitted to the maintenance supporter side terminal 2. Therefore, the maintenance worker can confirm that the leakage of confidential information other than the maintenance target T is prevented, and the maintenance worker can be given a sense of security.
  • the state in which the processed image is recognizable is the same as the processed image transmitted to the maintenance supporter side terminal 2 (the area shown in the captured image is the same, but the mask pixel area in the captured image is black.
  • the captured image is effective with the mask pixel area.
  • the state of displaying an image overlaid with the boundary line with the pixel area (the boundary line of the first three-dimensional area TA), the state of reducing the processed image and displaying it on a part of the display screen, and the like are also included.
  • one first three-dimensional region TA is specified for one maintenance target T
  • a reference point M may be set for each maintenance target T
  • the first three-dimensional region TA may be specified for each maintenance target T.
  • one maintenance target T is a board processing device and a component of the board processing device is removed to perform repair work or the like on a predetermined work desk
  • another maintenance target T is set on this work desk.
  • the reference point M may be set on the work desk as well.
  • the present invention as the first three-dimensional region TA, a rectangular parallelepiped three-dimensional region having eight vertices P1 to P8 has been described as an example, but the present invention is not limited to this. Depending on the shape of the maintenance target T, it is also possible to set the first three-dimensional region TA having a shape other than the rectangular parallelepiped specified at more than eight points.
  • the case where one wearable terminal 1 is electrically connected to the maintenance supporter side terminal 2 has been described as an example, but the present invention is not limited to this. It is also possible to adopt a configuration in which a plurality of wearable terminals 1 are electrically connected to the maintenance supporter side terminal 2.
  • the imaging means 12 of the plurality of wearable terminals 1 may be configured to specify the same first three-dimensional region TA with the same reference point M as a reference, or the reference point M may be different for each wearable terminal 1. Alternatively, it is also possible to adopt a configuration in which the specified first three-dimensional region TA is different.
  • the maintenance supporter side terminal 2 can adopt various modes such as displaying each processed image transmitted from a plurality of wearable terminals 1 side by side at the same time, or making it possible to switch the processed image to be displayed. .. Further, regardless of whether the wearable terminal 1 is one or a plurality of wearable terminals 1, it is possible to prepare a plurality of maintenance supporter side terminals 2 that are electrically connected to the wearable terminal 1.
  • the area including the maintenance target T and the area including the range in which the wearable terminal 1 moves is set as the first three-dimensional area TA. It is not limited to. Even if the maintenance target T does not exist or the wearable terminal 1 does not move, the first area is included so that this area is included in the area where it is predetermined that the device S related to the confidential information does not exist. It is also possible to further expand the three-dimensional region TA of. Further, the first three-dimensional region TA is not limited to one connected region, and a plurality of separated regions can be set as the first three-dimensional region TA.
  • the maintenance support system according to the second embodiment also has the same schematic configuration as the maintenance support system 100 according to the first embodiment described with reference to FIG. However, in the maintenance support system according to the second embodiment, the setting of the first three-dimensional region TA is different from the maintenance support system 100 according to the first embodiment. This point will be described below.
  • FIG. 5 is an explanatory diagram illustrating a setting example of the first three-dimensional region TA in the maintenance support system according to the second embodiment.
  • the first three-dimensional region TA is composed of a plurality of (eight in the example shown in FIG. 5) virtual partition walls W1 to W8.
  • the region surrounded by the eight partition walls W1 to W8 is set as the first three-dimensional region TA.
  • the partition walls W1 to W8 may be designated by, for example, a maintenance worker using an AR cursor with respect to the captured image displayed on the display 13.
  • the first specifying means 31 specifies the region surrounded by the partition walls W1 to W8 as the first three-dimensional region TA.
  • the maintenance worker can freely specify the position, size, and number of partition walls as shown in FIG.
  • the position, size, and number of partition walls can be freely changed accordingly, which is excellent in versatility and the mask pixel area by the second specific means 32. Is also easy to identify.
  • the maintenance target T includes not only the board processing device main body but also an auxiliary device (for example, a pump, a chiller, etc.) located at a place slightly away from the board processing device main body, as shown in FIG.
  • an auxiliary device for example, a pump, a chiller, etc.
  • FIG. 5 illustrates an example in which there are some gaps between the partition walls W1 and W2, between the partition walls W2 and W3, between the partition walls W5 and W6, and between the partition walls W6 and W7. ..
  • the imaging direction (line-of-sight direction) L1 of the imaging means 12 of the wearable terminal 1 in the first three-dimensional region TA It is preferable to have a portion where the partition walls overlap each other. Further, in the example shown in FIG.
  • the ceiling portion and the floor portion of the place where the maintenance target T is located are not provided with a partition wall, but the device S related to the confidential information around the maintenance target T is a maintenance supporter side terminal. As long as it is not visible in 2, the partition wall may be set freely.
  • the maintenance support system according to the third embodiment also has the same schematic configuration as the maintenance support system 100 according to the first embodiment described with reference to FIG. However, the maintenance support system according to the third embodiment is different from the maintenance support system 100 according to the first embodiment in that the second three-dimensional region SA is used instead of the first three-dimensional region TA. This point will be described below.
  • the first specific means 31 specifies a predetermined second three-dimensional region excluding the maintenance target T with reference to the reference point M (for example, as shown in FIG. 6).
  • the second three-dimensional region SA including the device S related to the confidential information is specified), and the second specifying means 32 is configured to specify the mask pixel region corresponding to the second three-dimensional region SA.
  • the second three-dimensional region SA is a three-dimensional region in the virtual space. As for the case of specifying the second three-dimensional region SA, the contents described above for specifying the first three-dimensional region TA can be similarly applied.
  • the first specifying means 31 may specify the second three-dimensional region SA instead of specifying the first three-dimensional region TA, or the first three-dimensional region TA and the second three-dimensional region TA. Both regions SA may be specified.
  • the second specifying means 32 is a mask corresponding to the second three-dimensional region SA.
  • the pixel area will be specified.
  • the first specific means 31 specifies both the first three-dimensional region TA and the second three-dimensional region SA
  • the second specific means 32 excludes the effective pixel region corresponding to the first three-dimensional region TA.
  • the mask pixel area is specified, and the mask pixel area corresponding to the second three-dimensional area SA is specified.
  • the mask pixel area excluding the effective pixel area corresponding to the first three-dimensional area TA and the mask pixel area corresponding to the second three-dimensional area SA may overlap.
  • at least one of the pixel regions specified as the mask pixel region may be the mask pixel region.
  • the maintenance support system according to the fourth embodiment also has the same schematic configuration as the maintenance support system 100 according to the first embodiment described with reference to FIG. However, in the maintenance support system according to the fourth embodiment, the setting of the first three-dimensional region TA is different from the maintenance support system 100 according to the first embodiment and the maintenance support system according to the second embodiment. This point will be described below. In the following description, a case where there are two devices (devices S1 and S2) related to confidential information will be illustrated.
  • FIG. 7 is an explanatory diagram illustrating a setting example of the first three-dimensional region TA in the maintenance support system according to the fourth embodiment and the schematic operation of the second specific means 32 at this time.
  • FIG. 7A is a perspective view showing a setting example of the first three-dimensional region TA.
  • FIG. 7B is a plan view illustrating the schematic operation of the second specific means 32, and the wearable terminal 1 is provided with the front surface of the maintenance target T (the surface provided with the members T1 to T3 shown in FIG. 7A). ) Facing the center (the imaging direction L1 of the imaging means 12 of the wearable terminal 1 shown in FIG. 7A is orthogonal to the front surface of the maintenance target T).
  • FIG. 7 is an explanatory diagram illustrating a setting example of the first three-dimensional region TA in the maintenance support system according to the fourth embodiment and the schematic operation of the second specific means 32 at this time.
  • FIG. 7A is a perspective view showing a setting example of the first three-dimensional region TA.
  • FIG. 8 is a plan view illustrating a schematic operation of the second specific means 32 when the first three-dimensional region TA is set as shown in FIG. 7.
  • FIG. 8A shows a state in which the wearable terminal 1 is translated from the state shown in FIG. 7B toward the device S2.
  • FIG. 8B shows a state in which the wearable terminal 1 is rotationally moved (moved counterclockwise around the maintenance target T) toward the device S2 from the state shown in FIG. 7B.
  • FIG. 8 (c) shows a state in which the wearable terminal 1 is turned to the left on the spot from the state shown in FIG. 7 (b).
  • the wearable terminal 1 is shown in a rectangular shape for convenience.
  • the area including the maintenance target T and the range in which the wearable terminal 1 moves is set in the first three-dimensional area TA, but in the example shown in FIG. 7A, ,
  • the first three-dimensional area TA is set so as to match the maintenance target T, and the wearable terminal 1 moves outside the first three-dimensional area TA.
  • the image pickup means of the wearable terminal 1 sets the maintenance target T (first three-dimensional region TA).
  • a subject located within the range of the angle of view ⁇ of the image pickup means of the wearable terminal 1 is imaged and acquired as an image.
  • the subject located in the OIA outside the imaging region which is outside the range of the angle of view ⁇ of the imaging means of the wearable terminal 1 shown in FIG. 7B, does not constitute the captured image.
  • the second specifying means 32 specifies a mask pixel region excluding the effective pixel region corresponding to the first three-dimensional region TA in the acquired image. Specifically, in the captured image, a pixel region obtained by imaging a subject located in the mask region MA shown in FIG. 7B or a pixel region obtained by imaging through the mask region MA is a mask pixel. Specify as an area. The subject located in the blind spot region BA located behind the first three-dimensional region TA (maintenance target T) as viewed from the imaging means of the wearable terminal 1 is blocked by the maintenance target T and does not form an image, so that the captured image Does not configure. As a result, there is substantially the same effect as specifying the pixel region excluding the effective pixel region corresponding to the first three-dimensional region TA as the mask pixel region.
  • the image angle ⁇ of the imaging means is between the wearable terminal 1 and the first three-dimensional region TA.
  • the region within the range is originally a region other than the first three-dimensional region TA, but the second specifying means 32 specifies this region as an exception region EA in front of the first three-dimensional region TA. .. Then, the second specifying means 32 specifies a pixel region obtained by forming an image through the exception region EA as an effective pixel region in the captured image.
  • the processed image generation means 33 does not make the processed image generation means 33 invisible because the pixel region obtained by forming an image through the exception region EA (that is, the pixel region corresponding to the front surface of the maintenance target T) is the effective pixel region. That is, the process of giving priority to being able to visually recognize the first three-dimensional region TA (maintenance target T) is performed.
  • the wearable terminal 1 when the wearable terminal 1 is translated from the state shown in FIG. 7 (b) to the device S2 side (a maintenance worker wearing the wearable terminal 1 looks at the maintenance target T from the front. (When moving to the right side as it is), the position of the exception region EA changes significantly as compared with the state shown in FIG. 7B.
  • the second specifying means 32 since the device S2 is located in the mask area MA, the second specifying means 32 specifies the pixel area obtained by forming the device S2 in the captured image as the mask pixel area. Since the processed image generation means 33 makes the mask pixel region invisible, the device S2 is not displayed in the processed image. However, depending on the position of the wearable terminal 1, the device S2 may enter the exception area EA. In this case, the above-mentioned second three-dimensional region SA can be set separately.
  • the wearable terminal 1 when the wearable terminal 1 is rotated and moved to the device S2 side from the state shown in FIG. 7 (b) (a maintenance worker wearing the wearable terminal 1 counterclockwise around the maintenance target T. In the case of moving around), the devices S2 and S1 may enter the exception area EA as in the case of FIG. 8A. In this case, as described above, it can be dealt with by separately setting the second three-dimensional region SA.
  • the first three-dimensional area TA is set so as to match the maintenance target T, and the wearable terminal 1 is the first.
  • the wearable terminal 1 is the first.
  • the 2nd 3D area SA it is necessary to separately set the 2nd 3D area SA in preparation for the possibility that the devices S (S1, S2) related to confidential information are located in the exception area EA.
  • the first three-dimensional area TA maintenance target T
  • confidential information other than the maintenance target T is leaked. Can be prevented.
  • FIG. 9 is a diagram showing an example of a processed image generated by the processed image generation means 33 when the first three-dimensional region TA is set and the second three-dimensional region SA is set as shown in FIG. Is.
  • FIG. 9A is a diagram illustrating an image pickup direction (line-of-sight direction) L1 of the image pickup means 12 of the wearable terminal 1, and FIG. 9B is generated when the image pickup direction L1 shown in FIG. 9A is used. It is a figure which shows an example of a processed image. Note that FIG. 9A omits the illustration of the wearable terminal 1. As shown in FIG.
  • a predetermined first three-dimensional region TA including the maintenance target T (FIG. 9).
  • the mask pixel area excluding the effective pixel area corresponding to the maintenance target T the first three-dimensional area TA), and the second set for the devices S1 and S2 shown in FIG. 9A, respectively.
  • a processed image in which the mask pixel region corresponding to the three-dimensional region SA (not shown) is invisible (blackened in the example shown in FIG. 9) can be obtained.
  • the device S related to confidential information is not near the maintenance target T (that is, there is no device S related to confidential information between the area where the worker wearing the wearable terminal 1 moves and the maintenance target T. ), There is no problem only by setting the first three-dimensional area TA, and when the device S related to the confidential information is in the vicinity of the maintenance target T, the second three-dimensional area SA is also required.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】保守対象以外の機密情報等の漏洩を防止可能で且つ撮像条件の制約が少ない保守支援システム等を提供する。 【解決手段】保守支援システム100は、撮像手段12を具備するウェアラブル端末1と、所定の基準点Mを基準として保守対象Tを含む第1の3次元領域TAを特定する第1特定手段31と、ウェアラブル端末が移動した移動後状態の撮像手段で取得した撮像画像に対して、第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定する第2特定手段32と、マスク画素領域を不可視にした加工画像を生成する加工画像生成手段33と、加工画像を保守支援者側端末2に送信する通信手段34と、を備える。

Description

保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像
 本発明は、保守対象である産業用機器の保守作業を支援するための保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像に関する。特に、本発明は、保守対象である産業用機器以外の機密情報等の漏洩を防止可能で且つ撮像条件の制約が少ない保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像に関する。
 従来、一般的に、基板処理装置等の産業用機器のトラブルが発生した場合、保守対象である産業用機器の設置現場に居る保守作業者が、トラブルの状況を確認した上で、保守対象の製造メーカ側の保守支援者に電話でトラブルの状況を伝え、保守支援者が電話によって保守作業者に各種の指示を出す対応を行っている。
 上記の電話対応を行ってもトラブルが解決しない場合には、製造メーカ側の熟練作業者の予定が空いているタイミングで、保守対象の設置現場に熟練作業者を派遣する対応を行っている。
 上記の電話対応の場合、口頭による意思疎通であるため、トラブルの状況が保守支援者に上手く伝わらなかったり、保守支援者の指示が保守作業者に上手く伝わらず、トラブルが解決できない場合がある。必要に応じて、保守作業者が取得した保守対象の撮像画像を電子メール等で保守支援者に送信し、保守支援者が撮像画像を確認することでトラブルの状況を把握する場合もあるが、状況把握に時間が掛かるという問題がある。
 また、上記の熟練作業者を派遣する対応の場合、即時の対応が難しいという問題がある。
 上記のような問題を解決するため、撮像手段及びディスプレイを具備するウェアラブル端末(ヘッドマウントディスプレイ)を保守作業者が装着し、このウェアラブル端末を用いて保守対象を撮像し、この撮像画像(動画)をインターネット等の電気通信回線を通じて保守支援者側端末に送信する保守支援システムが提案されている。
 しかしながら、上記の保守支援システムにおいて、撮像画像をそのまま保守支援者側端末に送信すると、撮像画像中に設置現場の機密情報が含まれるおそれがある。機密情報が含まれる撮像画像が保守支援者側に送信されると、保守支援者が機密情報を知り得ることになり問題である。
 そこで、機密情報の漏洩を防止可能な保守支援システムとして、例えば、特許文献1に記載の保守支援システム(特許文献1では、画像処理システム)が提案されている。
 特許文献1に記載のシステムは、元領域を捉えた元画像を取得する取得部と、前記元画像中の1つ以上の識別子を認識する認識部と、前記認識部で認識された前記1つ以上の識別子に基づいて、前記元領域のうち第1領域を捉えた第1画像部分、および前記元領域から前記第1領域を除いた第2領域を捉えた第2画像部分の少なくとも一方を特定する特定部と、前記特定部による特定結果に応じて、前記第1画像部分を含む処理済み画像を生成する生成部と、を有する、画像処理システムである(特許文献1の請求項1)。
 特許文献1に記載のシステムによれば、第1領域を保守対象とし、第2領域を保守対象以外の機密情報等とすることにより、機密情報等の漏洩を防止可能であると考えられる。
 しかしながら、特許文献1に記載のシステムでは、元画像中に必ず識別子が含まれなければならないという制約がある。具体的には、特許文献1には、印刷装置300の内部領域(4つの識別子30で囲まれた矩形領域)を保守対象とする例が挙げられており、カメラ170を具備するウェアラブルツール100を装着する作業者10の動きに応じて元領域が変動し、異なる元領域を捉えた元画像171a~173aが取得されるが、いずれの元画像171a~173aにも識別子30が含まれる必要があることが記載されている(特許文献1の段落0063~0065、図6、図7等)。
 したがい、例えば、保守対象に近接して保守対象の細部を撮像しようとすると、元画像中に識別子が含まれる範囲でしか近接できないというような制約が生じる。
 また、特許文献1に記載のシステムでは、識別子を基準として2次元的に第1画像部分(保守対象に対応する部分)を特定する構成であるため、識別子が貼り付けられた保守対象を識別子に対向する特定の一方向から撮像しなければならないという制約が生じる。
特開2017-211766号公報
 本発明は、上記従来技術の問題点を解決するためになされたものであり、保守対象である産業用機器以外の機密情報等の漏洩を防止可能で且つ撮像条件の制約が少ない保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像を提供することを課題とする。
 前記課題を解決するため、本発明は、撮像手段を具備し保守作業者が装着するウェアラブル端末と、初期状態の前記撮像手段で取得した撮像画像における所定の基準点を基準として、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域を特定する第1特定手段と、前記ウェアラブル端末が移動した移動後状態において、前記撮像手段で取得した撮像画像における前記第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定するか及び/又は前記第2の3次元領域に対応するマスク画素領域を特定する第2特定手段と、前記移動後状態の前記撮像手段で取得した撮像画像に対して、前記第2特定手段で特定した前記マスク画素領域を不可視にした加工画像を生成する加工画像生成手段と、前記加工画像生成手段で生成した前記加工画像を保守支援者が操作する保守支援者側端末に送信する通信手段と、を備えることを特徴とする保守支援システムを提供する。
 本発明によれば、第1特定手段によって、初期状態の撮像手段で取得した撮像画像における所定の基準点を基準として、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は保守対象である産業用機器を除く所定の第2の3次元領域が特定される。本発明における「初期状態の撮像手段」とは、所定の基準点が撮像画像中に位置する状態にある撮像手段を意味する。
 具体的には、例えば、撮像画像の任意の点をARカーソルを用いて指定し、この指定した位置を基準点とする場合、初期状態の撮像手段とは、ARカーソルを用いて指定した点を撮像できる位置にある撮像手段を意味する。
 また、例えば、第1特定手段が撮像画像に所定の画像処理を施すことで、撮像画像中の特徴的な部位(例えば、保守対象の角部等)に対応する画素領域を抽出し、この画素領域の中心等を基準点とする場合、初期状態の撮像手段とは、特徴的な部位を撮像できる位置にある撮像手段を意味する。
 さらに、例えば、基準点が保守対象等に付されたマーカによって規定されている場合、初期状態の撮像手段とは、このマーカを撮像できる位置にある撮像手段を意味する。
 また、第1の3次元領域及び第2の3次元領域は、例えば、これらが直方体形状の3次元領域である場合、基準点を基準とする3次元座標系で表された3次元領域の8つの各頂点の座標で規定されることになる。
 上記の場合、例えば、基準点を基準とする各頂点の座標を第1特定手段に予め記憶させておいたり、或いは、ARカーソルを用いて各頂点を指定すると共に、未知の環境の中でセンサの自己位置と周囲の環境地図を構築していく技術として公知であるSLAM(Simultaneous Localization and Mapping)技術を用いることで、第1特定手段は、第1の3次元領域及び/又は第2の3次元領域を特定可能である。
 図10は、SLAM技術の概要を説明する説明図である。
 図10に示すように、SLAM技術では、以下の第1ステップ~第4ステップを実行する。
 (1)第1ステップ:まず、異なる時刻t0、t1にそれぞれ撮像対象を撮像して取得した2つの撮像画像において、対応する同じ点(特徴点)を検出する。図10に示す例では、撮像対象の角部が特徴点として検出されている。
 (2)第2ステップ:次に、2つの撮像画像における特徴点の位置を比較することで、撮像手段の姿勢の変化量(並行/回転成分)を算出する。また、特徴点の組み合わせから、三角測量の原理により、特徴点の3次元空間での位置を求める。これが環境地図の構築に相当する。
 (3)第3ステップ:さらに、別の時刻t1、t2にそれぞれ撮像対象を撮像して取得した2つの撮像画像において、特徴点の3次元空間での位置の変化を求め、この変化から、撮像手段の自己位置を推定する。
 (4)第4ステップ:3次元空間上に特徴点を登録、更新する(環境地図の更新)。
 以降、SLAM技術では、第3、第4ステップを繰り返し実行することになる。
 上記のように、SLAM技術は、環境地図の構築(3次元形状の復元)と、撮像手段の自己位置の推定とを交互に繰り返し、常に3次元空間を把握する技術である。
 本発明における基準点は、この環境地図を構築(3次元形状を復元、換言すれば3次元空間を把握)した後に、3次元空間上に任意に設定されることになる。
 なお、SLAM技術のより具体的な内容は、例えば、情報処理学会研究報告 Vol.2014-CVIM-190 No.40「移動カメラ画像からの3次元形状復元・自己位置推定(SLAM)と高密度な3次元形状復元」に記載のように公知であるため、本明細書ではこれ以上の詳細な説明を省略する。 
 次に、本発明によれば、第2特定手段によって、ウェアラブル端末が移動した移動後状態において、撮像手段で取得した撮像画像における第1の3次元領域に対応する有効画素領域を除くマスク画素領域が特定されるか及び/又は第2の3次元領域に対応するマスク画素領域が特定される。第1特定手段で第1の3次元領域のみを特定した場合には、第2特定手段では、第1の3次元領域に対応する有効画素領域を除くマスク画素領域が特定される。また、第1特定手段で第2の3次元領域のみを特定した場合には、第2特定手段では、第2の3次元領域に対応するマスク画素領域が特定される。さらに、第1特定手段で第1の3次元領域及び第2の3次元領域を特定した場合には、第2特定手段では、第1の3次元領域に対応する有効画素領域を除くマスク画素領域及び第2の3次元領域に対応するマスク画素領域が特定される。
 前述のように、初期状態の撮像手段で取得した撮像画像における基準点を基準とする第1の3次元領域及び/又は第2の3次元領域は、第1特定手段で特定されているため、ウェアラブル端末が移動した移動後状態において、撮像手段で取得した撮像画像における基準点を基準とする第1の3次元領域及び/又は第2の3次元領域は、例えば、SLAM技術を用いることで特定可能である。そして、移動後状態において第1の3次元領域及び/又は第2の3次元領域を特定するに際し、移動後状態の撮像手段で取得した撮像画像に必ずしも基準点が含まれる必要はない。
 次に、本発明によれば、加工画像生成手段によって、第2特定手段で特定したマスク画素領域(第1の3次元領域に対応する有効画素領域を除くマスク画素領域及び/又は第2の3次元領域に対応するマスク画素領域)を不可視にした加工画像が生成される。本発明における「マスク画素領域を不可視にした加工画像」としては、例えば、撮像画像と写っている領域は同じであるが撮像画像におけるマスク画素領域を黒塗りにした画像や、撮像画像からマスク画素領域以外の画素領域のみを切り出した画像を挙げることができる。
 第2特定手段で特定したマスク画素領域が第1の3次元領域に対応する有効画素領域を除くマスク画素領域である場合、第1の3次元領域が保守対象を含み、有効画素領域が第1の3次元領域に対応するため、第1の3次元領域を保守対象よりも過度に大きく設定しない限り、有効画素領域を除くマスク画素領域を不可視にした加工画像には、保守対象以外の機密情報等に対応する画素領域が含まれないことになる。
 また、第2特定手段で特定したマスク画素領域が第2の3次元領域に対応するマスク画素領域である場合、第2の3次元領域に保守対象が含まれないため、第2の3次元領域が少なくとも保守対象以外の機密情報等を含むように設定しておくことで、マスク画素領域を不可視にした加工画像には、保守対象以外の機密情報等に対応する画素領域が含まれないことになる。
 最後に、本発明によれば、通信手段によって、加工画像生成手段で生成した加工画像が保守支援者が操作する保守支援者側端末に送信される。したがい、保守支援者側端末では、第1の3次元領域に含まれる保守対象が視認されるか、及び/又は、第2の3次元領域に含まれる保守対象以外の機密情報等が視認されないようになり、保守対象以外の機密情報等の漏洩を防止可能である。
 以上に説明したように、本発明によれば、初期状態の撮像手段で取得した撮像画像に基準点が含まれればよく、ウェアラブル端末が移動した移動後状態の撮像手段で取得した撮像画像中に基準点が含まれる必要はない。また、本発明によれば、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は保守対象である産業用機器を除く所定の第2の3次元領域を特定するため、撮像手段の撮像方向に制約を受けない。したがい、保守対象以外の機密情報等の漏洩を防止可能で且つ撮像条件の制約が少ない。
 本発明のように、保守対象を含む所定の第1の3次元領域に対応する有効画素領域を除くマスク画素領域及び/又は保守対象を除く所定の第2の3次元領域に対応するマスク画素領域を不可視にした加工画像を生成し、マスク画素領域に含まれる保守対象以外の機密情報等の漏洩を防止する技術を、本発明者らは「Virtual Partition」技術と称している。
 なお、本発明における「産業用機器」には、一般社団法人日本産業機械工業会で産業機械として定義されている、鉱山機械、化学機械、環境装置、動力伝導装置、タンク、業務用洗濯機、ボイラ・原動機、プラスチック機械、風水力機械、運搬機械、製鉄機械等が含まれる。また、別の観点から、本発明における「産業用機器」には、有体物を製造する製造装置が含まれる。基板処理装置は、産業用機器の一種であり、処理済基板(例えば、エッチング処理を施した基板や、成膜処理を施した基板)を製造する点で、有体物を製造する製造装置の一種である。電子機器がサーバを介して電気的に接続されたITシステムは、有体物を製造する製造装置に含まれず、産業用機器にも含まれない。
 また、本発明において、「ウェアラブル端末が移動した移動後状態」とは、ウェアラブル端末がその移動終点(例えば、保守作業終了時のウェアラブル端末の位置)に到達した状態のみを意味するものではなく、移動終点に到達するまでの移動過程における所定の短時間ピッチ毎の各位置に移動した状態を意味する。したがい、加工画像生成手段では、移動終点に到達するまで、撮像手段によってリアルタイムで(所定の短時間ピッチ毎に)取得した全ての撮像画像に対して、マスク画素領域を不可視にした加工画像が生成されることになる。
 本発明において、初期状態の撮像手段で取得した撮像画像中に基準点が含まれるだけでなく、移動後状態の撮像手段で取得した撮像画像中にも基準点が常に含まれるようにウェラブル端末を移動させて保守支援を行う態様にすることも可能である。しかしながら、このような態様では、特許文献1に記載のシステムと同様の撮像条件の制約が生じていることになる。
 本発明によれば、前記移動後状態の前記撮像手段で取得した撮像画像中に前記基準点が含まれる必要がない態様を採用可能である。換言すれば、撮像手段の視野内に基準点が存在する位置から存在しない位置まで撮像手段が移動するように、ウェラブル端末の移動位置の制約を外して保守支援を行うことが可能である。
 本発明において、例えば、前記基準点は、マーカによって規定される。
 前記基準点がマーカによって規定される場合、例えば、前記第1特定手段は、前記撮像手段で取得した撮像画像を用いて(例えば、撮像画像を用いたSLAM技術によって)3次元空間を把握した後、初期状態の前記撮像手段で取得した撮像画像における前記基準点を基準として、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域を特定する構成とされる。
 好ましくは、前記第2特定手段は、撮像方向が互いに異なる複数の第2の撮像手段を具備し、前記複数の第2の撮像手段で取得した撮像画像に基づき、前記マスク画素領域を特定する。
 上記の好ましい構成によれば、第2特定手段が、撮像方向が互いに異なる複数の第2の撮像手段を具備するため、例えば、複数の第2の撮像手段で取得した撮像画像に基づき、いわゆる両眼立体視(ステレオ視)を用いたSLAM技術を適用可能である。また、例えば、第2の撮像手段で取得した撮像画像毎に単眼視のSLAM技術を適用して、これらを組み合わせることで、マスク画素領域を精度良く特定可能である。
 好ましくは、前記ウェアラブル端末は、ディスプレイを具備するヘッドマウントディスプレイであり、前記ヘッドマウントディスプレイは、前記ディスプレイに前記撮像画像を表示する状態と、前記ディスプレイに前記加工画像を認識可能に表示する状態とが切り替え可能に構成されている。
 上記の好ましい構成によれば、ディスプレイに撮像画像を表示する状態では、例えば、マスク画素領域を黒塗りにした加工画像を表示する場合と異なり、保守作業者の視界を遮る部分が無いため、保守作業を安全に行うことが可能である。なお、上記の好ましい構成における「撮像画像を表示する状態」とは、MRヘッドセットのように、ディスプレイに撮像手段で取得した撮像画像を実際に表示する状態(保守作業者がこの表示された撮像画像を視認する状態)の他、透過型のARヘッドセットのように、ディスプレイが透過型であり、保守作業者が何も表示されていない透過型のディスプレイを介して保守対象を直接視認できる状態も含む概念である。
 一方、上記の好ましい構成によれば、ディスプレイに加工画像を認識可能に表示する状態では、保守作業者にも保守支援者側端末に送信される加工画像を認識可能である。このため、保守対象以外の機密情報等の漏洩が防止されていることを保守作業者も確認可能であり、保守作業者に安心感を与えることができる。なお、上記の好ましい構成における「加工画像を認識可能に表示する状態」には、保守支援者側端末に送信される加工画像と同じもの(撮像画像と写っている領域は同じであるが撮像画像におけるマスク画素領域を黒塗りにした画像や、撮像画像からマスク画素領域以外の画素領域のみを切り出した画像など)を表示する状態の他、撮像画像にマスク画素領域とマスク画素領域以外の画素領域との境界線をオーバレイした画像を表示する状態や、表示画面の一部(例えば片隅)に加工画像を縮小して表示する状態なども含まれる。
 好ましくは、前記第1特定手段、前記第2特定手段、前記加工画像生成手段及び前記通信手段が、前記ウェアラブル端末に取り付けられている。
 上記の好ましい構成によれば、撮像手段で保守対象を撮像して取得した撮像画像におけるマスク画素領域を不可視にした加工画像を生成し、この加工画像を保守支援者側端末に送信するまでの一連の動作を実行する各手段の全てがウェアラブル端末に取り付けられている。これは、ウェアラブル端末自体に取り付けられたセンサ等によってウェアラブル端末(撮像手段)の位置を検出する、インサイドアウト方式の構成になっている。ウェアラブル端末とは別体の外部デバイスを用いてウェアラブル端末の位置を検出するアウトサイドイン方式の構成(例えば、ウェラブル端末が具備する撮像手段とは別の外部に設置した撮像手段やセンサ等を用いて、ウェアラブル端末(ウェアラブル端末の具備する撮像手段)の位置を検出する構成など)の場合、ウェアラブル端末の消費電力が低下するという利点があるものの、外部デバイスとウェアラブル端末との間に遮蔽物が存在しないなどの環境面での制約や、高精度の外部デバイスが必要になるため高コストになる欠点がある。したがい、上記の好ましい構成にすることで、低コストで、環境面での制約が少ないという利点が得られる。
 好ましくは、本発明は、前記保守支援者側端末を備え、前記保守支援者側端末は、前記通信手段と双方向にデータ通信可能に構成されている。
 上記の好ましい構成によれば、保守支援者側端末と通信手段とが双方向にデータ通信可能であるため、通信手段から保守支援者側端末に加工画像を送信するだけではなく、逆に保守支援者側端末から通信手段に、保守作業用の画像を送信したり、保守作業の内容を指示する音声データを送信したり等、本発明に係る保守支援システムだけを用いて効果的な保守作業を行うことが可能である。
 上記の好ましい構成において、より好ましくは、前記通信手段及び前記保守支援者側端末に電気的に接続され、前記保守作業者の識別情報である第1識別情報及び前記保守支援者の識別情報である第2識別情報が記憶されたサーバを備え、前記サーバは、前記通信手段から前記サーバに送信された識別情報と前記サーバに記憶された前記第1識別情報とが合致するか否かを判定すると共に、前記保守支援者側端末から前記サーバに送信された識別情報と前記サーバに記憶された前記第2識別情報とが合致するか否かを判定し、前記通信手段から前記サーバに送信された前記識別情報と前記第1識別情報とが合致し、且つ、前記保守支援者側端末から前記サーバに送信された識別情報と前記第2識別情報とが合致する場合に、前記サーバを介した前記通信手段と前記保守支援者側端末との双方向のデータ通信を可能にするように構成されている。
 上記のより好ましい構成によれば、サーバによって、通信手段からサーバに送信された識別情報とサーバに記憶された第1識別情報(保守作業者の識別情報)とが合致するか否かが判定される。換言すれば、サーバによって、本発明に係る保守支援システムを利用する保守作業者の識別情報がサーバに送信されたか否かが判定される。また、サーバによって、保守支援者側端末からサーバに送信された識別情報とサーバに記憶された第2識別情報(保守支援者の識別情報)とが合致するか否かが判定される。換言すれば、サーバによって、本発明に係る保守支援システムを利用する保守支援者の識別情報がサーバに送信されたか否かが判定される。そして、通信手段からサーバに送信された識別情報と第1識別情報とが合致し、且つ、保守支援者側端末からサーバに送信された識別情報と第2識別情報とが合致する場合(換言すれば、本発明に係る保守支援システムを利用する保守作業者の識別情報及び保守支援者の識別情報の双方がサーバに送信されたと認証された場合)に、サーバを介した通信手段と保守支援者側端末との双方向のデータ通信が可能になる。
 上記のより好ましい構成によれば、本発明に係る保守支援システムを利用する保守作業者の識別情報及び保守支援者の識別情報の双方がサーバに送信されたと認証された場合に初めて、通信手段と保守支援者側端末との双方向のデータ通信が可能になるため、予め決められた保守作業者及び保守支援者しか本発明に係る保守支援システムを利用することができず、保守対象である産業用機器以外の機密情報等の漏洩をより確実に防止可能である。
 なお、上記の好ましい構成又は上記のより好ましい構成に加えて、保守対象である産業用機器(例えば、基板処理装置等)から保守支援者側端末にデータ通信可能な構成とし、例えば、保守対象で得られるプロセスログデータ(保守対象のプロセスに関わる測定値や設定値)を保守支援者側端末に送信すれば、保守支援者はこのプロセスログデータを参照しながら、保守作業の内容を指示することができ、より一層効果的な保守作業を行うことが可能である。
 なお、前記課題を解決するため、本発明は、撮像手段を具備し保守作業者が装着するウェアラブル端末を用いた保守支援方法であって、第1特定手段によって、初期状態の前記撮像手段で取得した撮像画像における所定の基準点を基準として、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域を特定する第1特定工程と、前記ウェアラブル端末が移動した移動後状態において、第2特定手段によって、前記撮像手段で取得した撮像画像における前記第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定するか及び/又は前記第2の3次元領域に対応するマスク画素領域を特定する第2特定工程と、加工画像生成手段によって、前記移動後状態の前記撮像手段で取得した撮像画像に対して、前記第2特定工程で特定した前記マスク画素領域を不可視にした加工画像を生成する加工画像生成工程と、通信手段によって、前記加工画像生成工程で生成した前記加工画像を保守支援者側端末に送信する通信工程と、を含むことを特徴とする保守支援方法としても提供される。
 また、前記課題を解決するため、本発明は、前記保守支援方法が含む前記第1特定工程、前記第2特定工程、前記加工画像生成工程及び前記通信工程を、前記第1特定手段、前記第2特定手段、前記加工画像生成手段及び前記通信手段にそれぞれ実行させるためのプログラムとしても提供される。
 なお、上記のプラグラムを記憶させたコンピュータ(CPU)で読み取り可能な記憶媒体として提供することも可能である。
 また、前記課題を解決するため、本発明は、保守作業者が装着するウェアラブル端末が具備する撮像手段で取得した撮像画像において、保守対象である産業用機器を含む所定の第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定するか及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域に対応するマスク画素領域を特定し、前記マスク画素領域を不可視にした加工画像を生成する、ことを特徴とする加工画像の生成方法としても提供される。
 また、前記課題を解決するため、本発明は、保守作業者が装着するウェアラブル端末が具備する撮像手段で取得した撮像画像を用いて加工画像を生成する方法であって、第1特定手段によって、初期状態の前記撮像手段で取得した撮像画像における所定の基準点を基準として、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域を特定する第1特定工程と、前記ウェアラブル端末が移動した移動後状態において、第2特定手段によって、前記撮像手段で取得した撮像画像における前記第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定するか及び/又は前記第2の3次元領域に対応するマスク画素領域を特定する第2特定工程と、加工画像生成手段によって、前記移動後状態の前記撮像手段で取得した撮像画像に対して、前記第2特定工程で特定した前記マスク画素領域を不可視にした加工画像を生成する加工画像生成工程と、を含むことを特徴とする加工画像の生成方法としても提供される。
 また、前記課題を解決するため、本発明は、保守作業者が装着するウェアラブル端末が具備する撮像手段で取得した撮像画像において、保守対象である産業用機器を含む所定の第1の3次元領域に対応する有効画素領域を除くマスク画素領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域に対応するマスク画素領域が、不可視にされた加工画像としても提供される。
 さらに、前記課題を解決するため、本発明は、前記の生成方法によって生成され、前記保守対象である産業用機器を含む前記第1の3次元領域に対応する有効画素領域を除くマスク画素領域及び/又は前記保守対象である産業用機器を除く前記第2の3次元領域に対応するマスク画素領域が、不可視にされた加工画像としても提供される。
 本発明によれば、保守対象以外の機密情報等の漏洩を防止可能で且つ撮像条件の制約が少ないという効果が得られる。
本発明の第1実施形態に係る保守支援システムの概略構成を模式的に示す図である。 図1に示す保守支援システムの概略動作を説明する説明図である。 図1に示す初期状態の撮像手段で取得した撮像画像及び加工画像生成手段で生成した加工画像の一例を示す図である。 図1に示すウェアラブル端末が移動した移動後状態の撮像手段で取得した撮像画像及び加工画像生成手段で生成した加工画像の一例を示す図である。 本発明の第2実施形態に係る保守支援システムにおける第1の3次元領域の設定例を説明する説明図である。 本発明の第3実施形態に係る保守支援システムで用いる第2の3次元領域を説明する説明図である。 本発明の第4実施形態に係る保守支援システムにおける第1の3次元領域の設定例及びこのときの第2特定手段の概略動作を説明する説明図である。 図7に示すように第1の3次元領域を設定したときの第2特定手段の概略動作を説明する平面図である。 図7に示すように第1の3次元領域を設定すると共に第2の3次元領域を設定したときに加工画像生成手段で生成される加工画像の一例を示す図である。 SLAM技術の概要を説明する説明図である。
 以下、添付図面を参照しつつ、本発明の実施形態に係る保守支援システムについて説明する。
 <第1実施形態>
 図1は、本発明の第1実施形態に係る保守支援システムの概略構成を模式的に示す図である。図1(a)は全体構成図であり、図1(b)はウェアラブル端末及びこれに取り付けられた構成要素を示す図であり、図1(c)は図1(b)に示す制御信号処理手段の内部構成を示すブロック図である。
 図1(a)に示すように、本実施形態に係る保守支援システム100は、ウェアラブル端末1と、保守支援者側端末2と、制御信号処理手段3と、を備えている。また、保守支援システム100は、好ましい構成として、サーバ6を備えている。
 ウェアラブル端末1は、保守対象(基板処理装置等の産業用機器)Tの設置現場に居て保守作業を行う保守作業者が装着する端末である。
 図1(b)に示すように、本実施形態のウェアラブル端末1は、眼鏡型のウェアラブル端末(ヘッドマウントディスプレイ)とされており、保守作業者が耳に掛けるフレーム11を具備する。また、ウェアラブル端末1は、フレーム11の前側中央(保守作業者がフレーム11を耳に掛けたときに保守作業者の眉間近傍に相当する位置)に撮像手段12を具備する。本実施形態の撮像手段12としては、カラー(RGB)カメラが用いられている。そして、撮像手段12の撮像方向(視線方向)L1は、保守作業者がフレーム11を耳に掛けたときの保守作業者の眉間に正対する方向となるように設定されている。さらに、ウェアラブル端末1は、フレーム11の前側に取り付けられ、保守作業者がフレーム11を耳に掛けたときに保守作業者の視界前方を覆うディスプレイ13を具備する。本実施形態のディスプレイ13としては、透過型のものが用いられている。したがい、ディスプレイ13に何も表示しない場合には、通常の眼鏡と同じように使用することが可能である。
 なお、撮像手段12は、必要に応じて、後述の第2特定手段32のハードウェア部分として用いることもできる。
 図1(b)に示すように、本実施形態のウェアラブル端末1には、撮像方向が互いに異なる複数の第2の撮像手段32a、32bが取り付けられている。具体的には、本実施形態では、フレーム11の前側の左右の端部に、一対の第2の撮像手段32a、32bが取り付けられており、第2の撮像手段32aの撮像方向(視線方向)L2と、第2の撮像手段32bの撮像方向(視線方向)L3とが互いに異なる方向に設定されている。第2の撮像手段32a、32bとしては、例えば、撮像手段12と同様に、カラー(RGB)カメラを用いることができる。また、第2の撮像手段32a、32bとしては、例えば、広角レンズ(超広角レンズ、魚眼レンズを含む)を具備する広角カメラを用いることもできる。なお、第2の撮像手段32a、32bは、後述の第2特定手段32のハードウェア部分として用いることができる。
 図1(b)に示すように、本実施形態のウェアラブル端末1には、撮像手段12と略同一の視線方向を有する距離画像センサ(デプスカメラや3Dカメラともいう)32cが取り付けられている。具体的には、距離画像センサ32cは、フレーム11の前側中央において、撮像手段12の下方に取り付けられている。距離画像センサ32cとしては、例えば、TOF(Time Of Flight)方式によって視野内における被写体までの距離を測定し、被写体までの距離が各画素の濃度値で表わされた距離画像を取得する距離画像センサが用いられる。なお、距離画像センサ32cは、後述の第2特定手段32のハードウェア部分として用いることができる。
 また、本実施形態のウェアラブル端末1には、慣性センサ32dが取り付けられている。具体的には、フレーム11の側方に慣性センサ32dが取り付けられている。慣性センサ32dは、例えば、3軸の加速度センサと、3軸の角速度センサ(ジャイロセンサ)と、3軸の地磁気(方位)センサとから構成されている。なお、慣性センサ32dは、後述の第2特定手段32のハードウェア部分として用いることができる。
 さらに、本実施形態のウェアラブル端末1のフレーム11の側方には、スピーカ4及びマイクロフォン5も取り付けられている。
 以上に説明したような構成を有するウェアラブル端末1は、例えば、マイクロソフト社製のスマートグラスである「HoloLens」(登録商標)を用い、これに改良を加えることで構成可能である。
 保守支援者側端末2は、一般的には、保守対象Tの設置現場から離れた位置にあり、保守支援者が操作する端末である。保守支援者側端末2は、インターネット等の電気通信回線Nを通じて、ウェアラブル端末1(具体的には、ウェアラブル端末1に取り付けられた制御信号処理手段3)に電気的に接続されている。具体的には、本実施形態の保守支援者側端末2は、電気通信回線Nに電気的に接続されたサーバ6を介して、ウェアラブル端末1に電気的に接続されている。そして、保守支援者側端末2は、後述の通信手段34と双方向にデータ通信可能に構成されている。保守支援者側端末2としては、例えばデスクトップ型のコンピュータを用いることができるが、これに限るものではなく、ラップトップ型のコンピュータ、タブレット型のコンピュータ、スマートフォン等、後述のように加工画像を表示できる限りにおいて、種々の端末を用いることができる。
 なお、本実施形態の保守支援者側端末2は、必須の構成ではないが、電気通信回線Nを通じて、保守対象Tとも電気的に接続されている。具体的には、本実施形態では、例えば、保守対象Tのプロセスログデータ(保守対象Tのプロセスに関わる測定値や設定値)を収集するコンピュータ(図1(a)には図示せず)が設けられ、このコンピュータが、電気通信回線Nに電気的に接続されたサーバ6を介して、保守支援者側端末2に電気的に接続されている。そして、保守対象Tで得られるプロセスログデータが保守支援者側端末2に逐次送信され、保守支援者側端末2に記憶されるように構成されている。サーバ6を設けることで、保守支援者側端末2に接続されたウェアラブル端末1や保守対象Tの識別情報の管理や利用履歴の管理が容易になる。
 制御信号処理手段3は、ウェアラブル端末1(フレーム11の側方)に取り付けられ、撮像手段12、ディスプレイ13、第2の撮像手段32a、32b、距離画像センサ32c、慣性センサ32d、スピーカ4及びマイクロフォン5の各構成要素に電気的に接続されており、各構成要素を制御したり、各構成要素の出力信号を処理する機能を有する。
 制御信号処理手段3は、主として、CPU、ROMやRAM等のメモリ、該メモリに記憶され、CPUに後述の動作を実行させるプログラムと、によって構成されている。
 図1(c)に示すように、制御信号処理手段3は、第1特定手段31としての動作をCPUに実行させるプログラムと、第2特定手段32のソフトウェア部分32eの動作をCPUに実行させるプログラムと、加工画像生成手段33としての動作をCPUに実行させるプログラムと、を具備する。また、制御信号処理手段3は、通信手段34を具備する。通信手段34は、アンテナや、アンテナを動作させるプログラム等によって構成されている。
 なお、上記のようなプログラムの更新は、所定のコンピュータと制御信号処理手段3とをUSBケーブル等で直接接続して行ってもよいし、サーバ6から直接アップデートしてもよい。
 本実施形態では、第1特定手段31、第2特定手段32(撮像手段12、第2撮像手段32a、32b、距離画像センサ32c及び慣性センサ32dのうち少なくとも何れか一つと、ソフトウェア部分32e)、加工画像生成手段33及び通信手段34の全てがウェアラブル端末1に取り付けられている。これは、前述のように、ウェアラブル端末1自体に取り付けられたセンサ等によってウェアラブル端末1(撮像手段12)の位置を検出する、インサイドアウト方式の構成である。
 以下、以上に説明した概略構成を有する本実施形態に係る保守支援システム100の動作(保守支援方法)について、図1に加えて図2~図4を参照しつつ説明する。
 最初に、本実施形態に係る保守支援システム100を利用するに際して、サーバ6は、保守作業者の識別情報及び保守支援者の識別情報の双方を認証する。具体的には、保守作業者の識別情報及び保守支援者の識別情報の双方がサーバ6に送信されたか否かを判定する。
 保守作業者の識別情報である第1識別情報及び保守支援者の識別情報である第2識別情報は、保守支援システム100を利用する前に予めサーバ6に記憶される。具体的には、例えば、保守支援者が、保守支援者側端末2のキーボード等を用いて、保守支援システム100を利用することが決まっている保守作業者の第1識別情報(例えば、ID番号)を保守支援者側端末2に入力することで、入力された第1識別情報が、電気通信回線Nを通じてサーバ6に送信され、記憶される。同様に、例えば、保守支援者が、保守支援者側端末2のキーボード等を用いて、保守支援システム100を利用することが決まっている保守支援者の第2識別情報(例えば、ID番号)を保守支援者側端末2に入力することで、入力された第2識別情報が、電気通信回線Nを通じてサーバ6に送信され、記憶される。或いは、保守支援システム100を利用する可能性のある保守作業者の第1識別情報及び保守支援者の第2識別情報を予め保守支援者側端末2に記憶させておき、保守支援者が、この保守支援者側端末2に記憶された第1識別情報及び第2識別情報のうち、これから実際に保守支援システム100を利用する保守作業者の第1識別情報及び保守支援者の第2識別情報を保守支援者側端末2のキーボード等を用いて選択することで、選択された第1識別情報及び第2識別情報が、電気通信回線Nを通じてサーバ6に送信され、記憶されるようにしてもよい。
 なお、本実施形態では、第1識別情報及び第2識別情報をサーバ6に記憶させる際に、保守作業者及び保守支援者による保守支援システム100の利用開始時刻や利用時間も併せてサーバ6に記憶させる。
 保守支援システム100の利用開始時刻になったとき又は利用開始時刻に近づいたとき、ウェアラブル端末1の通信手段34から識別情報をサーバ6に送信する。この通信手段34から送信される識別情報は、例えば、ウェアラブル端末1の制御信号処理手段3に予め記憶されたウェアラブル端末1の識別情報である。この場合、保守作業者が装着するウェアラブル端末1は予め決められており、ウェアラブル端末1の識別情報が保守作業者の識別情報(第1識別情報)としてサーバ6に送信される。同様に、保守支援システム100の利用開始時刻になったとき又は利用開始時刻に近づいたとき、保守支援者側端末2から識別情報をサーバ6に送信する。この保守支援者側端末2から送信される識別情報は、例えば、保守支援者が保守支援者側端末2のキーボード等を用いて入力した保守支援者の第2識別情報である。保守支援者側端末2を操作する保守支援者が予め決められている場合には、保守支援者側端末2に予め記憶された保守支援者側端末2の識別情報を保守支援者の識別情報(第2識別情報)としてサーバ6に送信するようにしてもよい。
 サーバ6は、上記のようにして通信手段34からサーバ6に送信された識別情報とサーバ6に記憶された第1識別情報とが合致するか否かを判定する。同様に、サーバ6は、上記のようにして保守支援者側端末2からサーバ6に送信された識別情報とサーバ6に記憶された第2識別情報とが合致するか否かを判定する。そして、通信手段34からサーバ6に送信された識別情報と第1識別情報とが合致し、且つ、保守支援者側端末2からサーバ6に送信された識別情報と第2識別情報とが合致する場合(保守支援システム100を利用する保守作業者の識別情報及び保守支援者の識別情報の双方がサーバ6に送信されたと認証された場合)に、利用開始時刻から利用時間が経過するまで、サーバ6を介した通信手段34と保守支援者側端末2との双方向のデータ通信を可能にする。
 本実施形態に係る保守支援システム100は、上記のように、保守作業者の識別情報及び保守支援者の識別情報の双方がサーバ6に送信されたと認証された場合に初めて、通信手段34と保守支援者側端末2との双方向のデータ通信が可能になる。したがい、予め決められた保守作業者及び保守支援者しか保守支援システム100を利用することができず、保守対象T以外の機密情報等の漏洩をより確実に防止可能である。
 なお、上記のように、通信手段34と保守支援者側端末2との双方向のデータ通信が可能になった時点で、双方向の音声データの送受信が可能になり、この送受信された音声データが、サーバ6及び/又は保守支援者側端末2に記憶されるように構成してもよい。音声データを記憶することで、保守支援の履歴を確実に残すことが可能である。
 また、保守作業者及び保守支援者のうち、少なくとも何れか一方が、利用時間が経過する前に保守支援システム100の利用を中止又は中段する場合には、利用の中止又は中段を指示する所定の指示情報をウェアラブル端末1の通信手段34及び/又は保守支援者側端末2からサーバ6に送信することで、サーバ6が通信手段34と保守支援者側端末2との双方向のデータ通信を中止又は中断するように構成することも可能である。
 さらに、ウェアラブル端末1が複数である場合や、保守支援者側端末2が複数である場合、各端末1、2から送信された全ての識別情報がサーバ6で認証された場合に初めて各端末1、2における双方向のデータ通信を全て可能にする態様を採用してもよいし、認証された各端末1、2における双方向のデータ通信のみを可能にする態様を採用してもよい。
 図2は、本実施形態に係る保守支援システム100の概略動作を説明する説明図である。図2では、ウェアラブル端末1を装着した保守作業者の図示を省略している。図3は、初期状態の撮像手段12で取得した撮像画像及び加工画像生成手段33で生成した加工画像の一例を示す図である。図3(a)は撮像画像の一例を、図3(b)は加工画像の一例を示す。図4は、ウェアラブル端末1が移動した移動後状態の撮像手段12で取得した撮像画像及び加工画像生成手段33で生成した加工画像の一例を示す図である。図4(a)は撮像画像の一例を、図4(b)は加工画像の一例を示す。なお、図3及び図4には、説明の便宜上、第1の3次元領域TAの境界線を破線で図示しているが、実際の撮像画像に境界線は存在しない。
 図2に示すように、本実施形態の保守対象Tの前面には、部材T1~T3が設けられている。保守対象Tの隣には、機密情報に関わる装置Sが配置されている。
 まず、ウェアラブル端末1を装着した保守作業者は、例えば、ウェアラブル端末1の撮像手段12で保守対象Tを撮像できるように、保守対象Tに正対する位置に移動する。そして、この初期状態の撮像手段12(図2に実線で図示するウェアラブル端末1が具備する撮像手段12)で保守対象Tを撮像して、図3(a)に示すような撮像画像(動画)を取得する。
 次に、例えば、保守作業者がディスプレイ13に表示された撮像画像の任意の点をARカーソルを用いて指定することで、第1特定手段31が、上記の指定した点を基準点Mとして特定し、第1特定手段31に記憶する。また、第1特定手段31が、撮像画像に所定の画像処理を施すことで、撮像画像中の特徴的な部位(例えば、保守対象Tの角部等)に対応する画素領域を抽出し、この画素領域の中心等を基準点Mとして特定し、記憶することも可能である。さらに、保守対象Tにマーカが付されている(ARマーカ、QRコード(登録商標)、バーコード等のマーカが、貼付、印刷、刻印等によって付されている)場合には、第1特定手段31が、撮像画像に所定の画像処理を施すことでマーカに対応する画素領域を抽出し、この画素領域の中心等を基準点Mとして特定することも可能である。
 そして、本実施形態では、第1特定手段31が、基準点Mを基準として、保守対象Tを含む所定の第1の3次元領域(例えば、直方体形状の3次元領域)TAを特定する。第1の3次元領域TAは、仮想空間における3次元領域である。具体的には、例えば、第1特定手段31に、基準点Mを基準とする3次元座標系(図2に示すX軸、Y軸及びZ軸を有する3次元座標系)で表された第1の3次元領域TAの各頂点P1~P8の座標が予め記憶されており、第1特定手段31は、例えば、SLAM技術を用いて、この各頂点P1~P8の座標に基づき第1の3次元領域TAを特定する。
 また、保守作業者が、ディスプレイ13に表示された撮像画像に対してARカーソルを用いて第1の3次元領域TAの各頂点P1~P8を指定することで、第1特定手段31が、例えば、SLAM技術を用いて、第1の3次元領域TAを特定することも可能である。この場合、第1の3次元領域TAの各頂点P1~P8は、ARカーソルを用いて指定した瞬間に、基準点Mを基準とする3次元座標系に配置されるので、各頂点P1~P8の座標が決まり、結果として第1の3次元領域TAを特定することができる。
 さらに、保守対象Tにマーカが付されている場合には、第1特定手段31が、マーカに対応する画素領域の特徴量を演算し、この特徴量からマーカの識別情報を特定し、特定した識別情報に関連付けて第1特定手段31に記憶された各頂点P1~P8の座標に基づき、例えば、SLAM技術を用いて、第1の3次元領域TAを特定することも可能である。このように、基準点Mをマーカによって規定する場合、各頂点P1~P8の座標が既に第1特定手段31に記憶されていて、保守作業者が設定する必要がないため、手間がかからない。保守対象Tの形状が複雑である場合には、予め保守対象Tの設計図面等に基づき各頂点P1~P8(或いは、8つより多い頂点)を詳細に設定してマーカの識別情報に関連付けておくことができ、特に効果的である。
 なお、図2では、保守作業者が装着したウェアラブル端末1が、第1の3次元領域TA内で移動する場合を例示している。
 次に、ウェアラブル端末1を装着した保守作業者が移動することで、ウェアラブル端末1も移動し、ウェアラブル端末1が移動した移動後状態において、ウェアラブル端末1が具備する撮像手段12(図2に破線で図示するウェアラブル端末1が具備する撮像手段12)で保守対象Tを撮像して、図4(a)に示すような撮像画像を取得する。この撮像画像には、基準点Mが含まれていない。
 そして、上記の移動過程において、撮像手段12及び第2の撮像手段32a、32bによって、連続的に撮像画像が取得される。また、距離画像センサ32cによって、連続的に距離画像が取得される。さらに、慣性センサ32dによって、ウェアラブル端末1が具備する撮像手段12の加速度、角速度及び地磁気(方位)が連続的に検出される。
 第2特定手段32は、ウェアラブル端末1が移動した移動後状態において、
撮像手段12で取得した撮像画像における第1の3次元領域TAに対応する有効画素領域を除くマスク画素領域を特定する。
 具体的には、第2の撮像手段32a、32bが第2特定手段32を構成する場合には、移動過程において第2の撮像手段32a、32bで連続的に取得した撮像画像に基づき、第2特定手段32を構成するソフトウェア部分32eが、例えばSLAM技術を用いて、ウェアラブル端末1(撮像手段12)の自己位置と周囲の環境地図を構築することで、移動後状態の撮像画像における第1の3次元領域TAを特定する。
 また、距離画像センサ32cが第2特定手段32を構成する場合には、移動過程において距離画像センサ32cで連続的に取得した距離画像に基づき、第2特定手段32を構成するソフトウェア部分32eが、例えばSLAM技術を用いて、移動後状態の撮像画像における第1の3次元領域TAを特定する。
 さらに、撮像手段12や慣性センサ32dが第2特定手段32を構成する場合も同様である。また、第2の撮像手段32a、32b、距離画像センサ32c、撮像手段12及び慣性センサ32dのうちの何れかが組み合わさって第2特定手段32を構成する場合も考えられ、この場合も、第2特定手段32が、例えばSLAM技術を用いて、移動後状態の撮像画像における第1の3次元領域TAを特定する。
 なお、本実施形態の第2特定手段32は、移動後状態の撮像画像における第1の3次元領域TAを特定するに際して、GPSを用いない(後述のように、移動後状態の撮像画像における第2の3次元領域SAを特定する場合も同様)。GPSは、屋内では用いることができない他、少なくとも数メートルの位置検出誤差が生じるからである。
 第2特定手段32は、上記のようにして、移動後状態の撮像画像における第1の3次元領域TAを特定し、第1の3次元領域TAに対応する有効画素領域を除くマスク画素領域を特定する。第1の3次元領域TAが、移動後状態の撮像手段12の視野内のどの部分に写るか、換言すれば、撮像手段12で取得した撮像画像におけるどの画素領域に対応するのかは幾何学演算で特定できるため、撮像画像における第1の3次元領域TAに対応する有効画素領域を特定し、有効画素領域を除くマスク画素領域を特定可能である。
 次に、加工画像生成手段33が、移動後状態の撮像手段12で取得した撮像画像に対して、第2特定手段32で特定したマスク画素領域を不可視にした加工画像(動画)を生成する。図4(b)に示す例では、加工画像として、マスク画素領域を黒塗りにした画像が生成されている。ただし、加工画像としては、これに限るものではなく、撮像画像から有効画素領域のみ(マスク画素領域以外の画素領域のみ)を切り出した画像にすることも可能である。また、マスク画素領域を黒塗りにするのに代えて、モザイク処理を施したり、フォギーをかけたりして、機密情報等の漏洩を防止できる限りにおいて、種々の態様を採用可能である。
 最後に、通信手段34が、加工画像生成手段33で生成した加工画像を電気通信回線Nを通じて保守支援者側端末2に送信する。したがい、図4(a)に示すように、撮像画像では機密情報に関わる装置Sが視認できる状態であっても、保守支援者側端末2では、図4(b)に示すように、第1の3次元領域TAに含まれる保守対象Tのみが視認され、保守対象T以外の機密情報等の漏洩を防止可能である。
 なお、図3(a)に示すような初期状態の撮像手段12で取得した撮像画像に対しても第2特定手段32、加工画像生成手段33及び通信手段34は動作する。これにより、加工画像生成手段33では、初期状態の撮像手段で取得した撮像画像に対してもマスク画素領域を不可視にした図3(b)に示すような加工画像が生成され、保守支援者側端末2に送信されることになる。
 なお、第2特定手段32を構成する第2の撮像手段32a、32b等が故障又は何らかの不具合が生じた場合には、移動後状態の撮像手段12の初期状態からの位置の変化を正しく特定できなくなる。これに伴い、移動後状態の撮像手段12で取得した撮像画像における第1の3次元領域TAに対応する有効画素領域を正しく特定できなくなる。この結果、生成された加工画像に保守対象T以外の機密情報等が含まれる可能性が生じる。
 したがい、第2の撮像手段32a、32b等が故障又は何らかの不具合が生じた場合には、加工画像生成手段33が全ての画素領域を不可視にした加工画像を生成するか、或いは、通信手段34が加工画像の送信を停止する機能を有することが好ましい。また、この際、第2の撮像手段32a、32b等に故障又は何らかの不具合が生じたことを保守作業者が迅速に把握できるように、ディスプレイ13に故障又は何らかの不具合が生じた旨を表示するか、或いは、スピーカ4に故障又は何らかの不具合が生じた旨を音声で通知することが好ましい。
 本実施形態のディスプレイ13は、ディスプレイ13に撮像画像を表示する状態(具体的には、本実施形態では、透過型のディスプレイ13には何も表示されず、保守作業者が何も表示されていないディスプレイ13を介して保守対象Tを直接視認できる状態)と、ディスプレイ13に加工画像を認識可能に表示する状態とが切り替え可能に構成されている。具体的には、例えば、フレーム11に切り替えボタン(図示せず)を設け、この切り替えボタンを押すことで、制御信号処理手段3が何れかの状態を選択するように制御する態様を採用可能である。
 ディスプレイ13に撮像画像を表示する状態(保守作業者が保守対象Tを直接視認できる状態)では、保守作業者の視界を遮る部分が無いため、保守作業を安全に行うことが可能である。
 一方、ディスプレイ13に加工画像を認識可能に表示する状態では、保守作業者にも保守支援者側端末2に送信される加工画像を認識可能である。このため、保守対象T以外の機密情報等の漏洩が防止されていることを保守作業者も確認可能であり、保守作業者に安心感を与えることができる。なお、加工画像を認識可能に表示する状態としては、保守支援者側端末2に送信される加工画像と同じもの(撮像画像と写っている領域は同じであるが撮像画像におけるマスク画素領域を黒塗りにした画像や、撮像画像から有効画素領域のみを切り出した画像など)を表示する状態の他、図3(a)や図4(a)に示すように、撮像画像にマスク画素領域と有効画素領域との境界線(第1の3次元領域TAの境界線)をオーバレイした画像を表示する状態や、表示画面の一部に加工画像を縮小して表示する状態なども含まれる。
 なお、本実施形態では、1つの保守対象Tに1つの第1の3次元領域TAを特定する場合を例に挙げて説明したが、本発明はこれに限るものではない。例えば、保守対象Tが複数ある場合には、保守対象T毎に例えば基準点Mを設定し、保守対象T毎に第1の3次元領域TAを特定すればよい。例えば、1つの保守対象Tが基板処理装置であり、基板処理装置の部品を取り外して所定の作業机上で修理等の作業を行う場合には、もう一つの保守対象Tをこの作業机に設定し、作業机にも基準点Mを設定すればよい。
 また、本実施形態では、第1の3次元領域TAとして、8つの頂点P1~P8を有する直方体形状の3次元領域を例に挙げて説明したが、本発明はこれに限るものではない。保守対象Tの形状に応じて、8つより多くの点で特定される直方体以外の形状の第1の3次元領域TAを設定することも可能である。
 また、本実施形態では、保守支援者側端末2に1つのウェアラブル端末1が電気的に接続されている場合を例に挙げて説明したが、本発明はこれに限るものではない。保守支援者側端末2に複数のウェアラブル端末1が電気的に接続されている構成を採用することも可能である。
 この場合、複数のウェアラブル端末1の撮像手段12が同じ基準点Mを基準とする同じ第1の3次元領域TAを特定する構成でもよいし、ウェアラブル端末1毎に、基準点Mを異なるものにしたり、特定する第1の3次元領域TAを異なるものにする構成を採用することも可能である。
 また、保守支援者側端末2では、複数のウェアラブル端末1から送信された各加工画像を並べて同時に表示したり、或いは、表示する加工画像を切り替え可能にするなど、種々の態様を採用可能である。
 さらに、ウェアラブル端末1が1つであっても複数であっても、ウェアラブル端末1に電気的に接続される保守支援者側端末2を複数用意することも可能である。
 また、本実施形態では、図2に示すように、保守対象Tを含むと共に、ウェアラブル端末1が移動する範囲を含む領域を第1の3次元領域TAに設定しているが、本発明はこれに限るものではない。保守対象Tが存在しなかったり、ウェアラブル端末1が移動しない領域であっても、機密情報に関わる装置Sが存在しないことが予め決まっている領域については、この領域が含まれるように、第1の3次元領域TAを更に広げることも可能である。また、第1の3次元領域TAは繋がった1つの領域に限るものではなく、複数の分離した領域を第1の3次元領域TAとして設定することも可能である。
 <第2実施形態>
 第2実施形態に係る保守支援システムも、図1を参照して説明した第1実施形態に係る保守支援システム100と同様の概略構成を有する。
 ただし、第2実施形態に係る保守支援システムは、第1の3次元領域TAの設定が第1実施形態に係る保守支援システム100と異なる。以下、この点について説明する。
 図5は、第2実施形態に係る保守支援システムにおける第1の3次元領域TAの設定例を説明する説明図である。
 図5に示すように、本実施形態では、第1の3次元領域TAを複数(図5に示す例では8つ)の仮想の仕切り壁W1~W8で構成している。図5に示す例では、8つの仕切り壁W1~W8で囲まれた領域が、第1の3次元領域TAとして設定されることになる。仕切り壁W1~W8は、例えば、保守作業者が、ディスプレイ13に表示された撮像画像に対してARカーソルを用いて指定すればよい。これにより、第1特定手段31は、仕切り壁W1~W8で囲まれた領域を第1の3次元領域TAとして特定することになる。
 図5に示すような仕切り壁は、その位置やサイズや個数を保守作業者が自由に指定可能にすることが好ましい。この好ましい構成により、保守対象Tの形状や寸法が変わっても、これに応じて仕切り壁の位置やサイズや個数を自由に変更できるので汎用性に優れる他、第2特定手段32によるマスク画素領域の特定も容易である。また、例えば、保守対象Tが、基板処理装置本体だけでなく、基板処理装置本体から少し離れた場所にある補器(例えば、ポンプやチラーなど)も含む場合等には、図2のような定尺の第1の3次元領域TAに比べて、仕切り壁を適切に配置して第1の3次元領域TAを構成することが可能である(レイアウト変更が容易である)。
 なお、各仕切り壁の間は、機密情報に関わる装置Sが保守支援者側端末2で視認できない(すなわち、加工画像において不可視になっている)限りにおいて、若干の隙間が空いていても構わない。図5では、仕切り壁W1、W2の間、仕切り壁W2、W3の間、仕切り壁W5、W6の間、仕切り壁W6、W7の間に、若干の隙間が空いている例を図示している。ただし、機密情報に関わる装置Sが保守支援者側端末2で確実に視認できないようにするには、第1の3次元領域TA内のウェアラブル端末1の撮像手段12の撮像方向(視線方向)L1から見て、各仕切り壁同士がオーバーラップする部分を有する方が好ましい。
 また、図5に示す例では、保守対象Tが位置する場所の天井部分や床部分には仕切り壁を設けていないが、保守対象Tの周りの機密情報に関わる装置Sが保守支援者側端末2で視認できない限り、自由に仕切り壁を設定してよい。
 <第3実施形態>
 第3実施形態に係る保守支援システムも、図1を参照して説明した第1実施形態に係る保守支援システム100と同様の概略構成を有する。
 ただし、第3実施形態に係る保守支援システムは、第1の3次元領域TAではなく、第2の3次元領域SAを用いることが第1実施形態に係る保守支援システム100と異なる。以下、この点について説明する。
 第3実施形態に係る保守支援システムでは、第1特定手段31が、基準点Mを基準として、保守対象Tを除く所定の第2の3次元領域を特定(例えば、図6に示すように、機密情報に関わる装置Sが含まれる第2の3次元領域SAを特定)し、第2特定手段32が、第2の3次元領域SAに対応するマスク画素領域を特定する構成となっている。第2の3次元領域SAは、仮想空間における3次元領域である。第2の3次元領域SAを特定する場合についても、前述の第1の3次元領域TAを特定する場合について説明した内容を同様に適用可能である。
 第1特定手段31は、第1の3次元領域TAを特定することに代えて、第2の3次元領域SAを特定してもよいし、第1の3次元領域TA及び第2の3次元領域SAの双方を特定してもよい。第1特定手段31が第1の3次元領域TAを特定することに代えて第2の3次元領域SAを特定する場合、第2特定手段32は、第2の3次元領域SAに対応するマスク画素領域を特定することになる。第1特定手段31が第1の3次元領域TA及び第2の3次元領域SAの双方を特定する場合、第2特定手段32は、第1の3次元領域TAに対応する有効画素領域を除くマスク画素領域を特定すると共に、第2の3次元領域SAに対応するマスク画素領域を特定することになる。なお、双方を特定する場合には、第1の3次元領域TAに対応する有効画素領域を除くマスク画素領域と、第2の3次元領域SAに対応するマスク画素領域とが重なる場合がある。この場合、少なくとも一方でマスク画素領域として特定される画素領域は、全てマスク画素領域とすればよい。
 <第4実施形態>
 第4実施形態に係る保守支援システムも、図1を参照して説明した第1実施形態に係る保守支援システム100と同様の概略構成を有する。
 ただし、第4実施形態に係る保守支援システムは、第1の3次元領域TAの設定が第1実施形態に係る保守支援システム100や第2実施形態に係る保守支援システムと異なる。以下、この点について説明する。なお、以下の説明では、機密情報に関わる装置が2つ(装置S1、S2)存在する場合を例示する。
 図7は、第4実施形態に係る保守支援システムにおける第1の3次元領域TAの設定例及びこのときの第2特定手段32の概略動作を説明する説明図である。図7(a)は、第1の3次元領域TAの設定例を示す斜視図である。図7(b)は、第2特定手段32の概略動作を説明する平面図であり、ウェアラブル端末1が保守対象Tの前面(図7(a)に示す部材T1~T3が設けられている面)の中央に正対する(図7(a)に示すウェアラブル端末1の撮像手段12の撮像方向L1が保守対象Tの前面に直交する)位置にある状態を示す。
 図8は、図7に示すように第1の3次元領域TAを設定したときの第2特定手段32の概略動作を説明する平面図である。図8(a)は、ウェアラブル端末1が図7(b)に示す状態から装置S2側に平行移動した位置にある状態を示す。図8(b)は、ウェアラブル端末1が図7(b)に示す状態から装置S2側に回転移動(保守対象Tの周りを反時計回りに移動)した位置にある状態を示す。図8(c)は、ウェアラブル端末1が図7(b)に示す状態からその場で左に向きを変えた状態を示す。
 なお、図7(b)、図8においては、便宜上、ウェアラブル端末1を矩形で図示している。
 前述の図2に示す例では、保守対象Tを含むと共に、ウェアラブル端末1が移動する範囲を含む領域を第1の3次元領域TAに設定しているが、図7(a)に示す例では、保守対象Tと合致するように第1の3次元領域TAを設定し、ウェアラブル端末1が第1の3次元領域TAの外部で移動する。
 図7(b)に示すように、ウェアラブル端末1が保守対象Tの前面の中央に正対する位置にある状態では、ウェアラブル端末1の撮像手段で保守対象Tを(第1の3次元領域TA)を撮像した場合、ウェアラブル端末1の撮像手段の画角θの範囲内に位置する被写体が結像して撮像画像として取得されることになる。換言すれば、図7(b)に示すウェアラブル端末1の撮像手段の画角θの範囲外である撮像領域外OIAに位置する被写体は、撮像画像を構成しない。
 第2特定手段32は、取得した撮像画像における第1の3次元領域TAに対応する有効画素領域を除くマスク画素領域を特定する。具体的には、撮像画像における、図7(b)に示すマスク領域MAに位置する被写体が結像して得られる画素領域又はマスク領域MAを通って結像して得られる画素領域をマスク画素領域として特定する。
 ウェアラブル端末1の撮像手段から見て、第1の3次元領域TA(保守対象T)の後方に位置する死角領域BAに位置する被写体は、保守対象Tに遮られて結像しないため、撮像画像を構成しない。その結果、実質的に、第1の3次元領域TAに対応する有効画素領域を除く画素領域をマスク画素領域として特定するのと同じ効果がある。
 また、ウェアラブル端末1の撮像手段で第1の3次元領域TA(保守対象T)を撮像した際、ウェアラブル端末1と第1の3次元領域TAとの間にあり且つ撮像手段の画角θの範囲内にある領域は、本来、第1の3次元領域TA以外の領域であるが、第2特定手段32は、この領域を第1の3次元領域TAの手前にある例外領域EAとして特定する。そして、第2特定手段32は、撮像画像において、この例外領域EAを通って結像して得られる画素領域を有効画素領域として特定する。加工画像生成手段33は、この例外領域EAを通って結像して得られる画素領域(すなわち、保守対象Tの前面に対応する画素領域)が有効画素領域であるため、不可視にしない。つまり、第1の3次元領域TA(保守対象T)を視認できることが優先される処理が行われる。
 図8(a)に示すように、ウェアラブル端末1が図7(b)に示す状態から装置S2側に平行移動した場合(ウェアラブル端末1を装着した保守作業者が保守対象Tを正面に見たまま右側に移動した場合)、図7(b)に示す状態に比べて、例外領域EAの位置が大きく変化する。図8(a)に示す例では、装置S2がマスク領域MAに位置するため、第2特定手段32は、撮像画像における装置S2が結像して得られる画素領域をマスク画素領域として特定し、加工画像生成手段33がこのマスク画素領域を不可視にするため、加工画像中に装置S2は映らない。ただし、ウェアラブル端末1の位置によっては、装置S2が例外領域EA内に入ることがある。この場合には、前述の第2の3次元領域SAを別途設定することも可能である。
 図8(b)に示すように、ウェアラブル端末1が図7(b)に示す状態から装置S2側に回転移動した場合(ウェアラブル端末1を装着した保守作業者が保守対象Tの周りを反時計回りに移動した場合)も、図8(a)の場合と同様に、装置S2、S1が例外領域EA内に入ることがある。この場合には、前述の通り、第2の3次元領域SAを別途設定することで対処可能である。
 図8(c)に示すように、ウェアラブル端末1が図7(b)に示す状態からその場で左に向きを変えた場合(ウェアラブル端末1を装着した保守作業者がその場で視線方向(頭の向き)を左方向に変えた場合)、図7(b)に示すように、元々装置S1、S2が死角領域BA内に位置するのであれば、視線方向を変えても死角領域BA内に位置したままとなる。
 以上、図7及び図8を参照して説明した第4実施形態に係る保守支援システムのように、保守対象Tと合致するように第1の3次元領域TAを設定し、ウェアラブル端末1が第1の3次元領域TAの外部で移動する場合、例外領域EA内に機密情報に関わる装置S(S1、S2)が位置する可能性に備えて、第2の3次元領域SAを別途設定する必要があるが、前述の図2に示す場合と同様に、保守支援者側端末2では、第1の3次元領域TA(保守対象T)のみが視認され、保守対象T以外の機密情報等の漏洩を防止可能である。
 図9は、図7に示すように第1の3次元領域TAを設定すると共に、第2の3次元領域SAを設定したときに加工画像生成手段33で生成される加工画像の一例を示す図である。図9(a)はウェアラブル端末1の撮像手段12の撮像方向(視線方向)L1を説明する図であり、図9(b)は図9(a)に示す撮像方向L1のときに生成される加工画像の一例を示す図である。なお、図9(a)ではウェアラブル端末1の図示を省略している。
 図9(b)に示すように、保守作業者が装着するウェアラブル端末1が具備する撮像手段12で取得した撮像画像において、保守対象Tを含む所定の第1の3次元領域TA(図9に示す例では保守対象T=第1の3次元領域TA)に対応する有効画素領域を除くマスク画素領域、及び、図9(a)に示す装置S1、S2に対してそれぞれ設定された第2の3次元領域SA(図示省略)に対応するマスク画素領域を不可視にした(図9に示す例では黒塗りにした)加工画像が得られる。
 なお、レイアウト上、機密情報に関わる装置Sが保守対象Tの近傍にない(つまり、ウェアラブル端末1を装着した作業者が移動する領域と保守対象Tとの間に機密情報に関わる装置Sがない)場合には、第1の3次元領域TAの設定のみで問題なく、機密情報に関わる装置Sが保守対象Tの近傍にある場合に、第2の3次元領域SAも必要となる。
1・・・ウェアラブル端末
2・・・保守支援者側端末
3・・・制御信号処理手段
12・・・撮像手段
13・・・ディスプレイ
31・・・第1特定手段
32・・・第2特定手段
32a、32b・・・第2の撮像手段
32c・・・距離画像センサ
32d・・・慣性センサ
33・・・加工画像生成手段
34・・・通信手段
100・・・保守支援システム
M・・・基準点
N・・・電気通信回線
S、S1、S2・・・機密情報に関わる装置
T・・・保守対象
TA・・・第1の3次元領域
SA・・・第2の3次元領域
W1、W2、W3、W4、W5、W6、W7、W8・・・仕切り壁
θ・・・画角
BA・・・死角領域
OIA・・・撮像領域外
EA・・・例外領域
MA・・・マスク領域

Claims (14)

  1.  撮像手段を具備し保守作業者が装着するウェアラブル端末と、
     初期状態の前記撮像手段で取得した撮像画像における所定の基準点を基準として、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域を特定する第1特定手段と、
     前記ウェアラブル端末が移動した移動後状態において、前記撮像手段で取得した撮像画像における前記第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定するか及び/又は前記第2の3次元領域に対応するマスク画素領域を特定する第2特定手段と、
     前記移動後状態の前記撮像手段で取得した撮像画像に対して、前記第2特定手段で特定した前記マスク画素領域を不可視にした加工画像を生成する加工画像生成手段と、
     前記加工画像生成手段で生成した前記加工画像を保守支援者が操作する保守支援者側端末に送信する通信手段と、
    を備えることを特徴とする保守支援システム。
  2.  前記移動後状態の前記撮像手段で取得した撮像画像中に前記基準点が含まれる必要がない、
    ことを特徴とする請求項1に記載の保守支援システム。
  3.  前記基準点は、マーカによって規定される、
    ことを特徴とする請求項1又は2に記載の保守支援システム。
  4.  前記第2特定手段は、撮像方向が互いに異なる複数の第2の撮像手段を具備し、前記複数の第2の撮像手段で取得した撮像画像に基づき、前記マスク画素領域を特定する、
    ことを特徴とする請求項1から3の何れかに記載の保守支援システム。
  5.  前記ウェアラブル端末は、ディスプレイを具備するヘッドマウントディスプレイであり、
     前記ヘッドマウントディスプレイは、前記ディスプレイに前記撮像画像を表示する状態と、前記ディスプレイに前記加工画像を認識可能に表示する状態とが切り替え可能に構成されている、
    ことを特徴とする請求項1から4の何れかに記載の保守支援システム。
  6.  前記第1特定手段、前記第2特定手段、前記加工画像生成手段及び前記通信手段が、前記ウェアラブル端末に取り付けられている、
    ことを特徴とする請求項1から5の何れかに記載の保守支援システム。
  7.  前記保守支援者側端末を備え、
     前記保守支援者側端末は、前記通信手段と双方向にデータ通信可能に構成されている、
    ことを特徴とする請求項1から6の何れかに記載の保守支援システム。
  8.  前記通信手段及び前記保守支援者側端末に電気的に接続され、前記保守作業者の識別情報である第1識別情報及び前記保守支援者の識別情報である第2識別情報が記憶されたサーバを備え、
     前記サーバは、前記通信手段から前記サーバに送信された識別情報と前記サーバに記憶された前記第1識別情報とが合致するか否かを判定すると共に、前記保守支援者側端末から前記サーバに送信された識別情報と前記サーバに記憶された前記第2識別情報とが合致するか否かを判定し、前記通信手段から前記サーバに送信された前記識別情報と前記第1識別情報とが合致し、且つ、前記保守支援者側端末から前記サーバに送信された識別情報と前記第2識別情報とが合致する場合に、前記サーバを介した前記通信手段と前記保守支援者側端末との双方向のデータ通信を可能にする、
    ことを特徴とする請求項7に記載の保守支援システム。
  9.  撮像手段を具備し保守作業者が装着するウェアラブル端末を用いた保守支援方法であって、
     第1特定手段によって、初期状態の前記撮像手段で取得した撮像画像における所定の基準点を基準として、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域を特定する第1特定工程と、
     前記ウェアラブル端末が移動した移動後状態において、第2特定手段によって、前記撮像手段で取得した撮像画像における前記第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定するか及び/又は前記第2の3次元領域に対応するマスク画素領域を特定する第2特定工程と、
     加工画像生成手段によって、前記移動後状態の前記撮像手段で取得した撮像画像に対して、前記第2特定工程で特定した前記マスク画素領域を不可視にした加工画像を生成する加工画像生成工程と、
     通信手段によって、前記加工画像生成工程で生成した前記加工画像を保守支援者側端末に送信する通信工程と、
    を含むことを特徴とする保守支援方法。
  10.  請求項9に記載の保守支援方法が含む前記第1特定工程、前記第2特定工程、前記加工画像生成工程及び前記通信工程を、前記第1特定手段、前記第2特定手段及び前記加工画像生成手段及び前記通信手段にそれぞれ実行させるためのプログラム。
  11.  保守作業者が装着するウェアラブル端末が具備する撮像手段で取得した撮像画像において、保守対象である産業用機器を含む所定の第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定するか及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域に対応するマスク画素領域を特定し、前記マスク画素領域を不可視にした加工画像を生成する、
    ことを特徴とする加工画像の生成方法。
  12.  保守作業者が装着するウェアラブル端末が具備する撮像手段で取得した撮像画像を用いて加工画像を生成する方法であって、
     第1特定手段によって、初期状態の前記撮像手段で取得した撮像画像における所定の基準点を基準として、保守対象である産業用機器を含む所定の第1の3次元領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域を特定する第1特定工程と、
     前記ウェアラブル端末が移動した移動後状態において、第2特定手段によって、前記撮像手段で取得した撮像画像における前記第1の3次元領域に対応する有効画素領域を除くマスク画素領域を特定するか及び/又は前記第2の3次元領域に対応するマスク画素領域を特定する第2特定工程と、
     加工画像生成手段によって、前記移動後状態の前記撮像手段で取得した撮像画像に対して、前記第2特定工程で特定した前記マスク画素領域を不可視にした加工画像を生成する加工画像生成工程と、
    を含むことを特徴とする加工画像の生成方法。
  13.  保守作業者が装着するウェアラブル端末が具備する撮像手段で取得した撮像画像において、保守対象である産業用機器を含む所定の第1の3次元領域に対応する有効画素領域を除くマスク画素領域及び/又は前記保守対象である産業用機器を除く所定の第2の3次元領域に対応するマスク画素領域が、不可視にされた加工画像。
  14.  請求項12に記載の生成方法によって生成され、前記保守対象である産業用機器を含む前記第1の3次元領域に対応する有効画素領域を除くマスク画素領域及び/又は前記保守対象である産業用機器を除く前記第2の3次元領域に対応するマスク画素領域が、不可視にされた加工画像。
PCT/JP2020/012325 2019-03-22 2020-03-19 保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像 WO2020196276A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021509316A JP6970858B2 (ja) 2019-03-22 2020-03-19 保守支援システム、保守支援方法、プログラム及び加工画像の生成方法
US17/053,829 US20220012868A1 (en) 2019-03-22 2020-03-19 Maintenance support system, maintenance support method, program, method for generating processed image, and processed image
EP20775810.3A EP3822923A4 (en) 2019-03-22 2020-03-19 MAINTENANCE ASSISTANCE SYSTEM, MAINTENANCE ASSISTANCE PROCESS, PROGRAM, PROCESSED IMAGE GENERATION PROCESS AND PROCESSED IMAGE
CN202080004994.8A CN112655027A (zh) 2019-03-22 2020-03-19 维护辅助系统、维护辅助方法、程序、加工图像的生成方法以及加工图像
KR1020217001936A KR20210142084A (ko) 2019-03-22 2020-03-19 보수 지원 시스템, 보수 지원 방법, 프로그램, 가공 화상의 생성 방법 및 가공 화상

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JPPCT/JP2019/012279 2019-03-22
PCT/JP2019/012279 WO2020194413A1 (ja) 2019-03-22 2019-03-22 保守支援システム、保守支援方法及びプログラム
JPPCT/JP2019/027986 2019-07-16
PCT/JP2019/027986 WO2020194777A1 (ja) 2019-03-22 2019-07-16 保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像

Publications (1)

Publication Number Publication Date
WO2020196276A1 true WO2020196276A1 (ja) 2020-10-01

Family

ID=72276707

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2019/028370 WO2020194778A1 (ja) 2019-03-22 2019-07-18 支援システム、支援方法及びプログラム
PCT/JP2020/012325 WO2020196276A1 (ja) 2019-03-22 2020-03-19 保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028370 WO2020194778A1 (ja) 2019-03-22 2019-07-18 支援システム、支援方法及びプログラム

Country Status (3)

Country Link
US (1) US20220012868A1 (ja)
JP (1) JP6748793B1 (ja)
WO (2) WO2020194778A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054891A (ja) * 2010-09-03 2012-03-15 Nec Corp 画像処理装置、方法及びプログラム
JP2017211766A (ja) 2016-05-24 2017-11-30 株式会社Screenホールディングス 画像処理システム、画像処理プログラム、および画像処理方法
JP2018036812A (ja) * 2016-08-31 2018-03-08 株式会社日立システムズ It運用作業遠隔支援システム及び方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243509A (ja) * 2006-03-08 2007-09-20 Hitachi Ltd 画像処理装置
US20140240313A1 (en) * 2009-03-19 2014-08-28 Real Time Companies Computer-aided system for 360° heads up display of safety/mission critical data
EP2876608A4 (en) * 2012-07-23 2016-02-10 Fujitsu Ltd PROGRAM, METHOD, AND DISPLAY CONTROL DEVICE
US9922460B2 (en) * 2014-11-04 2018-03-20 Illinois Tool Works Inc. Stereoscopic helmet display
US20180284453A1 (en) * 2017-04-03 2018-10-04 Walmart Apollo, Llc Customer interaction system
US20190370544A1 (en) * 2017-05-30 2019-12-05 Ptc Inc. Object Initiated Communication
JP2019012971A (ja) * 2017-06-30 2019-01-24 キヤノン株式会社 システム及び情報処理方法
JP7327872B2 (ja) * 2018-05-14 2023-08-16 エスアールアイ インターナショナル コンピュータによる検査システム及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054891A (ja) * 2010-09-03 2012-03-15 Nec Corp 画像処理装置、方法及びプログラム
JP2017211766A (ja) 2016-05-24 2017-11-30 株式会社Screenホールディングス 画像処理システム、画像処理プログラム、および画像処理方法
JP2018036812A (ja) * 2016-08-31 2018-03-08 株式会社日立システムズ It運用作業遠隔支援システム及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"3D shape restoration/self-position estimation (SLAM) and high-density 3D shape restoration from moving camera image (translation from Japanese", INFORMATION PROCESSING SOCIETY OF JAPAN, TECHNICAL REPORT VOL. 2014-CVIM-190, no. 40

Also Published As

Publication number Publication date
JPWO2020194777A1 (ja) 2021-04-08
US20220012868A1 (en) 2022-01-13
WO2020194778A1 (ja) 2020-10-01
JP6748793B1 (ja) 2020-09-02

Similar Documents

Publication Publication Date Title
JP6970858B2 (ja) 保守支援システム、保守支援方法、プログラム及び加工画像の生成方法
US9401050B2 (en) Recalibration of a flexible mixed reality device
CA2926861C (en) Fiducial marker patterns, their automatic detection in images, and applications thereof
EP3813014B1 (en) Camera localization method, terminal and storage medium
WO2022005715A1 (en) Augmented reality eyewear with 3d costumes
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP5215211B2 (ja) 関連情報表示位置特定システムおよび関連情報表示位置特定用プログラム
WO2020196276A1 (ja) 保守支援システム、保守支援方法、プログラム、加工画像の生成方法及び加工画像
JP7179583B2 (ja) 画像処理装置および画像処理方法
JP6882147B2 (ja) 操作案内システム
JP2022088678A (ja) 遠隔保守支援方法
WO2023278132A1 (en) Augmented reality eyewear with x-ray effect
CN112581630A (zh) 一种用户交互方法和系统
KR20200094941A (ko) 생산 라인에서의 작업자 위치 인식 방법 및 그 장치
JP2022184481A (ja) 画像制限方法、画像制限プログラム、情報処理装置及び支援システム
JP2020170482A (ja) 作業指示システム
JP2023000203A (ja) 俯瞰映像提示システム
JP2023077070A (ja) 現実空間に対するヴァーチャル空間の位置合わせ方法
CN114827338A (zh) 用于在设备的显示媒介上呈现虚拟对象的方法和电子装置
JP2023044464A (ja) 映像表示システム、映像表示装置、および映像表示方法
KR20210085929A (ko) 다중 사용자 간의 증강현실 커뮤니케이션 방법
CN114723826A (zh) 参数标定方法、装置、存储介质及显示设备
JP2017215262A (ja) 検出方法、被検出物、及びシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20775810

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020775810

Country of ref document: EP

Effective date: 20210211

ENP Entry into the national phase

Ref document number: 2021509316

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE