WO2017081920A1 - 情報処理装置、制御方法、及びプログラム - Google Patents

情報処理装置、制御方法、及びプログラム Download PDF

Info

Publication number
WO2017081920A1
WO2017081920A1 PCT/JP2016/076249 JP2016076249W WO2017081920A1 WO 2017081920 A1 WO2017081920 A1 WO 2017081920A1 JP 2016076249 W JP2016076249 W JP 2016076249W WO 2017081920 A1 WO2017081920 A1 WO 2017081920A1
Authority
WO
WIPO (PCT)
Prior art keywords
inspection
display
image
information
display device
Prior art date
Application number
PCT/JP2016/076249
Other languages
English (en)
French (fr)
Inventor
才田 好則
真 則枝
誠 吉本
岩元 浩太
貴美 佐藤
蕊寒 包
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2017550012A priority Critical patent/JP6332568B2/ja
Priority to CN201680053056.0A priority patent/CN108027903B/zh
Priority to US15/759,560 priority patent/US10713488B2/en
Publication of WO2017081920A1 publication Critical patent/WO2017081920A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/06Remotely controlled electronic signs other than labels

Definitions

  • the present invention relates to an information processing apparatus, a control method, and a program.
  • Patent Literature 1 discloses an equipment inspection support system using a terminal device.
  • the inspection worker carries out the inspection work with the terminal device.
  • the terminal device acquires the inspection item from the content storage unit.
  • the inspection worker performs inspection work on the inspection items acquired by the terminal device.
  • There may be multiple inspection points on the device to be inspected.
  • a single device may be provided with a plurality of meters. In such a case, the inspection operator records measurement values for each of the plurality of meters.
  • Patent Document 1 does not mention such a work load in the inspection work, and does not disclose a method for reducing such a work load.
  • the present invention has been made in view of the above problems.
  • the objective of this invention is providing the technique which reduces the work burden of an inspection operator.
  • the information processing apparatus includes 1) an image acquisition unit that acquires a captured image including a device to be inspected, and 2) an inspection information acquisition unit that acquires inspection information indicating an inspection item of the device included in the captured image. And 3) a display indicating an inspection location corresponding to the inspection item indicated in the inspection information is displayed superimposed on the inspection location on the display device, or the inspection location or the device on the display device is displayed.
  • First display control means for displaying in the vicinity.
  • the control method of the present invention is a control method executed by a computer.
  • the control method includes 1) an image acquisition step for acquiring a captured image including a device to be inspected, 2) an inspection information acquisition step for acquiring inspection information indicating an inspection item of the device included in the captured image, and 3 ) A display indicating the inspection location corresponding to the inspection item indicated in the inspection information is superimposed on the inspection location on the display device or displayed near the inspection location or the device on the display device.
  • a first display control step is a control method executed by a computer. The control method includes 1) an image acquisition step for acquiring a captured image including a device to be inspected, 2) an inspection information acquisition step for acquiring inspection information indicating an inspection item of the device included in the captured image, and 3 ) A display indicating the inspection location corresponding to the inspection item indicated in the inspection information is superimposed on the inspection location on the display device or displayed near the inspection location or the device on the display device.
  • FIG. 1 is a block diagram illustrating an information processing apparatus according to a first embodiment.
  • FIG. 2 is a diagram conceptually illustrating an operation of the information processing apparatus according to the first embodiment. It is a figure which illustrates the structure of the computer which implement
  • FIG. 6 is a block diagram illustrating an information processing apparatus according to a second embodiment. It is a figure which illustrates a mode that the interface image is displayed on the touch panel of a tablet terminal. The manner in which the keyboard image is displayed on the display device of the head mounted display is illustrated. It is a figure which illustrates interface information in a table format. It is a figure which illustrates interface images other than a keyboard image.
  • FIG. 10 is a block diagram illustrating an information processing apparatus according to a third embodiment. The state that the image of the device is displayed on the touch panel of the tablet terminal is illustrated. It is a figure which illustrates a mode that an inspection result is input in the state in which the image of an apparatus is displayed on the touch panel.
  • FIG. 10 is a block diagram illustrating an information processing apparatus according to a third embodiment. The state that the image of the device is displayed on the touch panel of the tablet terminal is illustrated. It is a figure which illustrates a mode that an inspection result is input in the state in which the image of an apparatus is displayed on the touch panel.
  • FIG. 10 is a block diagram illustrating an information processing apparatus according to a fourth embodiment.
  • FIG. 10 is a diagram conceptually illustrating an operation of an information processing apparatus according to a fourth embodiment. It is a figure which shows notionally the method of calculating the direction which a display shows. It is a figure which illustrates the case where the position which displays a display according to the position of an inspection location is decided. It is a flowchart which illustrates the flow of the process performed by the 4th display control part.
  • FIG. 10 is a block diagram illustrating an information processing apparatus according to a fifth embodiment. 10 is a flowchart illustrating the flow of processing executed by the information processing apparatus according to the fifth embodiment.
  • each block diagram represents a functional unit configuration, not a hardware unit configuration.
  • FIG. 1 is a block diagram illustrating an information processing apparatus 2000 according to the first embodiment.
  • the information processing apparatus 2000 includes an image acquisition unit 2020, an inspection information acquisition unit 2040, and a first display control unit 2060.
  • the image acquisition unit 2020 acquires a captured image including the inspection target device.
  • the inspection information acquisition unit 2040 acquires inspection information related to equipment included in the captured image.
  • the inspection information is information indicating an inspection item of the device.
  • the inspection item represents an inspection item having a content such as “confirm whether or not the meter value on the device is within a normal value range”.
  • the 1st display control part 2060 displays the display which shows the inspection location corresponding to the inspection item shown by inspection information on the display apparatus 10.
  • the inspection point is that meter.
  • the first display control unit 2060 superimposes and displays a display indicating the inspection location on the inspection location on the display device 10.
  • the 1st display control part 2060 displays the display showing an inspection location on the vicinity of the inspection location on the display apparatus 10, or an apparatus.
  • a mode in which a display indicating an inspection location is displayed superimposed on the inspection location will be mainly described.
  • the operation of the information processing apparatus 2000 configured to display a display representing an inspection location in the vicinity of the inspection location is the same as the operation of the information processing apparatus 2000 configured to display a display representing the inspection location superimposed on the inspection location.
  • FIG. 2 is a diagram conceptually illustrating the operation of the information processing apparatus 2000 according to the first embodiment.
  • the information processing apparatus 2000 acquires a captured image 20.
  • the captured image 20 includes the device 30. Therefore, the information processing apparatus 2000 acquires inspection information 200 corresponding to the device 30. Then, the information processing apparatus 2000 displays a display 60 representing the inspection location 50 indicated in the inspection information 200 on the display device 10. In FIG. 2, the information processing apparatus 2000 displays a display 60 superimposed on the inspection location 50 in the device 30 on the display device.
  • the display 60 indicating the inspection location is displayed at the inspection location 50 of the device 30 on the display device 10.
  • Each functional component of the information processing apparatus 2000 may be realized by hardware (eg, a hard-wired electronic circuit) that implements each functional component, or a combination of hardware and software (eg: It may be realized by a combination of an electronic circuit and a program for controlling it).
  • hardware eg, a hard-wired electronic circuit
  • software eg: It may be realized by a combination of an electronic circuit and a program for controlling it.
  • FIG. 3 is a diagram illustrating a configuration of a computer 1000 that implements the information processing apparatus 2000.
  • the computer 1000 is a variety of computers such as a tablet terminal, a smartphone, a personal computer (PC), a server device, and a head mounted display.
  • the computer 1000 includes a bus 1020, a processor 1040, a memory 1060, a storage 1080, an input / output interface 1100, and a network interface 1120.
  • the bus 1020 is a data transmission path through which the processor 1040, the memory 1060, the storage 1080, and the network interface 1120 transmit / receive data to / from each other.
  • the method of connecting the processors 1040 and the like is not limited to bus connection.
  • the processor 1040 is an arithmetic processing device such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the memory 1060 is a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the storage 1080 is a storage device such as a hard disk, an SSD (Solid State Drive), or a memory card. Further, the storage 1080 may be a memory such as a RAM or a “ROM”.
  • the network interface 1120 is an interface for the computer 1000 to communicate with an external device.
  • the input / output interface 1100 is an interface for connecting the computer 1000 and an input / output device.
  • the display device 10 and the camera 70 are connected to the input / output interface 1100.
  • the display device 10 is an arbitrary display device that can display an image.
  • the display device 10 is a display device of a smartphone or a tablet terminal, a display device of a head mounted display, or the like.
  • the camera 70 is an arbitrary camera that can generate the captured image 20 including the device 30 by capturing the device 30.
  • the camera 70 repeatedly captures an image and generates a captured image 20 representing each imaging result.
  • the camera 70 may be a 2D camera or a 3D camera.
  • the camera 70 is a camera built in a smartphone or a tablet terminal. Further, for example, the camera 70 is a camera attached to an object worn by the user.
  • the items worn by the user are, for example, a head-mounted display or an employee ID card provided from the neck.
  • the camera 70 may be provided on a wall or the like where the device 30 is installed. When the camera 70 is provided on a wall or the like, it is preferable that the shooting range (shooting direction, zoom rate, etc.) of the camera 70 can be changed by remote operation using a remote controller or the like.
  • FIG. 4 is a diagram illustrating a tablet terminal 80 provided with a display device and a camera.
  • the tablet terminal 80 includes a touch panel 82 corresponding to the display device 10 and a camera 84 corresponding to the camera 70.
  • the captured image 20 generated by the camera 84 is displayed on the touch panel 82, for example.
  • FIG. 5 is a diagram illustrating a head mounted display 90 including a display device and a camera.
  • the head mounted display 90 includes a display device 92 corresponding to the display device 10 described above and a camera 94 corresponding to the camera 70.
  • the display device 92 is a transmissive display device. The user can see a state in which the image is superimposed on the scene on the real world by viewing the image displayed on the display apparatus 92 while viewing the scene of the real world via the display apparatus 92.
  • the camera 94 is provided near the display device 92.
  • the camera 94 captures an image in the same direction as or near to the user's field of view. Therefore, the scenery included in the captured image 20 generated by the camera 70 is a scenery close to the scenery that the user is looking at.
  • the imaging direction of the camera 94 is arbitrary, and is not limited to the user's visual field direction or a direction close thereto.
  • the position where the camera 94 is provided is not limited to the vicinity of the display device 92.
  • the head mounted display 90 provided with the camera 94 is not limited to a head mounted display having a transmissive display device, but may be a head mounted display having a non-transmissive display device. The relationship between the type of the head mounted display and the mounting method of the information processing apparatus 2000 will be described later as necessary.
  • the computer 1000 may be the tablet terminal 80 or a computer other than the tablet terminal 80. In the latter case, the computer 1000 acquires the captured image 20 from the tablet terminal 80 and processes the captured image 20. In addition, the computer 1000 instructs the tablet terminal 80 to display the display 60. The same applies to the case where the display device 92 and the camera 94 of the head mounted display 90 are used as the display device 10 and the camera 70.
  • the storage 1080 stores program modules for realizing the functions of the information processing apparatus 2000.
  • the processor 1040 implements each function corresponding to the program module by executing each program module.
  • the processor 1040 may execute the modules after reading them onto the memory 1060 or without reading them onto the memory 1060.
  • the storage 1080 may store inspection information. However, the inspection information may be stored in a device (such as a database) outside the information processing device 2000. When the inspection information is stored in the apparatus outside the information processing apparatus 2000, the information processing apparatus 2000 accesses the external apparatus via a network or the like and acquires the inspection information.
  • a device such as a database
  • each program module may be stored in the memory 1060.
  • the computer 1000 may not include the storage 1080.
  • FIG. 6 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the first embodiment.
  • the image acquisition unit 2020 acquires the captured image 20 (S102).
  • the inspection information acquisition unit 2040 acquires the inspection information 200 of the device 30 included in the captured image 20 (S104).
  • the 1st display control part 2060 superimposes and displays the display 60 which shows the inspection location 50 on the inspection location 50 on the display apparatus 10 (S106).
  • the image acquisition unit 2020 acquires the captured image 20 generated by the camera 70 (S102). There are various methods by which the image acquisition unit 2020 acquires the captured image 20. For example, the image acquisition unit 2020 acquires the captured image 20 from the camera 70. In this case, the information processing apparatus 2000 and the camera 70 are connected to be communicable.
  • the image acquisition unit 2020 acquires the captured image 20 from the storage device.
  • the image acquisition unit 2020 is connected to be able to communicate with the storage device.
  • the inspection information acquisition unit 2040 acquires the inspection information 200 of the device 30 (S104).
  • the inspection information 200 of the device 30 indicates one or more inspection items related to the inspection of the device 30.
  • the inspection information acquisition unit 2040 acquires inspection information 200 corresponding to the device 30 included in the captured image 20.
  • the inspection information acquisition unit 2040 performs image analysis on the captured image 20 to determine an area including the device 30 from the captured image 20.
  • the inspection information acquisition part 2040 acquires the inspection information 200 of the apparatus 30 based on this area
  • the inspection information acquisition unit 2040 calculates a feature amount of an area including the device 30, and uses this feature amount to search for information in the storage device in which the inspection information 200 is stored.
  • the inspection information acquisition unit 2040 acquires inspection information corresponding to the device 30 included in the captured image 20.
  • a known technique can be used for the process of determining the area including the device 30 from the captured image 20 and the process of calculating the feature amount of the area.
  • FIG. 7 is a diagram illustrating the inspection information 200 in a table format.
  • the inspection information 200 in FIG. 6 includes an inspection item ID 202, an inspection item name 204, inspection contents 206, an input format 207, an inspection location 208, and a display image 210.
  • the inspection item ID 202 indicates an identifier (ID: identifier) of the inspection item.
  • the inspection item name 204 indicates the name of the inspection item.
  • the inspection content 206 indicates the content of the inspection. For example, “confirmation within normal value (10-15V)”, which is the inspection content 206 of inspection item 0001, “confirms that the meter value that is the inspection point is within the normal value range of 10V to 15V. It represents the inspection work “Yes”.
  • “input setting value” which is the inspection content 206 of the inspection item 0006 represents an inspection operation of “input and record the position (setting value) of the knob as the inspection location”.
  • “input ON / OFF” which is the inspection content 206 of the inspection item 0007 represents an inspection operation of “inputting and recording ON / OFF of the switch that is the inspection point”.
  • the input format 207 represents an input format accepted from the user.
  • the input format 207 of the inspection item 0001 ⁇ ⁇ indicates that two choices of OK and NG are accepted.
  • the inspection location 208 indicates information for specifying the location of the inspection location 50 from the scenery included in the captured image 20.
  • the inspection location 208 indicates the feature amount of the appearance of the inspection location 50.
  • the feature amount of the appearance of the inspection location 50 shown in the inspection location 208 may be not only the inspection location 50 itself but also the appearance feature amount including the periphery of the inspection location 50.
  • the inspection point 208 indicates not only the meter itself but also a feature amount in a range including ID around the meter.
  • the device 30 may include a plurality of inspection points 50 that are similar in appearance to each other, such as three meters provided on the device 30 of FIG.
  • the inspection point 208 show not only the inspection point 50 itself but also the feature quantity in a range including information such as the ID of the inspection point 50 described around the inspection point 50, the appearance can be improved.
  • a plurality of inspection points 50 that are similar to each other can be distinguished.
  • the inspection location 208 indicates the relative position of the inspection location 50 in the entire device 30.
  • the relative position of the inspection location 50 is expressed in XY coordinates where the upper left end of the device 30 is the origin, the right direction in the horizontal direction is X axis, and the downward direction in the vertical direction is Y axis. Is done.
  • the information indicated by the inspection point 208 may be information that can identify the position of the inspection point 50 from the scene included in the captured image 20, and is not limited to the feature amount or the relative position of the appearance.
  • the display image 210 indicates an image displayed in the vicinity of the inspection location 50 together with the display 60.
  • the first display control unit 2060 displays a balloon display image “confirmation within normal value” and a record image indicating the inspection item in the vicinity of the inspection point 50.
  • the record of the inspection item 0000 indicates information related to the device 30.
  • information regarding the device 30 is a feature amount of the device 30.
  • the record of the inspection item 0000 is used when the inspection information acquisition unit 2040 acquires the inspection information 200 corresponding to the device 30 included in the captured image 20. Further, as shown in FIG. 7, when an image is shown in the display image 210 of the inspection item 0000, the first display control unit 2060 may display the image in the vicinity of the device 30 on the display device 10.
  • the 1st display control part 2060 superimposes and displays the display 60 which shows the inspection location 50 on the inspection location 50 on the display apparatus 10 (S106).
  • the first display control unit 2060 calculates the position of the inspection location 50 from the captured image 20 by using the inspection location 208 indicated in the acquired inspection information 200. For example, when the inspection location 208 indicates the feature amount of the appearance of the inspection location 50, the first display control unit 2060 performs image analysis on the captured image 20 to determine a region indicating the feature amount. This area is the position of the inspection point 50.
  • the first display control unit 2060 displays the region of the device 30 included in the captured image 20 and the relative position indicated by the inspection location 208. From this, the position of the inspection location 50 in the captured image 20 is determined. 2, when there are a plurality of inspection locations that are similar in appearance on the device 30, the first display control unit 2060 uses the relative position of the inspection location 50 on the device 30.
  • the first display control unit 2060 may superimpose the display 60 on the inspection location 50 on the display device 10, or display the display 60 near the inspection location 50.
  • the display 60 is displayed so as to be superimposed.
  • the image displayed on the display device 10 by the first display control unit 2060 is 1) the user is viewing the image of the device 30 displayed on the display device 10, or 2) the user is on the real world. It depends on whether you are looking at the device 30.
  • each case will be described.
  • the display device 10 is the touch panel 82 of the tablet terminal 80 or the display device 92 of the non-transmissive head mounted display 90.
  • the first display control unit 2060 generates an image in which the display 60 is superimposed on the inspection location 50 on the captured image 20 and displays the image on the display device 10.
  • FIG. 8 is a diagram illustrating a state in which an image in which the display 60 is superimposed on the captured image 20 is displayed on the display device.
  • FIG. 8A an image in which the display 60 is superimposed on the captured image 20 is displayed on the touch panel 82 of the tablet terminal 80.
  • FIG. 8B an image in which the display 60 is superimposed on the captured image 20 is displayed on the display device 92 of the non-transmissive head mounted display 90.
  • the display device 10 is the display device 92 of the transmissive head-mounted display 90.
  • the first display control unit 2060 does not need to display the captured image 20 on the display device 10 and displays the display 60 on the display device 10.
  • the inspection device 50 on the real-world device 30 and the display 60 overlap the display device 10 that is visible to the user's eyes. Will be visible.
  • FIG. 9 is a diagram illustrating a state in which the display 60 is displayed on the display device.
  • the display 60 is displayed on the display device 92 of the transmissive head mounted display 90.
  • the user can see the display 60 superimposed on the inspection location 50 by simultaneously viewing the display 60 displayed on the display device 92 and the inspection location 50 on the device 30 that is visible beyond the display device 92. it can.
  • the first display control unit 2060 determines the position on the display device 92 that displays the display 60 based on the position of the inspection location 50 on the captured image 20 (the “appropriate position described above”). )). Specifically, the first display control unit 2060 calculates the position on the display device 92 that displays the display 60 by converting the position of the inspection location 50 on the captured image 20 to the position on the display device 92. To do.
  • the correspondence between the position on the captured image 20 and the position on the display device 92 is based on various parameters (view angle and focal length) related to the camera 94, the positional relationship between the display device 92 and the camera 94, and the like. Determined. This correspondence may be calculated by the first display control unit 2060 using these parameters or the like, or may be predetermined as a set value.
  • the image used as the display 60 by the first display control unit 2060 is arbitrary.
  • the first display control unit 2060 uses an image of a figure (such as a circle or a rectangle) surrounding a part or all of the inspection location 50 as the display 60.
  • the first display control unit 2060 may display the image shown in the display image 210 of FIG. 7 in the vicinity of the inspection location 50 together with the display 60 that is a figure such as a circle.
  • FIG. 10 is a diagram illustrating a state in which the image shown in the display image 210 is displayed together with the display 60.
  • the first display control unit 2060 displays a display 60, an auxiliary display 62, and an auxiliary display 64.
  • the first display control unit 2060 may use the image shown in the display image 210 of FIG. 7 as the display 60 instead of the graphic surrounding the inspection location 50.
  • FIG. 11 is a flowchart illustrating a flow in which the information processing apparatus 2000 processes inspection information 200 including a plurality of inspection items.
  • S202 to S208 is a loop process A that is sequentially executed for each inspection item.
  • the first display control unit 2060 determines whether or not the loop process A has been executed for all the inspection items indicated in the inspection information 200. If the loop process A has already been executed for all inspection items, the process of FIG. 11 ends. On the other hand, when there is an inspection item that is not yet the target of the loop process A, the first display control unit 2060 acquires the next inspection item.
  • the next inspection item is denoted as inspection item i.
  • the first display control unit 2060 displays a display 60 indicating the inspection location 50 corresponding to the inspection item i on the display device 10 (S204).
  • the information processing apparatus 2000 receives an input of inspection results regarding the inspection item i from the user (S206).
  • S208 is the end of loop processing A. Therefore, the processing in FIG. 11 proceeds from S208 to S202.
  • the method by which the first display control unit 2060 selects the inspection item i from a plurality of inspection items is arbitrary.
  • the first display control unit 2060 randomly selects the inspection item i from inspection items that are not yet the target of the loop process A.
  • the first display control unit 2060 selects an inspection item according to a predetermined order in the inspection information 200.
  • the order of inspection items predetermined in the inspection information 200 is, for example, the ascending order of the inspection item ID 202.
  • the first display control unit 2060 may select an inspection item with the user's line of sight as the inspection item i. Specifically, the first display control unit 2060 calculates a position on the captured image 20 for an inspection location corresponding to each inspection item that is not yet the target of the loop process A.
  • the captured image 20 used here is, for example, the latest (newest) captured image 20 at the time of imaging.
  • the 1st display control part 2060 calculates
  • the first display control unit 2060 selects an inspection item randomly selected from these inspection items or an inspection with the earliest predetermined order. The item is selected as inspection item i.
  • the information processing apparatus 2000 may accept key input using a keyboard or a touch panel, or may accept voice input using a microphone. Further, the information processing apparatus 2000 may accept a gesture input by photographing a user's gesture using the camera 70. Other input methods will be described in later-described embodiments.
  • FIG. 12 is a block diagram illustrating an information processing apparatus 2000 according to the second embodiment.
  • the information processing apparatus 2000 according to the second embodiment further includes a second display control unit 2080.
  • the second display control unit 2080 displays an input interface image (hereinafter referred to as an interface image) on the display device 10.
  • the information processing apparatus 2000 receives an input from the user by recognizing an operation on the interface image.
  • FIG. 13 is a diagram illustrating a state in which an interface image is displayed on the touch panel 82 of the tablet terminal 80.
  • the interface image is a keyboard image 100 representing a keyboard.
  • the user touches the keyboard image 100 displayed on the touch panel 82 to input characters and the like.
  • the input by the user is displayed in the input field 140.
  • a known technique can be used for a method of displaying an interface image such as the keyboard image 100 on the touch panel 82 of the tablet terminal 80 and a method of the tablet terminal 80 receiving an input to the interface image.
  • FIG. 14 illustrates a state in which the keyboard image 100 is displayed on the display device 92 of the head mounted display 90.
  • the user performs input by operating the keyboard image 100.
  • the head mounted display 90 detects that the interface image has been operated by detecting vibration applied to a place where the keyboard image 100 is displayed (the left arm of the user in FIG. 14).
  • the user wears a watch-type device 110.
  • the device 110 has a built-in vibration sensor.
  • the vibration sensor built in the device 110 detects the vibration generated by the tap.
  • the device 110 notifies the head mounted display 90 of detection of vibration. By receiving this notification, the head mounted display 90 recognizes that vibration has been applied to the user's left arm.
  • the head mounted display 90 performs image analysis on the captured image 20 generated when the vibration is applied to the left arm of the user, and determines which part of the interface image the user's finger overlaps in the captured image 20. . Then, the head mounted display 90 determines that the overlapping portion is a portion operated by the user. For example, the head mounted display 90 calculates the position of the user's finger on the captured image 20 generated at the timing when vibration is detected. Then, the head mounted display 90 determines which key of the interface image the user's finger overlaps based on the position of the interface image displayed on the display device 92 and the position of the user's finger in the captured image 20. .
  • the head mounted display 90 determines that the A key has been pressed.
  • the correspondence between the position on the captured image 20 and the position on the display device 92 is determined based on various parameters related to the camera 94, the positional relationship between the display device 92 and the camera 94, and the like.
  • the head mounted display 90 needs to grasp at which position on the interface image each button is provided. For this purpose, for example, the head mounted display 90 acquires information (hereinafter referred to as interface information) related to the interface image displayed on the interface image displayed by the second display control unit 2080.
  • interface information information related to the interface image displayed on the interface image displayed by the second display control unit 2080.
  • FIG. 15 is a diagram illustrating interface information in a table format.
  • 15 includes a button ID 302, a button name 304, and coordinate information 306.
  • the button ID 302 indicates the button ID.
  • a button name 304 indicates the name of the button.
  • the coordinate information 306 indicates the position of the button (area occupied by the button) on the interface image. For example, the coordinate information 306 is expressed using coordinates with the upper left corner of the interface image as the origin. In FIG. 15, the coordinate information 306 represents the coordinates of the upper left corner and the lower right corner of the button area as coordinates with the upper left corner of the interface image as the origin.
  • the information processing apparatus 2000 calculates the position of the user's finger on the interface image based on the position of the interface image on the display device 10 and the position of the user's finger on the captured image 20. Then, the information processing apparatus 2000 determines a button (a pressed button) corresponding to the position of the user's finger based on the calculated relative and coordinate information 306 of each button.
  • the head mounted display 90 may detect that the key is operated when a user's finger is overlapped on the same key for a predetermined time or more.
  • the interface image displayed on the display device 10 may be a predetermined image or an image that can be changed by user selection.
  • the interface image is set in the second display control unit 2080 in advance.
  • information indicating an interface image to be displayed on the display device 10 is stored in a storage device accessible from the second display control unit 2080.
  • FIG. 16 is a diagram illustrating an interface image other than the keyboard image 100.
  • FIG. 16A illustrates an interface image representing a numeric keypad.
  • FIG. 16B exemplifies an interface image representing ON / OFF selection options.
  • the interface image may be different depending on the inspection location 50.
  • the interface image is a numeric keypad image (FIG. 16A).
  • the interface image is an interface image (FIG. 16B) representing the options.
  • the inspection location 50 accompanied by selection of options includes a switch that can be in a state of, for example, “ON” or “OFF”.
  • each item of the inspection information 200 indicates the ID of the interface image corresponding to the inspection location 50 of that item.
  • the interface ID “ID” is, for example, the file name of the interface image.
  • the type of interface image is a keyboard or a numeric keypad.
  • FIG. 17 is a diagram illustrating the inspection information 200 indicating the ID or type of the interface image.
  • the inspection information 200 illustrated in FIG. 17 further includes an interface image 212 in addition to the columns included in the inspection information 200 illustrated in FIG. However, in order to make the figure easy to see, the contents of the display image 210 are omitted in the inspection information 200 shown in FIG.
  • the interface image 212 indicates the ID or type of the interface image.
  • the interface image 212 of the item 0001 indicates the ID (file name) of the interface image “if001.png”.
  • the interface image 212 of the item 0006 indicates the type of interface image “ten-key”.
  • the second display control unit 2080 acquires the interface image having the interface ID, and displays the acquired interface image on the display device 10.
  • the second display control unit 2080 acquires the interface image of that type and displays the acquired interface image on the display device 10.
  • the interface image may be stored in an internal or external storage device of the information processing apparatus 2000, or may be included in the inspection information 200.
  • FIG. 18 is a flowchart illustrating the processing flow of the second display control unit 2080 when an interface image is associated with an inspection item.
  • S302 to S308 are loop processing B that is sequentially executed for each inspection item.
  • the second display control unit 2080 determines whether or not the loop process B has been executed for all the inspection items indicated in the inspection information 200. If the loop process B has already been executed for all inspection items, the process in FIG. 18 ends. On the other hand, when there is an inspection item that is not yet the target of the loop process B, the second display control unit 2080 acquires the next inspection item.
  • the next inspection item is denoted as inspection item i.
  • the second display control unit 2080 displays an interface image corresponding to the inspection item i (S304).
  • the information processing apparatus 2000 receives an input of inspection results regarding the inspection item i from the user (S306).
  • S308 is the end of the loop process B. Accordingly, the processing in FIG. 18 proceeds from S308 to S302.
  • the method in which the second display control unit 2080 selects the inspection item i from the plurality of inspection items in S302 is the same as that described in Embodiment 1, and the first display control unit 2060 inspects the inspection item from the plurality of inspection items in S202. This is the same as the method for selecting item i.
  • ⁇ Timing for displaying the interface image> There are various timings at which the second display control unit 2080 displays the interface image.
  • the second display control unit 2080 displays the interface image on the display device 10 at the same timing as or close to the timing at which the first display control unit 2060 displays the display 60 on the display device 10.
  • the second display control unit 2080 displays the interface image on the display device 10 at the timing when the marker that is a mark for displaying the interface image is included in the captured image 20 (timing when the marker is captured by the camera). It may be displayed.
  • FIG. 19 is a diagram illustrating a state in which the marker is included in the captured image 20.
  • the marker is a marker image 114 displayed on the touch panel 112 of the watch-type device 110 attached to the user's arm.
  • the second display control unit 2080 repeatedly analyzes the captured image 20 generated by the camera and detects that the marker image 114 is included in the captured image 20, the interface image (the keyboard image 100 in FIG. 19). ) Is displayed.
  • the marker may be any mark (character, graphic, symbol, etc.) that can be detected by image analysis.
  • the marker is a predetermined mark directly drawn on the user's arm or the like.
  • the marker is a predetermined mark drawn on an arbitrary object worn on the user's arm or the like.
  • the thing worn on the user's arm is, for example, a ring attached to the user's finger, a wristband attached to the user's wrist, or a sleeve of clothes worn by the user.
  • the marker is printed on a sleeve of work clothes that are commonly worn by workers who perform inspection work.
  • the marker may be drawn by hand or printed.
  • the information for identifying the mark recognized as the marker may be set in advance in the second display control unit 2080 or may be stored in a storage device accessible from the second display control unit 2080.
  • FIG. 20 is a flowchart illustrating a process of displaying an input interface image using a marker.
  • the image acquisition unit 2020 acquires the captured image 20 (S402).
  • the second display control unit 2080 determines whether or not a marker is included in the captured image 20 (S404).
  • the captured image 20 includes a marker (S404: YES)
  • the second display control unit 2080 displays the input interface image on the display device 10 (S406).
  • the marker is not included in the captured image 20 (S404: NO)
  • the second display control unit 2080 displays the interface image.
  • the second display control unit 2080 displays an interface image at a predetermined position on the display device 10.
  • the predetermined position is one of the four corners of the display device 10.
  • the information indicating the predetermined position may be set in advance in the second display control unit 2080, or may be stored in a storage device accessible from the second display control unit 2080.
  • the second display control unit 2080 may determine the display position of the interface image based on the position of the marker described above. Specifically, the display position of the interface image is defined in advance as a relative position to the marker position. The second display control unit 2080 calculates the position of the interface image on the captured image 20 from the position of the marker included in the captured image 20. Then, the second display control unit 2080 displays the captured image 20 in which the interface image is superimposed on the calculated position on the display device 10.
  • the second display control unit 2080 displays the interface image on the captured image 20.
  • the position is converted into a position on the display device 10.
  • the second display control unit 2080 displays the interface image at the position on the display device 10 calculated by this conversion.
  • the user can input inspection results using the information processing apparatus 2000. Therefore, for example, the user can easily enter the inspection result as compared with the case where the inspection result has to be written on a paper medium such as a notebook.
  • the interface image ID and type are determined according to the inspection item, the user can more easily input the result according to the inspection item. This is because an interface image corresponding to the inspection item is automatically displayed on the display device 10.
  • FIG. 21 is a block diagram illustrating an information processing apparatus 2000 according to the third embodiment. Except as described below, the information processing apparatus 2000 according to the third embodiment has the same functions as those of the information processing apparatus 2000 according to the first or second embodiment, or a combination thereof.
  • the information processing apparatus 2000 further includes a third display control unit 2100.
  • the third display control unit 2100 displays the image of the device 30 and the display 60 on the display device 10 when the captured image 20 that does not include the device 30 is acquired. As a result, the user can see the device 30 even when the device 30 does not enter the field of view, and can grasp the inspection location.
  • FIG. 22 illustrates a state in which an image of the device 30 is displayed on the touch panel 82 of the tablet terminal 80.
  • the imaging range 120 represents the imaging range of the camera 84.
  • the actual device 30 is outside the imaging range of the camera 84. Therefore, the captured image 20 does not include the device 30. Therefore, the third display control unit 2100 displays the image of the device 30 on the touch panel 82.
  • a display 60 is superimposed on the inspection location 50 on the image of the device 30 displayed on the touch panel 82. The user can grasp the current inspection location by looking at the device 30 and the display 60 displayed on the touch panel 82. The same applies to the case where the display device 10 is the display device 92 of the head mounted display 90.
  • the transmissive head mounted display 90 when used, the user does not see the device 30 included in the captured image 20, but sees the actual device 30. However, even in this case, the device 30 is included in the captured image 20 if the position and angle of view of the camera 94 are set so that the imaging direction of the camera 94 and the user's viewpoint direction are the same or approximate. When not, the device 30 does not enter the user's field of view. Therefore, the 3rd display control part 2100 can grasp
  • the third display control unit 2100 acquires an image of the device 30 to be displayed on the display device 10.
  • the third display control unit 2100 acquires the image of the device 30.
  • the third display control unit 2100 acquires the entire captured image 20 in which the device 30 was included, or an area in which the device 30 is included in the captured image 20 as an image of the device 30.
  • the inspection information 200 includes an image of the device as in the inspection information 200 of FIG. 7, the third display control unit 2100 acquires the image of the device 30 included in the inspection information 200. Also good.
  • the position on the display device 10 where the image of the device 30 is displayed is arbitrary.
  • the third display control unit 2100 displays the image of the device 30 at a predetermined position (such as one of the four corners) on the display device 10.
  • the information for determining the predetermined position may be set in advance in the third display control unit 2100, or may be stored in a storage device accessible from the third display control unit 2100.
  • the third display control unit 2100 may display the image of the device 30 at a position determined based on the marker described in the second embodiment. In this case, the third display control unit 2100 displays the image of the device 30 when the marker is included in the captured image 20.
  • the method in which the third display control unit 2100 displays the image of the device 30 at the position based on the marker position is the same as the method in which the second display control unit 2080 displays the interface image at the position based on the marker position. It is.
  • the third display control unit 2100 displays the display position of the display 60 on the image of the device 30 and the like as follows. Change to the one corresponding to the inspection item. By doing so, the user can grasp the next inspection location 50 even when the inspection result is input in a state where the device 30 is not included in the captured image 20. Therefore, the user can easily look to the inspection point 50 to be viewed next.
  • FIG. 23 is a diagram illustrating a state in which an inspection result is input in a state where an image of the device 30 is displayed on the touch panel 82.
  • FIG. 23A shows a state before the inspection result for the inspection point 50-1 is input
  • FIG. 23B shows the state after the inspection result for the inspection point 50-1 is input. Represents.
  • the display 60-1 is superimposed on the inspection location 50-1.
  • a display 60-2 is superimposed on an inspection location 50-2 that is the inspection location next to the inspection location 50-1.
  • the third display control unit 2100 displays the image of the device 30 when “the device 30 is not included in the captured image 20”.
  • the display of the image of the device 30 by the third display control unit 2100 is not limited to the case where the device 30 is not completely included in the captured image 20.
  • the third display control unit 2100 displays the image of the device 30 when the size of the device 30 included in the captured image 20 is equal to or less than a predetermined ratio with respect to the size of the entire device 30.
  • the third display control unit 2100 displays the image of the device 30 when the device 30 is included in the captured image 20 but the current inspection location 50 is not included in the display 60.
  • the third display control unit 2100 displays the image of the device 30 regardless of whether or not the device 30 is included in the captured image 20.
  • FIG. 24 is a block diagram illustrating an information processing apparatus 2000 according to the fourth embodiment. Except as described below, the information processing apparatus 2000 according to the fourth embodiment has the same function as any one of the information processing apparatuses 2000 according to the first to third embodiments or a combination thereof.
  • the information processing apparatus 2000 further includes a fourth display control unit 2120.
  • the fourth display control unit 2120 displays a display indicating the direction in which the inspection location 50 is located on the display device 10.
  • FIG. 25 is a diagram conceptually illustrating the operation of the information processing apparatus 2000 according to the fourth embodiment.
  • FIG. 25A shows a state where the captured image 20 is displayed on the touch panel 82 of the tablet terminal 80.
  • the captured image 20 includes only a part of the device 30. Therefore, only a part of the device 30 is displayed on the touch panel 82.
  • FIG. 25B shows the actual device 30.
  • the current inspection item is the inspection location 50 shown in FIG. Since this inspection location 50 is located outside the imaging range of the camera 84, it is not included in the captured image 20. Therefore, the inspection location 50 is not included in the touch panel 82 in FIG.
  • the fourth display control unit 2120 displays a display 130 indicating the direction in which the inspection location 50 is located on the touch panel 82 (display device 10). Thereby, the user can grasp
  • FIG. 25A the fourth display control unit 2120 displays a display 130 indicating the direction in which the inspection location 50 is located on the touch panel 82 (display device 10).
  • the user points the camera 94 toward the inspection location 50 by performing an operation such as tilting the tablet terminal 80 downward with reference to the display 130.
  • the information processing apparatus 2000 displays the display 60 so as to be superimposed on the inspection location 50 displayed on the touch panel 82 as described in the first embodiment. indicate.
  • the user can specifically grasp the position of the inspection location 50 and the like.
  • the inspection location 208 of the inspection information 200 indicates the relative position of the inspection location 50 on the device 30.
  • the captured image 20 includes a part of the device 30.
  • the fourth display control unit 2120 uses the part of the device 30 included in the captured image 20 and the relative position of the inspection location 50 on the device 30 to check the inspection location 50 on the plane determined by the captured image 20. Calculate the position. Then, the fourth display control unit 2120 uses the position where the display 130 is displayed as the starting point, and the direction from the position toward the calculated location of the inspection spot 50 or a direction close thereto is the direction represented by the display 130.
  • the “direction close to that” is, for example, the direction closest to the direction of the inspection location 50 as viewed from the position where the display 130 is displayed, among the four directions of up, down, left and right.
  • FIG. 26 is a diagram conceptually illustrating a method of calculating the direction indicated by the display 130.
  • FIG. 26A is a diagram illustrating the position of the switch that is the current inspection location 50 as a relative position on the device 30.
  • the origin of the XY plane in FIG. 26A is the upper left end of the device 30.
  • the coordinates of the center of the inspection point 50 are (a, b).
  • FIG. 26B is a diagram illustrating a plane determined by the captured image 20.
  • the origin of the XY plane shown in FIG. 26B is the upper left corner of the captured image 20.
  • the coordinate of the upper left corner of the device 30 is (x0, y0), and the display position of the display 130 is (x1, y1).
  • the fourth display control unit 2120 calculates the coordinates of the center of the inspection location 50 on the plane determined by the captured image 20. This coordinate is (x0 + a, y0 + b). Therefore, the fourth display control unit 2120 calculates a direction in which the start point is (x1, y1) and the end point is (x0 + a, y0 + b) as the direction indicated by the display 130.
  • the position where the display 130 is displayed may be a predetermined position (for example, the center or four corners of the display device 10) or a position determined according to the position of the inspection location 50.
  • FIG. 27 is a diagram illustrating a case where the position for displaying the display 130 is determined according to the position of the inspection location 50.
  • the fourth display control unit 2120 displays the display 130-1 (right arrow) near the right end of the touch panel 82. To do.
  • the fourth display control unit 2120 displays the display 130-2 (downward arrow) near the lower end of the touch panel 82. Is displayed. The same applies when the position of the inspection location 50 is located on the left or above the area included in the captured image 20.
  • FIG. 28 is a flowchart illustrating the flow of processing executed by the first display control unit 2060 and the fourth display control unit 2120.
  • S502 to S512 is a loop process C sequentially executed for each inspection item.
  • the fourth display control unit 2120 determines whether the loop process C has been executed for all inspection items indicated in the inspection information 200. When the loop process C has already been executed for all inspection items, the process in FIG. 28 ends. On the other hand, when there is an inspection item that is not yet the target of the loop process C, the fourth display control unit 2120 acquires the next inspection item.
  • the next inspection item is denoted as inspection item i.
  • the fourth display control unit 2120 determines whether the inspection image 50 corresponding to the inspection item i is included in the captured image 20 (S504). If the inspection image 50 corresponding to the inspection item i is included in the captured image 20, the process in FIG. 28 proceeds to S506. On the other hand, when the inspection location 50 corresponding to the inspection item i is not included in the captured image 20, the process of FIG. 28 proceeds to S510.
  • the first display control unit 2060 displays a display 60 indicating the inspection location 50 corresponding to the inspection item i on the display device 10.
  • the information processing apparatus 2000 receives an input of inspection results regarding the inspection item i from the user (S508).
  • the fourth display control unit 2120 displays the display 130 indicating the direction in which the inspection location 50 corresponding to the inspection item i is located on the display device 10.
  • S512 is the end of loop processing C. Therefore, the processing in FIG. 28 proceeds to S502.
  • the method in which the fourth display control unit 2120 selects the inspection item i from the plurality of inspection items in S502 is the same as that described in the first embodiment by the first display control unit 2060 in which the inspection item i is selected from the plurality of inspection items. This is the same as the method of selecting.
  • the information processing apparatus 2000 displays a display 130 indicating the direction in which the inspection location 50 is located on the display device 10 when the inspection location 50 is not included in the captured image 20.
  • This display 130 is a clue for the user to point the camera 70 toward the inspection location 50. Therefore, even when the inspection location 50 is not in the imaging range of the camera 70, the user can easily grasp the inspection location 50 by guiding the user so that the inspection location 50 enters the imaging range of the camera 70. Become.
  • FIG. 29 is a block diagram illustrating an information processing apparatus 2000 according to the fifth embodiment. Except for the points described below, the information processing apparatus 2000 according to the fifth embodiment has the same functions as the information processing apparatus 2000 according to any one of the first to fourth embodiments or a combination thereof.
  • the information processing apparatus 2000 includes an abnormality determination unit 2140 and an additional information acquisition unit 2160.
  • the abnormality determination unit 2140 determines whether or not the input of the inspection result received for the inspection item indicates an abnormal state.
  • the state in which the input of the inspection result indicates an abnormal state means, for example, a state in which the meter indicates a value that is not included in the normal value range, or a switch that should be ON is OFF.
  • the additional information acquisition unit 2160 acquires additional information when the inspection result input indicates an abnormal state.
  • the abnormality determination unit 2140 determines whether the input of the inspection result indicates an abnormal state using the inspection information. Therefore, the inspection information of the present embodiment includes information (hereinafter referred to as reference information) for grasping a normal state or an abnormal state with respect to the inspection portion of each inspection item.
  • the reference information indicates a range of normal values such as a meter or a range of abnormal values. Further, for example, the reference information indicates whether the switch to be turned ON / OFF is ON or OFF in a normal state or ON or OFF in an abnormal state.
  • the additional information acquired by the additional information acquisition unit 2160 is various information provided to the user when there is an abnormality in the inspection location.
  • the additional information is inspection information indicating inspection items to be additionally inspected.
  • inspection information indicates inspection information regarding inspection points to be further inspected in this way.
  • the additional information may be a manual that shows the action to be performed by the user when there is an abnormality in the inspection location. For example, if the switch that should be ON is OFF, there may be cases where the inspection operator may change the switch to ON on the spot. There are cases where it is necessary. Therefore, the additional information acquisition unit 2160 acquires, as additional information, a manual indicating the action that the user should perform.
  • the information processing apparatus 2000 displays additional information on the display apparatus 10.
  • the additional information is inspection information indicating additional inspection items to be inspected
  • the first display control unit 2060 is the same as the inspection information acquired by the inspection information acquisition unit 2040 for the inspection items indicated in the additional information.
  • the first display control unit 2060 may process additional information after finishing the inspection information acquired by the inspection information acquisition unit 2040, or check the inspection information acquired by the inspection information acquisition unit 2040. Prior to the information, the additional information may be processed.
  • the additional information acquisition unit 2160 acquires additional information from the storage unit in which the additional information is stored.
  • This storage unit may be provided inside the information processing apparatus 2000 or may be provided outside. Note that the storage unit provided outside may be a storage device such as a network-attached storage (NAS) or a server such as a database server.
  • NAS network-attached storage
  • server such as a database server.
  • FIG. 30 is a flowchart illustrating the flow of processing executed by the information processing apparatus 2000 according to the fifth embodiment.
  • FIG. 30 shows that S602 and S604 are performed between S206 and S208 of FIG.
  • S602 and S604 may be performed between S306 and S308 in FIG. 18 or between S508 and S512 in FIG.
  • the abnormality determination unit 2140 determines whether or not the received input indicates an abnormal state (S602). When the input indicates an abnormal state (S602: YES), the additional information acquisition unit 2160 acquires additional information (S604). On the other hand, when the input indicates a normal state (S602: NO), the process of FIG. 30 ends.
  • ⁇ Action and effect> additional information is provided when there is an abnormality in an inspection location. Therefore, the user can perform various measures such as checking the additional check items indicated in the additional information or acting in accordance with the manual indicated in the additional information. Therefore, the user can easily understand the action to be taken when there is an abnormality in the inspection location.
  • Image acquisition means for acquiring a captured image including a device to be inspected; Inspection information acquisition means for acquiring inspection information indicating the inspection items of the equipment included in the captured image; A display indicating the inspection location corresponding to the inspection item indicated in the inspection information is displayed superimposed on the inspection location on the display device, or displayed near the inspection location on the display device or near the device.
  • First display control means An information processing apparatus.
  • the inspection information indicates a plurality of inspection items in order
  • the first display control means displays a display indicating an inspection location corresponding to the inspection item of the first order on the display device, and after the inspection result regarding the inspection item of the first order is input, Display on the display device the inspection location corresponding to the inspection item of the second order, which is the next order of 1.
  • Each inspection item is associated with an identifier or type of an input interface used for inputting the inspection result of the inspection item,
  • a second display control unit configured to display an image of an input interface specified by an identifier or a type corresponding to the inspection item on the display device; Or 2.
  • a second display control unit configured to display, on the display device, an image of an input interface that receives an input of an inspection result relating to the inspection item when a captured image including a marker is acquired after acquiring the inspection information; .
  • a third display control unit that displays on the display device an image including the device and superimposed with a display indicating the inspection location.
  • the third display control means after acquiring the inspection information, when a captured image that does not include the device or a captured image including a marker is acquired, a display that includes the device and that indicates the inspection location is displayed. 4. Display the superimposed image on the display device; The information processing apparatus described in 1. 7).
  • Fourth display control for displaying on the display device a display indicating a direction in which an inspection location not included in the captured image is located when the inspection location indicated in the acquired inspection information is not included in the captured image. Having means; To 6.
  • An abnormality determination means for determining whether an input of the inspection result received for the inspection item indicates an abnormal state;
  • Additional information acquisition means for acquiring additional information when the inspection result input indicates an abnormal state; Having 1.
  • the display device is a transmissive head-mounted display device,
  • the first display control means displays a display indicating the inspection location at or near the position on the display device that overlaps the inspection location that is visible to the user's eyes through the display device.
  • the information processing apparatus controls the display device based on an angle of view of a camera that generates the captured image, a positional relationship between the camera and the display device, and a position of the inspection location included in the captured image. 8. Calculate the position on the display device of the inspection location that is transparent and visible to the user, and display a display indicating the inspection location at or near the calculated location.
  • the inspection location indicated by the inspection item is a meter, a knob, or a switch.
  • a control method executed by a computer An image acquisition step for acquiring a captured image including a device to be inspected; An inspection information acquisition step for acquiring inspection information indicating an inspection item of equipment included in the captured image; A display indicating the inspection location corresponding to the inspection item indicated in the inspection information is displayed superimposed on the inspection location on the display device, or displayed near the inspection location on the display device or near the device.
  • the inspection information indicates a plurality of inspection items in order,
  • the first display control step displays a display indicating an inspection location corresponding to the inspection item of the first order on the display device, and after the inspection result regarding the inspection item of the first order is input, 12.
  • Each inspection item is associated with an identifier or type of an input interface used for inputting the inspection result of the inspection item, 12.
  • the control method described in 1. A second display control step of displaying on the display device an image of an input interface for receiving an input of an inspection result relating to the inspection item when a captured image including a marker is acquired after acquiring the inspection information; . Or 13.
  • the third display control step after acquiring the inspection information, when a captured image that does not include the device or a captured image including a marker is acquired, a display that includes the device and that indicates the inspection location is displayed. 15. displaying the superimposed image on the display device; The information processing apparatus described in 1. 18.
  • An abnormality determination means for determining whether an input of the inspection result received for the inspection item indicates an abnormal state; Additional information acquisition means for acquiring additional information when the inspection result input indicates an abnormal state; Having 12.
  • the information processing apparatus according to any one of claims.
  • the display device is a transmissive head-mounted display device,
  • the first display control step displays a display indicating the inspection location at or near the position on the display device that overlaps the inspection location that is visible to the user's eyes through the display device. Thru 19.
  • the control method as described in any one. 21.
  • the display device is controlled based on an angle of view of a camera that generates the captured image, a positional relationship between the camera and the display device, and a position of the inspection location included in the captured image.
  • a position on the display device of the inspection location that is transparent and visible to the user is calculated, and a display indicating the inspection location is displayed at or near the calculated position.
  • the inspection point indicated by the inspection item is a meter, a knob, or a switch.
  • Thru 21. The control method as described in any one. 23. In the computer, 12.
  • Thru 22. A program for executing each step of the control method according to any one of the above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

画像取得部(2020)は、点検対象の機器が含まれる撮像画像を取得する。点検情報取得部(2040)は、撮像画像に含まれる機器に関する点検情報を取得する。点検情報は、機器の点検項目を示す情報である。第1表示制御部(2060)は、点検情報に示される点検項目に対応する点検箇所を示す表示をディスプレイ装置(10)に表示する。例えば第1表示制御部(2060)は、点検箇所を表す表示を、ディスプレイ装置(10)上の点検箇所に重畳して表示する。また例えば、第1表示制御部(2060)は、ディスプレイ装置(10)上の点検箇所又は機器の付近に表示する。

Description

情報処理装置、制御方法、及びプログラム
 本発明は、情報処理装置、制御方法、及びプログラムに関する。
 工場設備等の点検において情報処理装置が利用されている。例えば特許文献1は、端末装置を利用した設備点検支援システムを開示している。点検作業者は端末装置を携帯して点検作業を行う。端末装置はコンテンツ格納部から点検項目を取得する。点検作業者は、端末装置が取得した点検項目について点検作業を行う。
特許第4620030号
 点検対象の機器上に点検箇所が複数ある場合がある。例えば1つの機器にメータが複数備えられている場合がある。このような場合、点検作業者は、複数のメータそれぞれについて、測定値の記録などを行う。
 このように機器上に点検箇所が複数ある場合、点検作業者は、各点検項目が機器上のどの点検箇所に関するものであるかを把握しながら作業する必要がある。そのため、機器上の点検箇所が1箇所のみである場合と比較して、点検作業が煩雑になる。よって、点検作業者の作業負担が大きくなる。特許文献1は、点検作業におけるこのような作業負担について言及しておらず、このような作業負担を軽減する方法を開示していない。
 本発明は、上記課題に鑑みてなされたものである。本発明の目的は、点検作業者の作業負担を軽減する技術を提供することである。
 本発明の情報処理装置は、1)点検対象の機器が含まれる撮像画像を取得する画像取得手段と、2)前記撮像画像に含まれる機器の点検項目を示す点検情報を取得する点検情報取得手段と、3)前記点検情報に示される点検項目に対応する点検箇所を示す表示を、ディスプレイ装置上の前記点検箇所に重畳して表示するか、又は前記ディスプレイ装置上の前記点検箇所若しくは前記機器の付近に表示する第1表示制御手段と、を有する。
 本発明の制御方法は、コンピュータによって実行される制御方法である。当該制御方法は、1)点検対象の機器が含まれる撮像画像を取得する画像取得ステップと、2)前記撮像画像に含まれる機器の点検項目を示す点検情報を取得する点検情報取得ステップと、3)前記点検情報に示される点検項目に対応する点検箇所を示す表示を、ディスプレイ装置上の前記点検箇所に重畳して表示するか、又は前記ディスプレイ装置上の前記点検箇所若しくは前記機器の付近に表示する第1表示制御ステップと、を有する。
 本発明によれば、点検作業者の作業負担を軽減する技術が提供される。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
実施形態1に係る情報処理装置を例示するブロック図である。 実施形態1の情報処理装置の動作を概念的に例示する図である。 情報処理装置を実現する計算機の構成を例示する図である。 ディスプレイ装置及びカメラを備えたタブレット端末を例示する図である。 ディスプレイ装置及びカメラを備えたヘッドマウントディスプレイを例示する図である。 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。 点検情報をテーブル形式で例示する図である。 撮像画像に表示が重畳された画像がディスプレイ装置に表示される様子を例示する図である。 ディスプレイ装置に表示が表示される様子を例示する図である。 表示と合わせて表示画像に示される画像が表示される様子を例示する図である。 複数の点検項目を含む点検情報を情報処理装置が処理する流れを例示するフローチャートである。 実施形態2の情報処理装置を例示するブロック図である。 タブレット端末のタッチパネルにインタフェース画像が表示されている様子を例示する図である。 ヘッドマウントディスプレイのディスプレイ装置にキーボード画像が表示される様子を例示している。 インタフェース情報をテーブル形式で例示する図である。 キーボード画像以外のインタフェース画像を例示する図である。 インタフェース画像の ID 又は種類を示す点検情報を例示する図である。 点検項目にインタフェース画像が対応付けられている場合における第2表示制御部の処理の流れを例示するフローチャートである。 マーカが撮像画像に含まれる様子を例示する図である。 マーカを利用して入力インタフェースの画像を表示する処理を例示するフローチャートである。 実施形態3の情報処理装置を例示するブロック図である。 タブレット端末のタッチパネルに機器の画像が表示されている様子を例示している。 機器の画像がタッチパネルに表示されている状態で点検結果が入力される様子を例示する図である。 実施形態4の情報処理装置を例示するブロック図である。 実施形態4の情報処理装置の動作を概念的に例示する図である。 表示が示す方向を算出する方法を概念的に示す図である。 点検箇所の位置に応じて表示を表示する位置が定まるケースを例示する図である。 第4表示制御部によって実行される処理の流れを例示するフローチャートである。 実施形態5の情報処理装置を例示するブロック図である。 実施形態5の情報処理装置によって実行される処理の流れを例示するフローチャートである。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、各ブロック図において、各ブロックはハードウエア単位の構成ではなく、機能単位の構成を表している。
[実施形態1]
 図1は、実施形態1に係る情報処理装置2000を例示するブロック図である。情報処理装置2000は、画像取得部2020、点検情報取得部2040、及び第1表示制御部2060を有する。画像取得部2020は、点検対象の機器が含まれる撮像画像を取得する。点検情報取得部2040は、撮像画像に含まれる機器に関する点検情報を取得する。点検情報は、機器の点検項目を示す情報である。例えば点検項目は、「機器上のメータの値が正常な値の範囲内であるか否かを確認する」といった内容の点検項目を表す。第1表示制御部2060は、点検情報に示される点検項目に対応する点検箇所を示す表示をディスプレイ装置10に表示する。例えば点検項目が上述したメータの値に関する点検項目である場合、点検箇所はそのメータである。ここで、例えば第1表示制御部2060は、点検箇所を表す表示を、ディスプレイ装置10上の点検箇所に重畳して表示する。また例えば、第1表示制御部2060は、点検箇所を表す表示を、ディスプレイ装置10上の点検箇所又は機器の付近に表示する。以降の説明では、点検箇所を表す表示を点検箇所に重畳して表示する形態について主に説明する。点検箇所を表す表示を点検箇所の付近に表示する形態の情報処理装置2000の動作は、点検箇所を表す表示を点検箇所に重畳して表示する形態の情報処理装置2000の動作と同様である。
 図2は、実施形態1の情報処理装置2000の動作を概念的に例示する図である。図2において、情報処理装置2000は撮像画像20を取得している。ここで、撮像画像20には、機器30が含まれる。そこで情報処理装置2000は、機器30に対応する点検情報200を取得する。そして、情報処理装置2000は、点検情報200に示されている点検箇所50を表す表示60を、ディスプレイ装置10に表示する。図2では、情報処理装置2000は、ディスプレイ装置上の機器30における点検箇所50に重畳して表示60を表示している。
 なお、図2を用いて説明した上述の例は、以降で説明する情報処理装置2000の詳細の理解を容易にするための例示であり、情報処理装置2000の動作は上述の例に限定されるわけではない。情報処理装置2000の動作の詳細やバリエーションについては、以降の記載で説明する。
<作用・効果>
 本実施形態の情報処理装置2000によれば、ディスプレイ装置10上の機器30における点検箇所50に、点検箇所であることを表す表示60が表示される。これにより、ユーザ(点検作業者など)は、機器30上のどこを点検すべきであるかを容易に把握することができるようになる。よって、点検作業の作業負担が軽減される。
 以下、本実施形態の情報処理装置2000をさらに詳細に説明する。
<情報処理装置2000のハードウエア構成の例>
 情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図3は、情報処理装置2000を実現する計算機1000の構成を例示する図である。計算機1000は、タブレット端末、スマートフォン、Personal Computer(PC)、サーバ装置、ヘッドマウントディスプレイなど、種々の計算機である。計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージ1080、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などの演算処理装置である。メモリ1060は、RAM (Random Access Memory) や ROM (Read Only Memory) などのメモリである。ストレージ1080は、ハードディスク、SSD (Solid State Drive)、又はメモリカードなどの記憶装置である。また、ストレージ1080は、RAM や ROM などのメモリであってもよい。ネットワークインタフェース1120は、計算機1000が外部の装置と通信するためのインタフェースである。
 入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。図3では、入出力インタフェース1100に対してディスプレイ装置10及びカメラ70が接続されている。ディスプレイ装置10は、画像を表示することができる任意のディスプレイ装置である。例えばディスプレイ装置10は、スマートフォンやタブレット端末のディスプレイ装置や、ヘッドマウントディスプレイのディスプレイ装置などである。
 カメラ70は、機器30を撮像することで機器30が含まれる撮像画像20を生成できる任意のカメラである。カメラ70は、繰り返し撮像を行って、各撮像結果を表す撮像画像20を生成する。なお、カメラ70は、2Dカメラであってもよいし、3Dカメラであってもよい。
 カメラ70が設けられる場所は任意である。例えばカメラ70は、スマートフォンやタブレット端末に内蔵されているカメラである。また例えばカメラ70は、ユーザが身につけている物に取り付けられるカメラである。ユーザが身につけている物とは、例えばヘッドマウントディスプレイや、首から提げている社員証などである。また例えば、カメラ70は、機器30が設置されている場所の壁等に設けられてもよい。カメラ70が壁等に設けられている場合、カメラ70の撮影範囲(撮影方向やズーム率など)は、リモコンなどによる遠隔操作によって変更できることが好ましい。
 図4は、ディスプレイ装置及びカメラを備えたタブレット端末80を例示する図である。タブレット端末80は、ディスプレイ装置10に相当するタッチパネル82、及びカメラ70に相当するカメラ84を有する。カメラ84によって生成された撮像画像20は、例えばタッチパネル82に表示される。
 図5は、ディスプレイ装置及びカメラを備えたヘッドマウントディスプレイ90を例示する図である。ヘッドマウントディスプレイ90は、前述したディスプレイ装置10に相当するディスプレイ装置92、及びカメラ70に相当するカメラ94を有する。ここで、ディスプレイ装置92は、透過型のディスプレイ装置である。ユーザは、ディスプレイ装置92を介して実世界の景色を見つつ、ディスプレイ装置92に表示される画像を見ることで、実世界上の景色に画像が重畳された様子を見ることができる。
 図5において、カメラ94は、ディスプレイ装置92の近くに設けられている。これにより、カメラ94は、ユーザの視界方向と同じ又はこれに近い方向を撮像することとなる。そのため、カメラ70によって生成される撮像画像20に含まれる景色は、ユーザが見ている景色に近い景色となる。
 ただし、カメラ94の撮像方向は任意であり、ユーザの視界方向又はこれに近い方向に限定されない。また、カメラ94が設けられる位置は、ディスプレイ装置92の近くに限定されない。また、カメラ94が設けられるヘッドマウントディスプレイ90は、透過型のディスプレイ装置を持つヘッドマウントディスプレイに限定されず、非透過型のディスプレイ装置を持つヘッドマウントディスプレイでもよい。ヘッドマウントディスプレイの種類と情報処理装置2000の実装方法との関係については、必要に応じて後述する。
 なお、タブレット端末80のタッチパネル82及びカメラ84をディスプレイ装置10及びカメラ70として用いる場合、計算機1000はタブレット端末80であってもよいし、タブレット端末80以外の計算機であってもよい。後者の場合、計算機1000は、タブレット端末80から撮像画像20を取得して撮像画像20を処理する。また、計算機1000は、表示60の表示をタブレット端末80へ指示する。ヘッドマウントディスプレイ90のディスプレイ装置92及びカメラ94をディスプレイ装置10及びカメラ70として利用する場合についても同様である。
 ストレージ1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールを実行することで、そのプログラムモジュールに対応する各機能を実現する。ここでプロセッサ1040は、上記各モジュールを実行する際、これらのモジュールをメモリ1060上に読み出してから実行してもよいし、メモリ1060上に読み出さずに実行してもよい。
 ストレージ1080は、点検情報を記憶していてもよい。ただし、点検情報は、情報処理装置2000の外部の装置(データベースなど)に記憶されていてもよい。点検情報が情報処理装置2000の外部に装置に記憶されている場合、情報処理装置2000は、ネットワークなどを介してその外部の装置にアクセスして、点検情報を取得する。
 計算機1000のハードウエア構成は図3に示した構成に限定されない。例えば、各プログラムモジュールはメモリ1060に格納されてもよい。この場合、計算機1000は、ストレージ1080を備えていなくてもよい。
<処理の流れ>
 図6は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。画像取得部2020は、撮像画像20を取得する(S102)。点検情報取得部2040は、撮像画像20に含まれる機器30の点検情報200を取得する(S104)。第1表示制御部2060は、点検箇所50を示す表示60を、ディスプレイ装置10上の点検箇所50に重畳して表示する(S106)。
<画像取得部2020の詳細>
 画像取得部2020は、カメラ70によって生成された撮像画像20を取得する(S102)。画像取得部2020が撮像画像20を取得する方法は様々である。例えば画像取得部2020は、カメラ70から撮像画像20を取得する。この場合、情報処理装置2000とカメラ70とは通信可能に接続されている。
 また、カメラ70が外部の記憶装置に撮像画像20を記憶する場合、画像取得部2020は、この記憶装置から撮像画像20を取得する。この場合、画像取得部2020は、この記憶装置と通信可能に接続されている。
<点検情報取得部2040の詳細>
 点検情報取得部2040は、機器30の点検情報200を取得する(S104)。機器30の点検情報200は、機器30の点検に関する点検項目を1つ以上示す。点検情報取得部2040は、撮像画像20に含まれる機器30に対応する点検情報200を取得する。そのために、例えば点検情報取得部2040は、撮像画像20を画像解析することで、撮像画像20の中から、機器30が含まれる領域を割り出す。そして、点検情報取得部2040は、この領域に基づいて機器30の点検情報200を取得する。例えば点検情報取得部2040は、機器30が含まれる領域の特徴量を算出し、この特徴量を用いて、点検情報200が記憶されている記憶装置内の情報を検索する。その結果、点検情報取得部2040は、撮像画像20に含まれる機器30に対応する点検情報を取得する。ここで、撮像画像20の中から機器30が含まれる領域を割り出す処理や、その領域の特徴量を算出する処理には、既知の技術を用いることができる。
 図7は、点検情報200をテーブル形式で例示する図である。図6の点検情報200は、点検項目ID202、点検項目名204、点検内容206、入力形式207、点検箇所208、及び表示画像210を有する。
 点検項目ID202は、点検項目の識別子(ID:identifier)を示す。点検項目名204は、点検項目の名称を示す。点検内容206は、点検の内容を示す。例えば点検項目 0001 の点検内容206である「正常値(10-15V)内確認」は、「点検箇所であるメータの値が、10V以上15V以下という正常値の範囲に含まれていることを確認する」という点検作業を表す。また、点検項目 0006 の点検内容206である「設定値を入力」は、「点検箇所であるつまみの位置(設定値)を入力して記録する」という点検作業を表す。また、点検項目 0007 の点検内容206である「ON/OFF を入力」は、「点検箇所であるスイッチの ON/OFF を入力して記録する」という点検作業を表す。
 入力形式207は、ユーザから受け付ける入力の形式を表す。例えば点検項目 0001 の入力形式207は、OK と NG という2択の入力を受け付けることを示している。
 点検箇所208は、撮像画像20に含まれる景色の中から点検箇所50の位置を特定するための情報を示す。例えば点検箇所208は、点検箇所50の外見の特徴量を示す。ここで、点検箇所208に示す点検箇所50の外見の特徴量は、点検箇所50自体だけでなく、点検箇所50の周囲を含めた外見の特徴量であってもよい。例えばメータの付近にそのメータの ID が表記されている場合、点検箇所208は、メータ自体だけでなく、メータの周囲にある ID が含まれる範囲の特徴量を示す。例えば図2の機器30上に設けられている3つのメータのように、機器30は、外見が互いに類似している複数の点検箇所50を含むことがある。そこで、点検箇所208が、点検箇所50自体だけでなく、点検箇所50の周囲に記載されている点検箇所50の ID などの情報も含まれる範囲の特徴量を示すようにすることで、外見が互いに類似している複数の点検箇所50を区別することができる。
 また例えば、点検箇所208は、機器30全体における点検箇所50の相対位置を示す。例えば点検箇所50の相対位置は、機器30を正面から平面視した場合における機器30の左上端を原点、水平方向の右方向を X 軸、垂直方向の下方向を Y 軸とする XY 座標で表される。
 ただし、点検箇所208が示す情報は、撮像画像20に含まれる景色の中から点検箇所50の位置を特定できる情報であればよく、外見の特徴量や相対位置には限定されない。
 表示画像210は、表示60と合わせて点検箇所50付近に表示される画像を示す。例えば点検項目 0001 の場合、第1表示制御部2060は、点検箇所50の付近に「正常値内確認」という吹き出しの表示の画像、及び点検項目を示すレコードの画像を表示する。
 図7の点検情報200において、点検項目 0000 のレコードは、機器30に関する情報を示す。例えば機器30に関する情報は、機器30の特徴量である。点検項目 0000のレコードは、点検情報取得部2040が、撮像画像20に含まれる機器30に対応する点検情報200を取得する際に利用される。また図7のように、点検項目 0000 の表示画像210に画像が示されている場合、第1表示制御部2060は、その画像をディスプレイ装置10上の機器30の付近に表示してもよい。
<第1表示制御部2060の詳細>
 第1表示制御部2060は、点検箇所50を示す表示60を、ディスプレイ装置10上の点検箇所50に重畳して表示する(S106)。まず第1表示制御部2060は、取得した点検情報200に示される点検箇所208を用いることで、撮像画像20の中から、点検箇所50の位置を割り出す。例えば点検箇所208が点検箇所50の外見の特徴量を示す場合、第1表示制御部2060は、撮像画像20を画像解析することで、この特徴量を示す領域を割り出す。この領域が、点検箇所50の位置となる。また例えば、点検箇所208が機器30全体における点検箇所50の相対位置を示す場合、第1表示制御部2060は、撮像画像20に含まれる機器30の領域と、点検箇所208に示される相対位置とから、撮像画像20における点検箇所50の位置を割り出す。なお、図2に示す3つのメータのように、機器30上に外見が類似する点検箇所が複数ある場合、第1表示制御部2060は、機器30上における点検箇所50の相対位置を利用する。
 第1表示制御部2060は、撮像画像20上の点検箇所50の位置に基づいて、ディスプレイ装置10上の点検箇所50に表示60が重畳されるように、又は点検箇所50の付近に表示60が重畳されるように、表示60を表示する。ここで、第1表示制御部2060がディスプレイ装置10に表示する画像は、1)ユーザがディスプレイ装置10に表示されている機器30の画像を見ているのか、又は2)ユーザが実世界上の機器30を見ているのか、によって異なる。以下、それぞれの場合について説明する。
 1)の場合、例えばディスプレイ装置10は、タブレット端末80のタッチパネル82や、非透過型のヘッドマウントディスプレイ90のディスプレイ装置92である。これらの場合、第1表示制御部2060は、撮像画像20上の点検箇所50に表示60を重畳した画像を生成し、その画像をディスプレイ装置10に表示する。
 図8は、撮像画像20に表示60が重畳された画像がディスプレイ装置に表示される様子を例示する図である。図8(a)では、撮像画像20に表示60が重畳された画像が、タブレット端末80のタッチパネル82に表示されている。一方、図8(b)では、撮像画像20に表示60が重畳された画像が、非透過型のヘッドマウントディスプレイ90のディスプレイ装置92に表示されている。
 一方、2)の場合(ユーザが実世界上の機器30を見ている場合)、例えばディスプレイ装置10は、透過型のヘッドマウントディスプレイ90のディスプレイ装置92である。この場合、ユーザは、ディスプレイ装置10の先に存在する実世界の機器30を見ることができる。そのため、第1表示制御部2060は、撮像画像20をディスプレイ装置10に表示する必要がなく、表示60をディスプレイ装置10に表示する。第1表示制御部2060がディスプレイ装置10の適切な位置に表示60を表示することで、ユーザの目から見えるディスプレイ装置10には、実世界の機器30上の点検箇所50と表示60とが重なって見えることとなる。
 図9は、ディスプレイ装置に表示60が表示される様子を例示する図である。図8では、表示60が透過型のヘッドマウントディスプレイ90のディスプレイ装置92に表示されている。ユーザは、ディスプレイ装置92に表示された表示60と、ディスプレイ装置92の先に見える機器30上の点検箇所50とを同時に見ることで、表示60が点検箇所50に重畳された様子を見ることができる。
 透過型のヘッドマウントディスプレイ90の場合、第1表示制御部2060は、撮像画像20上の点検箇所50の位置に基づいて、表示60を表示するディスプレイ装置92上の位置(前述した「適切な位置」)を算出する。具体的には、第1表示制御部2060は、撮像画像20上の点検箇所50の位置を、ディスプレイ装置92上の位置に変換することで、表示60を表示するディスプレイ装置92上の位置を算出する。
 ここで、撮像画像20上の位置とディスプレイ装置92上の位置との対応関係は、カメラ94に関する各種のパラメタ(画角や焦点距離)や、ディスプレイ装置92とカメラ94との位置関係などに基づいて定まる。この対応関係は、これらのパラメタなどを用いて第1表示制御部2060によって算出されてもよいし、設定値として予め定められていてもよい。
<<表示60として用いる画像について>>
 第1表示制御部2060が表示60として用いる画像は任意である。例えば第1表示制御部2060は、点検箇所50の一部又は全部を囲う図形(円形や四角形など)の画像を表示60として用いる。この場合、前述したように、第1表示制御部2060は、円形などの図形である表示60と合わせて、図7の表示画像210に示される画像を点検箇所50の付近に表示してもよい。図10は、表示60と合わせて表示画像210に示される画像が表示される様子を例示する図である。図10において、第1表示制御部2060は、表示60、補助表示62及び補助表示64を表示している。
 また例えば、第1表示制御部2060は、点検箇所50を囲う図形の代わりに、図7の表示画像210に示される画像を表示60として用いてもよい。
<<点検作業の進行に伴う表示60の変更>>
 点検情報200が複数の点検項目を示す場合、情報処理装置2000のユーザは、複数の点検項目を順次点検していく。そこで情報処理装置2000は、点検情報200に含まれる点検項目を順次処理していく。そのために、第1表示制御部2060は、点検作業の進行に伴って、表示60の表示位置などを変更していく。
 図11は、複数の点検項目を含む点検情報200を情報処理装置2000が処理する流れを例示するフローチャートである。S202からS208は、各点検項目について順次実行されるループ処理Aである。S202において、第1表示制御部2060は、点検情報200に示される全ての点検項目についてループ処理Aを実行したか否かを判定する。既に全ての点検項目についてループ処理Aを実行した場合、図11の処理は終了する。一方、まだループ処理Aの対象となっていない点検項目がある場合、第1表示制御部2060は、次の点検項目を取得する。ここで、次の点検項目を点検項目iと表記する。
 第1表示制御部2060は、点検項目iに対応する点検箇所50を示す表示60をディスプレイ装置10に表示する(S204)。情報処理装置2000は、点検項目iに関する点検結果の入力をユーザから受け付ける(S206)。S208は、ループ処理Aの終端である。そこで、図11の処理は、S208からS202に進む。
 なお、S202において、第1表示制御部2060が複数の点検項目の中から点検項目iを選択する方法は任意である。例えば第1表示制御部2060は、まだループ処理Aの対象とされていない点検項目の中から、点検項目iをランダムに選択する。また例えば、第1表示制御部2060は、点検情報200において予め定められている順番に従って、点検項目を選択する。点検情報200において予め定められている点検項目の順番は、例えば点検項目ID202の昇順である。
 さらに第1表示制御部2060は、ユーザが視線を向けた点検項目を点検項目iとして選択してもよい。具体的には、第1表示制御部2060は、まだループ処理Aの対象とされていない点検項目それぞれに対応する点検箇所について、撮像画像20上の位置を算出する。ここで用いられる撮像画像20は、例えば撮像時点が最も遅い(最も新しい)撮像画像20である。そして第1表示制御部2060は、各点検箇所のうち、撮像画像20上の基準位置(例えば撮像画像20の中心位置)との距離が最も短い点検箇所を割り出す。そして、第1表示制御部2060は、割り出された点検箇所に対応する点検項目を、点検項目iとして選択する。
 なお、割り出された点検箇所に対応する点検項目が複数ある場合、例えば第1表示制御部2060は、これらの点検項目からランダムに選択した点検項目や、予め定められている順番がもっとも早い点検項目を、点検項目iとして選択する。
 このようにすることで、できる限りユーザが視線方向を変えずに点検箇所50を見ることができるようになる。よって、ユーザが点検作業に要する労力をさらに減らすことができる。
<入力を受け付ける方法について>
 情報処理装置2000がユーザから入力を受け付ける方法は様々である。例えば情報処理装置2000は、キーボードやタッチパネルを用いたキー入力を受け付けてもよいし、マイクを用いた音声入力を受け付けてもよい。また情報処理装置2000は、カメラ70を用いてユーザのジェスチャを撮影することで、ジェスチャ入力を受け付けてもよい。その他の入力方法については、後述の実施形態で説明する。
[実施形態2]
 図12は、実施形態2の情報処理装置2000を例示するブロック図である。実施形態2の情報処理装置2000は、第2表示制御部2080をさらに有する。第2表示制御部2080は、ディスプレイ装置10に入力インタフェースの画像(以下、インタフェース画像)を表示する。情報処理装置2000は、このインタフェース画像に対する操作を認識することで、ユーザによる入力を受け付ける。
 図13は、タブレット端末80のタッチパネル82にインタフェース画像が表示されている様子を例示する図である。図13において、インタフェース画像は、キーボードを表すキーボード画像100である。ユーザは、タッチパネル82に表示されたキーボード画像100をタッチすることで、文字等の入力を行う。ユーザによる入力は入力欄140に表示される。ここで、タブレット端末80のタッチパネル82にキーボード画像100などのインタフェース画像を表示する方法、及びタブレット端末80がインタフェース画像に対する入力を受け付ける方法には、既知の技術を利用できる。
 図14は、ヘッドマウントディスプレイ90のディスプレイ装置92にキーボード画像100が表示される様子を例示している。ユーザは、キーボード画像100を操作することで入力を行う。例えばヘッドマウントディスプレイ90は、キーボード画像100が表示されている場所(図14ではユーザの左腕)に加えられた振動を検出することで、インタフェース画像が操作されたことを検出する。
 図14において、ユーザは時計型のデバイス110を装着している。デバイス110には、振動センサが内蔵されている。ユーザが左腕をタップすると、デバイス110に内蔵されている振動センサが、タップによって発生した振動を検出する。デバイス110は、振動の検出をヘッドマウントディスプレイ90へ通知する。ヘッドマウントディスプレイ90は、この通知を受信することで、ユーザの左腕に振動が加えられたことを把握する。
 さらにヘッドマウントディスプレイ90は、ユーザの左腕に振動が加えられたタイミングで生成された撮像画像20を画像解析して、その撮像画像20においてユーザの指がインタフェース画像のどの部分に重なっているかを割り出す。そして、ヘッドマウントディスプレイ90は、その重なっている部分がユーザによって操作された部分であると判定する。例えばヘッドマウントディスプレイ90は、振動が検出されたタイミングで生成された撮像画像20上におけるユーザの指の位置を算出する。そして、ヘッドマウントディスプレイ90は、ディスプレイ装置92に表示されているインタフェース画像の位置、及び撮像画像20におけるユーザの指の位置に基づいて、ユーザの指がインタフェース画像のどのキーに重なっているかを割り出す。例えばユーザの指の位置がAのキーに重なる位置である場合、ヘッドマウントディスプレイ90は、Aのキーが押されたことを割り出す。なお、前述した通り、撮像画像20上の位置とディスプレイ装置92上の位置との対応関係は、カメラ94に関する各種のパラメタや、ディスプレイ装置92とカメラ94との位置関係などに基づいて定まる。
 ここで、ユーザによってどのボタン(キーなど)が押されたのかを判定するために、ヘッドマウントディスプレイ90は、各ボタンがインタフェース画像上のどの位置に設けられているのかを把握する必要がある。そのために、例えばヘッドマウントディスプレイ90は、第2表示制御部2080によって表示されるインタフェース画像について、そのインタフェース画像に関する情報(以下、インタフェース情報)を取得する。
 図15はインタフェース情報をテーブル形式で例示する図である。図15のインタフェース情報300は、ボタンID302、ボタン名304、及び座標情報306を有する。ボタンID302はボタンのIDを示す。ボタン名304はボタンの名称を示す。座標情報306はインタフェース画像上におけるボタンの位置(ボタンが占める領域)を示す。例えば座標情報306は、インタフェース画像の左上端を原点とする座標を用いて表される。図15において、座標情報306は、ボタンの領域の左上端の座標及び右下端の座標を、インタフェース画像の左上端を原点とする座標で表している。
 例えば情報処理装置2000は、ディスプレイ装置10上のインタフェース画像の位置及び撮像画像20上のユーザの指の位置に基づいて、インタフェース画像上におけるユーザの指の位置を算出する。そして、情報処理装置2000は、算出した相対及び各ボタンの座標情報306に基づいて、ユーザの指の位置に対応するボタン(押されているボタン)を割り出す。
 なお、振動センサを用いて入力を検出する上述の方法はあくまで例示であり、振動センサは必須の構成要素ではない。例えばヘッドマウントディスプレイ90は、同一のキー上に所定時間以上ユーザの指が重なっている場合に、そのキーが操作されたと検出してもよい。
<表示されるインタフェース画像について>
 ディスプレイ装置10に表示されるインタフェース画像は、予め定められている1つの画像であってもよいし、ユーザの選択によって変更可能な画像であってもよい。前者の場合、例えばインタフェース画像は、予め第2表示制御部2080に設定されている。また例えば、ディスプレイ装置10に表示するインタフェース画像を示す情報が、第2表示制御部2080からアクセス可能な記憶装置に記憶されている。
 一方、インタフェース画像がユーザの選択によって変更可能である場合、例えば第2表示制御部2080は、まずデフォルトのインタフェース画像をディスプレイ装置10に表示する。その際、インタフェース画像には、別のインタフェース画像を選択するためのキーの画像が含まれている。ユーザは、このキーを操作することで、インタフェース画像の切り換えを行う。図16は、キーボード画像100以外のインタフェース画像を例示する図である。図16(a)は、テンキーを表すインタフェース画像を例示する。図16(b)は、ON/OFF の選択肢を表すインタフェース画像を例示する。
 また、インタフェース画像は、点検箇所50に応じて異なっていてもよい。例えば、点検箇所50に対する点検作業が任意の数値の入力を伴う場合、インタフェース画像は、テンキーの画像(図16(a))などである。また例えば、点検箇所50に対する点検作業が複数の選択肢のいずれかを選択する入力を伴う場合、インタフェース画像は、その選択肢を表すインタフェース画像(図16(b))などである。選択肢の選択を伴う点検箇所50には、例えば ON 又は OFF の状態をとりうるスイッチがある。
 インタフェース画像が点検箇所50に応じて異なる場合、点検情報200の各項目は、その項目の点検箇所50に対応するインタフェース画像の ID 又は種類を示す。インタフェース画像の ID は、例えばインタフェース画像のファイル名である。インタフェース画像の種類は、キーボードやテンキーなどである。
 図17は、インタフェース画像の ID 又は種類を示す点検情報200を例示する図である。図17に示す点検情報200は、図7に示す点検情報200が有する各列に加え、インタフェース画像212をさらに有する。ただし、図を見やすくするため、図17に示す点検情報200では表示画像210の内容を省略している。
 インタフェース画像212は、インタフェース画像の ID 又は種類を示す。例えば項目 0001 のインタフェース画像212は「if001.png」というインタフェース画像の ID(ファイル名)を示している。一方、項目 0006 のインタフェース画像212は「テンキー」というインタフェース画像の種類を示している。
 点検情報200にインタフェース画像の ID が示されている場合、第2表示制御部2080は、その ID を持つインタフェース画像を取得し、取得したインタフェース画像をディスプレイ装置10に表示する。一方、第2表示制御部2080は、点検情報200においてインタフェース画像の種類が示されている場合、その種類のインタフェース画像を取得し、取得したインタフェース画像をディスプレイ装置10に表示する。
 ここで、インタフェース画像は、情報処理装置2000の内部又は外部の記憶装置に記憶されていてもよいし、点検情報200に含まれていてもよい。
 図18は、点検項目にインタフェース画像が対応付けられている場合における第2表示制御部2080の処理の流れを例示するフローチャートである。S302からS308は、各点検項目について順次実行されるループ処理Bである。S302において、第2表示制御部2080は、点検情報200に示される全ての点検項目についてループ処理Bを実行したか否かを判定する。既に全ての点検項目についてループ処理Bを実行した場合、図18の処理は終了する。一方、まだループ処理Bの対象となっていない点検項目がある場合、第2表示制御部2080は、次の点検項目を取得する。ここで、次の点検項目を点検項目iと表記する。
 第2表示制御部2080は、点検項目iに対応するインタフェース画像を表示する(S304)。情報処理装置2000は、点検項目iに関する点検結果の入力をユーザから受け付ける(S306)。S308は、ループ処理Bの終端である。そこで、図18の処理は、S308からS302に進む。
 なおS302において第2表示制御部2080が複数の点検項目の中から点検項目iを選択する方法は、実施形態1で説明した、S202において第1表示制御部2060が複数の点検項目の中から点検項目iを選択する方法と同様である。
<インタフェース画像を表示するタイミング>
 第2表示制御部2080がインタフェース画像を表示するタイミングは様々である。例えば第2表示制御部2080は、第1表示制御部2060が表示60をディスプレイ装置10に表示するタイミングと同じタイミング又はそれに近いタイミングで、インタフェース画像をディスプレイ装置10に表示する。
 また例えば、第2表示制御部2080は、インタフェース画像を表示するための目印となるマーカが撮像画像20に含まれたタイミング(マーカがカメラによって撮像されたタイミング)で、インタフェース画像をディスプレイ装置10に表示してもよい。図19は、マーカが撮像画像20に含まれている様子を例示する図である。図19において、マーカは、ユーザが腕に付けている時計型のデバイス110のタッチパネル112に表示されているマーカ画像114である。第2表示制御部2080は、カメラによって生成される撮像画像20を繰り返し画像解析し、撮像画像20にマーカ画像114が含まれていることを検出した場合に、インタフェース画像(図19ではキーボード画像100)を表示する。
 ここで、マーカとして利用できるものは、前述したマーカ画像114に限定されない。マーカは、画像解析によって検出できる任意の目印(文字、図形又は記号など)でよい。例えばマーカは、ユーザの腕などに直接描画された所定の目印である。また例えば、マーカは、ユーザの腕などに身に付けられた任意の物に描画された所定の目印である。ユーザの腕に身につけられた物とは、例えばユーザの指に取り付けられている指輪、ユーザの手首に取り付けられているリストバンド、又はユーザが着ている服の袖などである。例えばマーカは、点検作業を行う作業員が共通で身に付ける作業着の袖に印字される。なお、マーカは、手で描画されたものでもよいし、印字されたものでもよい。
 マーカとして認識する目印を特定する情報は、第2表示制御部2080に予め設定されていてもよいし、第2表示制御部2080からアクセス可能な記憶装置に記憶されていてもよい。
 図20は、マーカを利用して入力インタフェースの画像を表示する処理を例示するフローチャートである。画像取得部2020は撮像画像20を取得する(S402)。第2表示制御部2080は撮像画像20にマーカが含まれているか否かを判定する(S404)。撮像画像20にマーカが含まれている場合(S404:YES)、第2表示制御部2080は入力インタフェースの画像をディスプレイ装置10に表示する(S406)。一方、撮像画像20にマーカが含まれていない場合(S404:NO)、図20の処理は終了する。
<インタフェース画像の表示位置>
 第2表示制御部2080がインタフェース画像を表示する位置は様々である。例えば第2表示制御部2080は、ディスプレイ装置10の所定位置にインタフェース画像を表示する。例えば所定位置は、ディスプレイ装置10の四隅のいずれかなどである。この所定位置を表す情報は、予め第2表示制御部2080に設定されていてもよいし、第2表示制御部2080からアクセス可能な記憶装置に記憶されていてもよい。
 また例えば第2表示制御部2080は、前述したマーカの位置に基づいて、インタフェース画像の表示位置を決定してもよい。具体的には、インタフェース画像の表示位置は、マーカの位置との相対位置として予め定義される。第2表示制御部2080は、撮像画像20に含まれているマーカの位置から、撮像画像20上のインタフェース画像の位置を算出する。そして第2表示制御部2080は、算出した位置にインタフェース画像を重畳した撮像画像20を、ディスプレイ装置10に表示する。
 なお前述したように、撮像画像20をディスプレイ装置10に表示しない形態(透過型のヘッドマウントディスプレイ90を利用する形態など)の場合、第2表示制御部2080は、撮像画像20上のインタフェース画像の位置を、ディスプレイ装置10上の位置に変換する。そして、第2表示制御部2080は、この変換によって算出したディスプレイ装置10上の位置に、インタフェース画像を表示する。
<作用・効果>
 本実施形態の情報処理装置2000によれば、ユーザは、情報処理装置2000を用いて点検結果の入力を行うことができる。そのため、例えばノートなどの紙媒体に点検結果を記入しなければいけない場合と比較し、ユーザにとって点検結果の入力作業が容易になる。特に、点検項目に応じてインタフェース画像の ID や種類が定められている場合、ユーザは点検項目に応じた入力結果をより容易に行えるようになる。これは、点検項目に応じたインタフェース画像が、自動でディスプレイ装置10に表示されるためである。
[実施形態3]
 図21は、実施形態3の情報処理装置2000を例示するブロック図である。以下で説明する点を除き、実施形態3の情報処理装置2000は、実施形態1若しくは2の情報処理装置2000、又はこれらの組み合わせと同様の機能を有する。
 実施形態3において、情報処理装置2000は、第3表示制御部2100をさらに含む。第3表示制御部2100は、機器30を含まない撮像画像20が取得された場合に、機器30の画像及び表示60をディスプレイ装置10上に表示する。これにより、ユーザは、機器30が視界に入らなくなった場合にも機器30を見ることができるようになり、点検箇所を把握できるようになる。
 図22は、タブレット端末80のタッチパネル82に機器30の画像が表示されている様子を例示している。図22において、撮像範囲120は、カメラ84の撮像範囲を表している。図の通り、実際の機器30は、カメラ84の撮像範囲の外にある。よって、撮像画像20には機器30が含まれない。そこで、第3表示制御部2100は、機器30の画像をタッチパネル82に表示する。また、タッチパネル82に表示されている機器30の画像上の点検箇所50には、表示60が重畳して表示されている。ユーザは、タッチパネル82に表示されている機器30及び表示60を見ることで、現在の点検箇所を把握できる。ディスプレイ装置10がヘッドマウントディスプレイ90のディスプレイ装置92である場合についても、同様となる。
 ここで前述した通り、透過型のヘッドマウントディスプレイ90を利用する場合、ユーザは、撮像画像20に含まれる機器30を見るのではなく、実際の機器30を見ることになる。しかしこの場合にも、カメラ94の撮像方向とユーザの視点方向とが同一又は近似となるようにカメラ94の位置及び画角などを設定しておけば、撮像画像20に機器30が含まれていないときには、ユーザの視界に機器30が入らない。よって、第3表示制御部2100は、撮像画像20に機器30が含まれているか否かを判定することで、ユーザの視界に機器30が入っているか否かを間接的に把握することができる。よって、撮像画像20に機器30が含まれていない場合に機器30の画像がディスプレイ装置92に表示されることで、ユーザは、機器30が視界から外れた場合に、実際の機器30の代わりに、機器30の画像を見ることができるようになる。
<機器30の画像を表示する方法について>
 第3表示制御部2100は、ディスプレイ装置10に表示する機器30の画像を取得する。ここで、第3表示制御部2100が機器30の画像を取得する方法は様々である。例えば第3表示制御部2100は、機器30が含まれていた撮像画像20の全体、又はその撮像画像20の内の機器30が含まれる領域を、機器30の画像をとして取得する。また例えば、図7の点検情報200のように、点検情報200が機器の画像を含んでいる場合、第3表示制御部2100は、点検情報200に含まれている機器30の画像を取得してもよい。
 機器30の画像が表示されるディスプレイ装置10上の位置は任意である。例えば第3表示制御部2100は、ディスプレイ装置10上の所定位置(四隅のいずれかなど)に機器30の画像を表示する。この所定位置を定める情報は、第3表示制御部2100に予め設定されていてもよいし、第3表示制御部2100からアクセス可能な記憶装置に記憶されていてもよい。
 また例えば、第3表示制御部2100は、実施形態2で説明したマーカを基準として定まる位置に、機器30の画像を表示してもよい。この場合、第3表示制御部2100は、マーカが撮像画像20に含まれている場合に、機器30の画像を表示する。なお、第3表示制御部2100がマーカの位置に基づいた位置に機器30の画像を表示する方法は、第2表示制御部2080がマーカの位置に基づいた位置にインタフェース画像を表示する方法と同様である。
<表示60の変更について>
 機器30の画像がディスプレイ装置10に表示されている状態でユーザが点検結果の入力を行った場合、第3表示制御部2100は、機器30の画像上における表示60の表示位置などを、次の点検項目に対応するものに変更する。こうすることでユーザは、機器30が撮像画像20に含まれていない状態で点検結果を入力した場合でも、次の点検箇所50を把握できるようになる。よって、ユーザは、次に見るべき点検箇所50へ容易に目を向けることができるようになる。
 図23は、機器30の画像がタッチパネル82に表示されている状態で点検結果が入力される様子を例示する図である。図23(a)は点検箇所50-1についての点検結果が入力される前の様子を表しており、図23(b)は点検箇所50-1についての点検結果が入力された後の様子を表している。図23(a)では、点検箇所50-1に対して表示60-1が重畳されている。一方、図23(b)では、点検箇所50-1の次の点検箇所である点検箇所50-2に表示60-2が重畳されている。
<機器30の画像を表示する条件について>
 上述の説明では、第3表示制御部2100は、「機器30が撮像画像20に含まれていない場合」に機器30の画像を表示している。しかし、第3表示制御部2100が機器30の画像の表示を行うのは、機器30が撮像画像20に完全に含まれてない場合に限定されない。例えば第3表示制御部2100は、撮像画像20に含まれている機器30の大きさが、機器30全体の大きさに対して所定の割合以下である場合に、機器30の画像を表示する。また例えば、第3表示制御部2100は、機器30が撮像画像20に含まれているものの、現在の点検箇所50が表示60に含まれていない場合に、機器30の画像を表示する。また例えば、第3表示制御部2100は、マーカが撮像画像20に含まれている場合、機器30が撮像画像20に含まれているか否かに関わらず、機器30の画像を表示する。
[実施形態4]
 図24は、実施形態4の情報処理装置2000を例示するブロック図である。以下で説明する点を除き、実施形態4の情報処理装置2000は、実施形態1から実施形態3の情報処理装置2000のいずれか、又はこれらの組み合わせと同様の機能を有する。
 実施形態4の情報処理装置2000は第4表示制御部2120をさらに有する。第4表示制御部2120は、点検項目に対応する点検箇所50が撮像画像20に含まれていない場合、その点検箇所50が位置する方向を示す表示を、ディスプレイ装置10に表示する。
 図25は、実施形態4の情報処理装置2000の動作を概念的に例示する図である。図25(a)は、撮像画像20がタブレット端末80のタッチパネル82に表示されている様子を示している。撮像画像20には、機器30の一部しか含まれていない。そのため、タッチパネル82には、機器30の一部しか表示されない。
 図25(b)は、実際の機器30を示している。現在の点検項目は、図25(b)で示されている点検箇所50である。この点検箇所50は、カメラ84の撮像範囲外に位置するため、撮像画像20に含まれていない。そのため、図25(a)のタッチパネル82には、点検箇所50が含まれていない。
 そこで図25(a)に示すように、第4表示制御部2120は、点検箇所50が位置する方向を示す表示130をタッチパネル82(ディスプレイ装置10)に表示する。これにより、ユーザは、点検箇所50のおおよその位置を把握することができる。
 例えばユーザは、表示130を参考にし、タブレット端末80を下方へ傾けるなどの動作を行うことで、カメラ94を点検箇所50へ向ける。こうすることで点検箇所50がカメラ94の撮像範囲に入ると、情報処理装置2000は、実施形態1などで説明したように、タッチパネル82に表示される点検箇所50に重畳するように表示60を表示する。その結果、ユーザは、点検箇所50の位置などを具体的に把握することができる。
<点検箇所50が位置する方向の算出方法>
 本実施形態において、点検情報200の点検箇所208は、機器30上における点検箇所50の相対位置を示す。撮像画像20には、機器30の一部が含まれている。第4表示制御部2120は、撮像画像20に含まれている機器30の一部と、機器30上における点検箇所50の相対位置とを用いて、撮像画像20によって定まる平面上における点検箇所50の位置を算出する。そして、第4表示制御部2120は、表示130を表示する位置を始点とし、その位置から上記算出した点検箇所50の位置へ向かう方向又はそれに近い方向を、表示130が表す方向とする。「それに近い方向」とは、例えば、上下左右の4方向のうち、表示130を表示する位置から見た点検箇所50の方向に最も近い方向である。
 図26は、表示130が示す方向を算出する方法を概念的に示す図である。図26(a)は、現在の点検箇所50であるスイッチの位置を、機器30上の相対位置として示す図である。図26(a)における XY 平面の原点は、機器30の左上端である。そして、点検箇所50の中心の座標は (a, b) である。
 図26(b)は、撮像画像20によって定まる平面を示す図である。図26(b)に示す XY 平面の原点は、撮像画像20の左上端である。そして、この XY 平面において、機器30の左上端の座標は (x0, y0) であり、表示130を表示する位置は、(x1, y1)である。第4表示制御部2120は、撮像画像20によって定まる平面における点検箇所50の中心の座標を算出する。この座標は (x0+a, y0+b) となる。そこで第4表示制御部2120は、表示130が示す方向として、始点が(x1, y1) であり、終点が(x0+a, y0+b)となる方向を算出する。
 なお、表示130を表示する位置は、予め定められている所定の位置(例えばディスプレイ装置10の中央や四隅)でもよいし、点検箇所50の位置に応じて定まる位置であってもよい。図27は、点検箇所50の位置に応じて表示130を表示する位置が定まるケースを例示する図である。例えば点検箇所50の位置が撮像画像20に含まれている領域よりも右に位置する場合、第4表示制御部2120は、タッチパネル82の右端付近に表示130-1(右方向の矢印)を表示する。また例えば、点検箇所50の位置が撮像画像20に含まれている領域よりも下に位置する場合、第4表示制御部2120は、タッチパネル82の下端付近に表示130-2(下方向の矢印)を表示する。点検箇所50の位置が撮像画像20に含まれている領域よりも左や上に位置する場合も同様である。
<処理の流れ>
 図28は、第1表示制御部2060及び第4表示制御部2120によって実行される処理の流れを例示するフローチャートである。S502からS512は、各点検項目について順次実行されるループ処理Cである。S502において、第4表示制御部2120は、点検情報200に示される全ての点検項目についてループ処理Cを実行したか否かを判定する。既に全ての点検項目についてループ処理Cを実行した場合、図28の処理は終了する。一方、まだループ処理Cの対象となっていない点検項目がある場合、第4表示制御部2120は、次の点検項目を取得する。ここで、次の点検項目を点検項目iと表記する。
 第4表示制御部2120は、点検項目iに対応する点検箇所50が撮像画像20に含まれているか否かを判定する(S504)。点検項目iに対応する点検箇所50が撮像画像20に含まれている場合、図28の処理はS506に進む。一方、点検項目iに対応する点検箇所50が撮像画像20に含まれていない場合、図28の処理はS510に進む。
 S506において、第1表示制御部2060は、点検項目iに対応する点検箇所50を示す表示60をディスプレイ装置10に表示する。情報処理装置2000は、点検項目iに関する点検結果の入力をユーザから受け付ける(S508)。
 一方、S510において、第4表示制御部2120は、点検項目iに対応する点検箇所50が位置する方向を示す表示130をディスプレイ装置10に表示する。
 S512はループ処理Cの終端である。そこで、図28の処理はS502に進む。
 なおS502において第4表示制御部2120が複数の点検項目の中から点検項目iを選択する方法は、実施形態1で説明した、第1表示制御部2060が複数の点検項目の中から点検項目iを選択する方法と同様である。
<作用・効果>
 本実施形態の情報処理装置2000は、撮像画像20に点検箇所50が含まれていない場合に、点検箇所50が位置する方向を示す表示130を、ディスプレイ装置10に表示する。この表示130は、ユーザがカメラ70を点検箇所50へ向けるための手がかりになる。よって、カメラ70の撮像範囲に点検箇所50が入っていない場合でも、カメラ70の撮像範囲に点検箇所50が入るようにユーザを誘導することにより、ユーザが点検箇所50を容易に把握できるようになる。
[実施形態5]
 図29は、実施形態5の情報処理装置2000を例示するブロック図である。以下で説明する点を除き、実施形態5の情報処理装置2000は、実施形態1から4のいずれかの情報処理装置2000、又はこれらの組み合わせと同様の機能を有する。
 実施形態5の情報処理装置2000は異常判定部2140及び追加情報取得部2160を有する。異常判定部2140は、点検項目について受け付けた点検結果の入力が異常な状態を示すか否かを判定する。点検結果の入力が異常な状態を示すとは、例えばメータが正常値の範囲に含まれない値を示していたり、ON となっているべきスイッチが OFF になっていたりする状態を意味する。追加情報取得部2160は、点検結果の入力が異常な状態を示す場合、追加情報を取得する。
 異常判定部2140は、点検情報を利用して、点検結果の入力が異常な状態を示すか否かを判定する。そのために、本実施形態の点検情報は、各点検項目の点検箇所について、正常な状態又は異常な状態を把握するための情報(以下、参照情報)を含む。例えば参照情報は、メータなどの正常値の範囲又は異常値の範囲を示す。また例えば参照情報は、ON/OFF されるスイッチなどについて、正常な状態では ON と OFF のどちらなのか、又は異常な状態では ON と OFF のどちらなのかなどを示す。
 追加情報取得部2160が取得する追加情報は、点検箇所に異常があった場合にユーザに提供される種々の情報である。例えば追加情報は、追加で点検すべき点検項目を示す点検情報である。例えば点検作業において、ある点検箇所に異常があった場合、その点検箇所に関係のある別の点検箇所をさらに点検しなければならないことがある。そこで追加情報は、このようにさらに点検すべき点検箇所に関する点検情報を示す。
 また例えば、追加情報は、点検箇所に異常があった場合にユーザが行うべき行動を示したマニュアルなどでもよい。例えば、ON であるべきスイッチが OFF になっている場合に、点検作業員がその場で ON に変更してもよいケースもあれば、機器の管理者を呼び出して管理者に処置を依頼しなければならないケースもある。そこで、追加情報取得部2160は、このようなユーザが行うべき行動を示すマニュアルを追加情報として取得する。
 情報処理装置2000は、追加情報をディスプレイ装置10に表示する。例えば追加情報が追加で点検すべき点検項目を示す点検情報である場合、第1表示制御部2060は、追加情報に示される点検項目について、点検情報取得部2040によって取得される点検情報と同様の処理を行う。この場合、第1表示制御部2060は、点検情報取得部2040によって取得された点検情報について処理を終えた後に、追加情報について処理をしてもよいし、点検情報取得部2040によって取得された点検情報よりも先に、追加情報について処理を行ってもよい。
 追加情報取得部2160は、追加情報が記憶されている記憶部から追加情報を取得する。この記憶部は、情報処理装置2000の内部に設けられていてもよいし、外部に設けられていてもよい。なお、外部に設けられている記憶部は、Network Attached Storage(NAS)などの記憶装置であってもよいし、データベースサーバなどのサーバであってもよい。
<処理の流れ>
 図30は、実施形態5の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。図30は、S602及びS604が、図11のS206とS208の間で行われることを表している。ただし、S602及びS604は、図18のS306とS308の間、又は図28のS508とS512の間で行われてもよい。
 異常判定部2140は、受け付けた入力が異常な状態を示すか否かを判定する(S602)。入力が異常な状態を示す場合(S602:YES)、追加情報取得部2160は追加情報を取得する(S604)。一方、入力が正常な状態を示す場合(S602:NO)、図30の処理は終了する。
<作用・効果>
 本実施形態によれば、点検箇所に異常があった場合に、追加情報が提供される。そのため、ユーザは、追加情報に示される追加の点検項目について点検を行ったり、追加情報に示されるマニュアルにしたがって行動したりするなどの種々の対応をすることができる。よって、点検箇所に異常があった場合に行うべき行動などを、ユーザが容易に把握できるようになる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
 以下、参考形態の例を付記する。
1. 点検対象の機器が含まれる撮像画像を取得する画像取得手段と、
 前記撮像画像に含まれる機器の点検項目を示す点検情報を取得する点検情報取得手段と、
 前記点検情報に示される点検項目に対応する点検箇所を示す表示を、ディスプレイ装置上の前記点検箇所に重畳して表示するか、又は前記ディスプレイ装置上の前記点検箇所若しくは前記機器の付近に表示する第1表示制御手段と、
 を有する情報処理装置。
2. 前記点検情報は、複数の点検項目を順位付けて示しており、
 前記第1表示制御手段は、第1の順位の点検項目に対応する点検箇所を示す表示を前記ディスプレイ装置に表示し、その第1の順位の点検項目に関する点検結果が入力された後に、第1の順位の次の順位である第2の順位の点検項目に対応する点検箇所を示す表示を前記ディスプレイ装置に表示する、1.に記載の情報処理装置。
3. 各前記点検項目には、その点検項目の点検結果の入力に用いる入力インタフェースの識別子又は種類が対応付けられており、
 前記点検項目に対応する識別子又は種類で特定される入力インタフェースの画像を前記ディスプレイ装置に表示する第2表示制御手段を有する、1.又は2.に記載の情報処理装置。
4. 前記点検情報を取得した後、マーカを含む撮像画像が取得された場合に、前記点検項目に関する点検結果の入力を受け付ける入力インタフェースの画像を前記ディスプレイ装置に表示する第2表示制御手段を有する、1.又は2.に記載の情報処理装置。
5. 前記機器を含み、なおかつ前記点検箇所を示す表示が重畳された画像を、前記ディスプレイ装置上に表示する第3表示制御手段を有する、1.乃至4.いずれか一つに記載の情報処理装置。
6. 前記第3表示制御手段は、前記点検情報を取得した後、前記機器が含まれない撮像画像又はマーカを含む撮像画像が取得された場合に、前記機器を含み、なおかつ前記点検箇所を示す表示が重畳された画像を、前記ディスプレイ装置上に表示する、5.に記載の情報処理装置。
7. 前記取得された点検情報に示される前記点検箇所が前記撮像画像に含まれない場合に、前記撮像画像に含まれない点検箇所が位置する方向を示す表示を前記ディスプレイ装置に表示する第4表示制御手段を有する、1.乃至6.いずれか一つに記載の情報処理装置。
8. 前記点検項目について受け付けた点検結果の入力が、異常な状態を示しているか否かを判定する異常判定手段と、
 前記点検結果の入力が異常な状態を示している場合に、追加の情報を取得する追加情報取得手段と、
 を有する1.乃至7.いずれか一項に記載の情報処理装置。
9. 前記ディスプレイ装置は、透過型のヘッドマウントディスプレイのディスプレイ装置であり、
 第1表示制御手段は、前記ディスプレイ装置を透過してユーザの目に映る前記点検箇所と重なる前記ディスプレイ装置上の位置又はその付近に、前記点検箇所を示す表示を表示する、1.乃至8.いずれか一つに記載の情報処理装置。
10. 前記第1表示制御手段は、前記撮像画像を生成するカメラの画角、前記カメラと前記ディスプレイ装置との位置関係、及び前記撮像画像に含まれる前記点検箇所の位置に基づいて、前記ディスプレイ装置を透過してユーザの目に映る前記点検箇所の前記ディスプレイ装置上の位置を算出し、前記算出した位置又はその付近に、前記点検箇所を示す表示を表示する、9.に記載の情報処理装置。
11. 前記点検項目が示す点検箇所は、メータ、つまみ又はスイッチである1.乃至10.いずれか一つに記載の情報処理装置。
12. コンピュータによって実行される制御方法であって、
 点検対象の機器が含まれる撮像画像を取得する画像取得ステップと、
 前記撮像画像に含まれる機器の点検項目を示す点検情報を取得する点検情報取得ステップと、
 前記点検情報に示される点検項目に対応する点検箇所を示す表示を、ディスプレイ装置上の前記点検箇所に重畳して表示するか、又は前記ディスプレイ装置上の前記点検箇所若しくは前記機器の付近に表示する第1表示制御ステップと、
 を有する制御方法。
13. 前記点検情報は、複数の点検項目を順位付けて示しており、
 前記第1表示制御ステップは、第1の順位の点検項目に対応する点検箇所を示す表示を前記ディスプレイ装置に表示し、その第1の順位の点検項目に関する点検結果が入力された後に、第1の順位の次の順位である第2の順位の点検項目に対応する点検箇所を示す表示を前記ディスプレイ装置に表示する、12.記載の制御方法。
14. 各前記点検項目には、その点検項目の点検結果の入力に用いる入力インタフェースの識別子又は種類が対応付けられており、
 前記点検項目に対応する識別子又は種類で特定される入力インタフェースの画像を前記ディスプレイ装置に表示する第2表示制御ステップを有する、12.又は13.に記載の制御方法。
15. 前記点検情報を取得した後、マーカを含む撮像画像が取得された場合に、前記点検項目に関する点検結果の入力を受け付ける入力インタフェースの画像を前記ディスプレイ装置に表示する第2表示制御ステップを有する、12.又は13.に記載の制御方法。
16. 前記機器を含み、なおかつ前記点検箇所を示す表示が重畳された画像を、前記ディスプレイ装置上に表示する第3表示制御ステップを有する、12.乃至15.いずれか一つに記載の制御方法。
17. 前記第3表示制御ステップにおいて、前記点検情報を取得した後、前記機器が含まれない撮像画像又はマーカを含む撮像画像が取得された場合に、前記機器を含み、なおかつ前記点検箇所を示す表示が重畳された画像を、前記ディスプレイ装置上に表示する、16.に記載の情報処理装置。
18. 前記取得された点検情報に示される点検箇所が前記撮像画像に含まれない場合に、前記撮像画像に含まれない点検箇所が位置する方向を示す表示を前記ディスプレイ装置に表示する第4表示制御ステップを有する、12.乃至17.いずれか一つに記載の制御方法。
19. 前記点検項目について受け付けた点検結果の入力が、異常な状態を示しているか否かを判定する異常判定手段と、
 前記点検結果の入力が異常な状態を示している場合に、追加の情報を取得する追加情報取得手段と、
 を有する12.乃至18.いずれか一項に記載の情報処理装置。
20. 前記ディスプレイ装置は、透過型のヘッドマウントディスプレイのディスプレイ装置であり、
 第1表示制御ステップは、前記ディスプレイ装置を透過してユーザの目に映る前記点検箇所と重なる前記ディスプレイ装置上の位置又はその付近に、前記点検箇所を示す表示を表示する、12.乃至19.いずれか一つに記載の制御方法。
21. 前記第1表示制御ステップは、前記撮像画像を生成するカメラの画角、前記カメラと前記ディスプレイ装置との位置関係、及び前記撮像画像に含まれる前記点検箇所の位置に基づいて、前記ディスプレイ装置を透過してユーザの目に映る前記点検箇所の前記ディスプレイ装置上の位置を算出し、前記算出した位置又はその付近に、前記点検箇所を示す表示を表示する、20.に記載の制御方法。
22. 前記点検項目が示す点検箇所は、メータ、つまみ又はスイッチである12.乃至21.いずれか一つに記載の制御方法。
23. コンピュータに、12.乃至22.いずれか一つに記載の制御方法の各ステップを実行させるプログラム。
 この出願は、2015年11月10日に出願された日本出願特願2015-220320号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (13)

  1.  点検対象の機器が含まれる撮像画像を取得する画像取得手段と、
     前記撮像画像に含まれる機器の点検項目を示す点検情報を取得する点検情報取得手段と、
     前記点検情報に示される点検項目に対応する点検箇所を示す表示を、ディスプレイ装置上の前記点検箇所に重畳して表示するか、又は前記ディスプレイ装置上の前記点検箇所若しくは前記機器の付近に表示する第1表示制御手段と、
     を有する情報処理装置。
  2.  前記点検情報は、複数の点検項目を順位付けて示しており、
     前記第1表示制御手段は、第1の順位の点検項目に対応する点検箇所を示す表示を前記ディスプレイ装置に表示し、その第1の順位の点検項目に関する点検結果が入力された後に、第1の順位の次の順位である第2の順位の点検項目に対応する点検箇所を示す表示を前記ディスプレイ装置に表示する、請求項1に記載の情報処理装置。
  3.  各前記点検項目には、その点検項目の点検結果の入力に用いる入力インタフェースの識別子又は種類が対応付けられており、
     前記点検項目に対応する識別子又は種類で特定される入力インタフェースの画像を前記ディスプレイ装置に表示する第2表示制御手段を有する、請求項1又は2に記載の情報処理装置。
  4.  前記点検情報を取得した後、マーカを含む撮像画像が取得された場合に、前記点検項目に関する点検結果の入力を受け付ける入力インタフェースの画像を前記ディスプレイ装置に表示する第2表示制御手段を有する、請求項1又は2に記載の情報処理装置。
  5.  前記機器を含み、なおかつ前記点検箇所を示す表示が重畳された画像を、前記ディスプレイ装置上に表示する第3表示制御手段を有する、請求項1乃至4いずれか一項に記載の情報処理装置。
  6.  前記第3表示制御手段は、前記点検情報を取得した後、前記機器が含まれない撮像画像又はマーカを含む撮像画像が取得された場合に、前記機器を含み、なおかつ前記点検箇所を示す表示が重畳された画像を、前記ディスプレイ装置上に表示する、請求項5に記載の情報処理装置。
  7.  前記取得された点検情報に示される点検箇所が前記撮像画像に含まれない場合に、前記撮像画像に含まれない点検箇所が位置する方向を示す表示を前記ディスプレイ装置に表示する第4表示制御手段を有する、請求項1乃至6いずれか一項に記載の情報処理装置。
  8.  前記点検項目について受け付けた点検結果の入力が、異常な状態を示しているか否かを判定する異常判定手段と、
     前記点検結果の入力が異常な状態を示している場合に、追加の情報を取得する追加情報取得手段と、
     を有する請求項1乃至7いずれか一項に記載の情報処理装置。
  9.  前記ディスプレイ装置は、透過型のヘッドマウントディスプレイのディスプレイ装置であり、
     第1表示制御手段は、前記ディスプレイ装置を透過してユーザの目に映る前記点検箇所と重なる前記ディスプレイ装置上の位置又はその付近に、前記点検箇所を示す表示を表示する、請求項1乃至8いずれか一項に記載の情報処理装置。
  10.  前記第1表示制御手段は、前記撮像画像を生成するカメラの画角、前記カメラと前記ディスプレイ装置との位置関係、及び前記撮像画像に含まれる前記点検箇所の位置に基づいて、前記ディスプレイ装置を透過してユーザの目に映る前記点検箇所の前記ディスプレイ装置上の位置を算出し、前記算出した位置又はその付近に、前記点検箇所を示す表示を表示する、請求項9に記載の情報処理装置。
  11.  前記点検項目が示す点検箇所は、メータ、つまみ又はスイッチである請求項1乃至10いずれか一項に記載の情報処理装置。
  12.  コンピュータによって実行される制御方法であって、
     点検対象の機器が含まれる撮像画像を取得する画像取得ステップと、
     前記撮像画像に含まれる機器の点検項目を示す点検情報を取得する点検情報取得ステップと、
     前記点検情報に示される点検項目に対応する点検箇所を示す表示を、ディスプレイ装置上の前記点検箇所に重畳して表示するか、又は前記ディスプレイ装置上の前記点検箇所若しくは前記機器の付近に表示する第1表示制御ステップと、
     を有する制御方法。
  13.  コンピュータに、請求項12に記載の制御方法の各ステップを実行させるプログラム。
PCT/JP2016/076249 2015-11-10 2016-09-07 情報処理装置、制御方法、及びプログラム WO2017081920A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017550012A JP6332568B2 (ja) 2015-11-10 2016-09-07 情報処理装置、制御方法、及びプログラム
CN201680053056.0A CN108027903B (zh) 2015-11-10 2016-09-07 信息处理设备、控制方法和程序
US15/759,560 US10713488B2 (en) 2015-11-10 2016-09-07 Inspection spot output apparatus, control method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015220320 2015-11-10
JP2015-220320 2015-11-10

Publications (1)

Publication Number Publication Date
WO2017081920A1 true WO2017081920A1 (ja) 2017-05-18

Family

ID=58695958

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/076249 WO2017081920A1 (ja) 2015-11-10 2016-09-07 情報処理装置、制御方法、及びプログラム

Country Status (4)

Country Link
US (1) US10713488B2 (ja)
JP (1) JP6332568B2 (ja)
CN (1) CN108027903B (ja)
WO (1) WO2017081920A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003359A1 (ja) * 2017-06-28 2019-01-03 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
JP6884911B1 (ja) * 2020-07-14 2021-06-09 九電ビジネスソリューションズ株式会社 運用保守システム、運用保守方法および運用保守プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444908B2 (en) * 2016-12-31 2019-10-15 Innoventions, Inc. Virtual touchpads for wearable and portable devices
JP6825079B2 (ja) * 2017-09-29 2021-02-03 日立建機株式会社 管理サーバおよび建設機械の点検レポート作成システム
JP2021140524A (ja) * 2020-03-06 2021-09-16 株式会社東芝 検査端末装置、検査装置、検査システム、及び、検査プログラム
CN112464936B (zh) * 2020-12-11 2022-12-20 合肥维信诺科技有限公司 显示模组异常显示区域的定位方法和定位装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007600A (ja) * 2000-06-26 2002-01-11 Hitachi Chem Co Ltd 構造物の巡回管理方法、巡回管理支援装置、巡回管理支援システム、巡回管理用データ構造を記録した記録媒体、及び巡回管理支援プログラムを記録した記録媒体
JP2014071756A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 作業補助システムおよびプログラム
JP2015148835A (ja) * 2014-02-04 2015-08-20 富士通株式会社 情報読取システム、読取制御装置、読取制御方法及び読取制御プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2179155B (en) * 1985-08-13 1989-08-16 English Electric Valve Co Ltd Spatial characteristic determination
JP2004188026A (ja) * 2002-12-12 2004-07-08 Olympus Corp 情報処理装置
JP4328650B2 (ja) * 2004-03-18 2009-09-09 中国電力株式会社 設備点検支援プログラム及び装置
JP4620030B2 (ja) 2005-10-28 2011-01-26 富士通株式会社 設備点検支援システム、設備点検支援方法およびそのプログラム
US20090295712A1 (en) * 2008-05-29 2009-12-03 Sony Ericsson Mobile Communications Ab Portable projector and method of operating a portable projector
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
JP5648298B2 (ja) * 2010-03-15 2015-01-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5480777B2 (ja) * 2010-11-08 2014-04-23 株式会社Nttドコモ オブジェクト表示装置及びオブジェクト表示方法
JP2013054541A (ja) * 2011-09-05 2013-03-21 Sony Corp 情報処理装置、情報処理方法、およびプログラム
CN104220973A (zh) 2012-04-18 2014-12-17 索尼公司 信息处理装置和程序
JP5334145B1 (ja) * 2012-06-29 2013-11-06 トーヨーカネツソリューションズ株式会社 物品のピッキング作業の支援システム
JP6402443B2 (ja) * 2013-12-18 2018-10-10 富士通株式会社 制御プログラム、制御装置及び制御システム
US20170004827A1 (en) * 2015-06-30 2017-01-05 Siemens Energy, Inc. Data Collection and Reporting System and Method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007600A (ja) * 2000-06-26 2002-01-11 Hitachi Chem Co Ltd 構造物の巡回管理方法、巡回管理支援装置、巡回管理支援システム、巡回管理用データ構造を記録した記録媒体、及び巡回管理支援プログラムを記録した記録媒体
JP2014071756A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 作業補助システムおよびプログラム
JP2015148835A (ja) * 2014-02-04 2015-08-20 富士通株式会社 情報読取システム、読取制御装置、読取制御方法及び読取制御プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003359A1 (ja) * 2017-06-28 2019-01-03 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
JP6884911B1 (ja) * 2020-07-14 2021-06-09 九電ビジネスソリューションズ株式会社 運用保守システム、運用保守方法および運用保守プログラム
JP2022017914A (ja) * 2020-07-14 2022-01-26 九電ビジネスソリューションズ株式会社 運用保守システム、運用保守方法および運用保守プログラム

Also Published As

Publication number Publication date
JP6332568B2 (ja) 2018-05-30
CN108027903A (zh) 2018-05-11
CN108027903B (zh) 2021-11-23
US20190156118A1 (en) 2019-05-23
US10713488B2 (en) 2020-07-14
JPWO2017081920A1 (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6332568B2 (ja) 情報処理装置、制御方法、及びプログラム
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
US9823821B2 (en) Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object
CN101963839B (zh) 操作控制装置和操作控制方法
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
JP6163899B2 (ja) 情報処理装置、撮像装置、情報処理方法、及びプログラム
US20110221776A1 (en) Display input device and navigation device
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
US10140002B2 (en) Information processing apparatus, information processing method, and program
EP2814000A1 (en) Image processing apparatus, image processing method, and program
EP3048790A1 (en) Video monitoring system and video display method
WO2021181604A1 (ja) 情報端末装置、及びそのアプリケーション動作モード制御方法
JP2004005639A (ja) 監視装置
JP6686319B2 (ja) 画像投影装置及び画像表示システム
JP2008065511A (ja) 情報表示システム、及び、ポインティング制御方法
US20150062011A1 (en) Remote control apparatus and method of audio video navigation system
CN110941389A (zh) 一种焦点触发ar信息点的方法及装置
JP4478047B2 (ja) 情報提示装置及び情報提示方法とそのプログラム
US20240087255A1 (en) Information processing apparatus, system, control method, and non-transitory computer storage medium
JP2013257830A (ja) 情報処理装置
WO2023224033A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
JP2018097563A (ja) 画像処理装置
JP2015219609A (ja) 情報処理方法、情報処理装置及び記録媒体
JP2017142421A (ja) 表示制御装置、表示制御方法及び表示制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16863884

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017550012

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16863884

Country of ref document: EP

Kind code of ref document: A1