WO2017033561A1 - 表示システム、表示装置、表示方法及びプログラム - Google Patents

表示システム、表示装置、表示方法及びプログラム Download PDF

Info

Publication number
WO2017033561A1
WO2017033561A1 PCT/JP2016/069055 JP2016069055W WO2017033561A1 WO 2017033561 A1 WO2017033561 A1 WO 2017033561A1 JP 2016069055 W JP2016069055 W JP 2016069055W WO 2017033561 A1 WO2017033561 A1 WO 2017033561A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
display device
real space
unit
Prior art date
Application number
PCT/JP2016/069055
Other languages
English (en)
French (fr)
Inventor
和佳 井上
陽一郎 角藤
Original Assignee
新日鉄住金ソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 新日鉄住金ソリューションズ株式会社 filed Critical 新日鉄住金ソリューションズ株式会社
Priority to MYPI2018000170A priority Critical patent/MY188596A/en
Priority to JP2016567690A priority patent/JP6165362B1/ja
Priority to US15/753,119 priority patent/US10539509B2/en
Priority to CN201680046493.XA priority patent/CN107850550B/zh
Publication of WO2017033561A1 publication Critical patent/WO2017033561A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35482Eyephone, head-mounted 2-D or 3-D display, also voice and other control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the present invention relates to a display system, a display device, a display method, and a program.
  • Patent Document 2 discloses a technique for displaying information related to failure recovery work on a wearable AR display device worn by an operator so as to be superimposed on an image in real space.
  • the present invention has been made in view of such problems, and an object thereof is to provide support that leads to improvement in inspection accuracy of inspection by an inspector.
  • FIG. 1 is a diagram showing an AR display system.
  • FIG. 2 is a diagram illustrating an AR display device.
  • FIG. 3 is a diagram illustrating the management apparatus.
  • FIG. 4 is an explanatory view of a completed vehicle inspection.
  • FIG. 5 is a flowchart showing the examination support process by the AR display system.
  • FIG. 6 is a diagram illustrating an example of a data configuration of the reference image DB.
  • FIG. 7 is a diagram illustrating a display example of a reference image.
  • FIG. 8A is a diagram illustrating an enlarged display example of an image related to a selection instruction.
  • FIG. 8B is a diagram illustrating an enlarged display example of an image related to the selection instruction.
  • FIG. 9 is a diagram illustrating a display example of a reference image.
  • FIG. 1 is a diagram showing an augmented reality display system as a display system.
  • the augmented reality display system is referred to as an AR (Augmented Reality) display system.
  • the AR display system includes an AR display device 100, a management device 110, and a PC 120.
  • the AR display device 100 is a glasses-type device.
  • an inspector wears the AR display device 100 and visually inspects an inspection object.
  • the AR display device 100 is also a light transmission type display device, and a light transmission type display unit 105 is provided at a position corresponding to the lens portion of the glasses.
  • the inspector wearing the AR display device 100 can see an object existing ahead of the line of sight in the real space via the display unit 105 of the AR display device 100.
  • the inspector wearing the AR display device 100 recognizes the state in which the arbitrary image is superimposed on the real space viewed through the display unit 105.
  • the AR display device 100 is a display device capable of displaying an image superimposed on the real space.
  • a space in which a real space and an arbitrary image are combined is referred to as an augmented reality space.
  • a photographing unit 107 is provided at a position adjacent to the display unit 105.
  • the imaging unit 107 is installed so that the imaging direction of the wearer of the AR display device 100 matches the imaging direction of the imaging unit 107. Thereby, the imaging unit 107 can capture an image of the real space viewed by the inspector wearing the AR display device 100.
  • the photographing unit 107 may be installed such that the photographing direction and the wearer's line-of-sight direction have a certain relationship.
  • FIG. 2 is a diagram showing the AR display device 100.
  • the AR display device 100 includes a CPU 101, a ROM 102, a RAM 103, a communication I / F 104, a display unit 105, a microphone 106, and a photographing unit 107.
  • the CPU 101 reads the control program stored in the ROM 102 and executes various processes.
  • the RAM 103 is used as a temporary storage area such as a main memory and a work area for the CPU 101. Note that the functions and processing of the AR display device 100 to be described later are realized by the CPU 101 reading out a computer program stored in the ROM 102 and executing this program.
  • FIG. 4 is an explanatory diagram of a completed vehicle inspection carried out in an automobile factory.
  • the finished vehicle inspection includes an inspection by an inspection device and an inspection by an inspector, and the inspector A wears the AR display device 100 and performs an inspection by visual inspection.
  • the completed vehicle 200 is placed on the belt conveyor 210 and carried in front of the inspector A.
  • the emblem 201 provided on the front surface of the complete vehicle 200 is used as an inspection object, and the inspection of the shape of the emblem 201 will be described as an example.
  • FIG. 5 is a flowchart showing inspection support processing by the AR display system.
  • This process is a process executed when an inspector wearing the AR display device 100 performs an inspection.
  • the CPU 101 of the AR display device 100 confirms whether or not an instruction to select an inspection item has been accepted in response to an utterance by the inspector.
  • the inspection item is information indicating the inspection object to be inspected by the inspector and the content of the inspection.
  • the CPU 101 of the AR display device 100 performs voice recognition on the voice input from the microphone 106, and selects an inspection item “shape of emblem” according to the voice recognition result. Accept instructions.
  • the user interface for the inspector to input a selection instruction is not limited to the microphone 106.
  • FIG. 6 is a diagram illustrating an example of a data configuration of the reference image DB 118.
  • the reference image DB 118 is stored in a storage unit such as the HDD 117 of the management apparatus 110, for example.
  • inspection items and reference images are stored in association with each other.
  • the reference image includes a pass image and a fail image.
  • the pass image is an image of the inspection object determined to be pass.
  • the reject image is an image of the inspection object determined to be rejected.
  • the reference image DB 118 stores the reference image so that it can be identified whether the image is a pass image or a fail image. It is assumed that the pass image and the fail image are created in advance by a designer or the like and registered in the reference image DB 118 before actual processing is performed, such as when designing an AR display system.
  • the CPU 111 of the management apparatus 110 extracts a reference image associated with the inspection item in the reference image DB 118. Note that there are cases where both a pass image and a reject image are stored in association with the inspection item, and only one of the images is stored. In the former case, both a pass image and a fail image are extracted, and in the latter case, only one of the pass image and the fail image is extracted.
  • the CPU 111 of the management apparatus 110 associates the extracted reference image with information for identifying whether each reference image is a pass image or a fail image, via the communication I / F 114. To the AR display device 100.
  • the process of S103 is an example of a reception process for receiving at least one of a pass image and a fail image.
  • the CPU 101 of the AR display device 100 extracts one pass image and one fail image from the received reference images and displays them on the display unit 105.
  • FIG. 7 is a diagram illustrating a display example of a pass image and a fail image. One pass image 221 and one fail image 223 are displayed on the left and right sides of the display unit 105, respectively.
  • the inspector sees the emblem 201 of the completed vehicle 200 as the inspection object existing in the real space via the display unit 105, and at the same time, the pass image 221 displayed on the display unit 105 and the failure.
  • An image 223 can be seen. That is, the inspector can recognize the augmented reality space in which the pass image 221 and the reject image 223 are superimposed on the inspection object existing in the real space.
  • the AR display device 100 displays each of the pass image and the fail image on the display unit 105 at a predetermined display position. Thereby, the inspector can specify whether the image is a pass image or a fail image from the display position without confirming the information 222 and 224 indicating the pass image or the fail image.
  • the AR display device 100 displays a pass image on the left side of the display unit 105 and displays a reject image on the right side of the display unit 105. Further, when only one of the pass image and the fail image is received in S103, the CPU 101 of the AR display device 100 displays only the received image (pass image or fail image) in S104. To do.
  • the CPU 101 of the AR display device 100 further displays “1/3” adjacent to the pass image 221.
  • the denominator “3” is the total number of accepted images received in S103
  • the numerator “1” is the identification number of the accepted image 221 being displayed.
  • the CPU 101 of the AR display device 100 also displays “1/4” in the same manner adjacent to the reject image 222.
  • the CPU 101 of the AR display device 100 can further switch the image displayed on the display unit 105 in accordance with an instruction from the examiner. For example, when the inspector speaks “change of acceptable image”, the CPU 101 of the AR display device 100 accepts a display switching instruction of the acceptable image. Then, the CPU 101 of the AR display device 100 displays the other received acceptable image instead of the displayed acceptable image. Similarly, when the inspector speaks “change of failed image”, the CPU 101 of the AR display device 100 receives a display switching instruction for the failed image, and replaces the rejected image being displayed with another received failure. Display an image. In this manner, the CPU 101 of the AR display device 100 can display the received pass image and the reject image in order by switching the display image every time a display switching instruction is received.
  • the process of S ⁇ b> 104 is an example of a display process for displaying an image received from the management apparatus 110.
  • the number of images simultaneously displayed on the display unit 105 is not limited to the embodiment.
  • three acceptable images and three unacceptable images are displayed on the left and right sides of the display unit 105 respectively, and each time a display switching instruction is received, the following three images are displayed instead of the three currently displayed images.
  • An image may be displayed.
  • the inspector causes the display unit 105 to display the pass image and the fail image, and compares the displayed image with the inspection object existing in the real space.
  • the examiner inputs an instruction to select a similar image when there is a particularly similar image. For example, when the inspector wants to compare the inspection object with the displayed acceptable image, he / she utters “accepted image selection”.
  • the CPU 101 of the AR display device 100 performs voice recognition processing on the voice input to the microphone 106, and determines that an instruction to select a passing image being displayed has been received according to the recognition result. Similarly, the CPU 101 of the AR display device 100 can accept an instruction to select a rejected image being displayed.
  • FIG. 8A is a diagram illustrating an enlarged display example of a pass image.
  • the pass image 231 is displayed on the left side of the display unit 105.
  • FIG. 8B is a diagram illustrating an enlarged display example of the reject image.
  • the reject image 232 is displayed on the right side of the display unit 105.
  • the CPU 101 of the AR display device 100 can further receive a scaling instruction from the inspector and can enlarge or reduce the pass image 231 or the reject image 232 according to the scaling instruction. Thereby, the display size of the pass image 231 and the reject image 232 can be adjusted to the same size as the size at which the inspector visually recognizes the inspection object 201 in the real space, for example.
  • the inspector can display the pass image 231 or the reject image 232 next to the inspection target 201 by moving the line of sight. Furthermore, the CPU 101 of the AR display device 100 can change the display position of the pass image 231 or the fail image 232 in accordance with an instruction from the inspector. Thereby, the pass image 231 or the fail image 232 can be displayed next to the inspection object 201 as described above. Thus, since the inspector can compare the actual inspection object with the pass image 231 or the reject image 232 without moving the line of sight, the inspector makes a pass / fail determination more accurately. be able to.
  • the inspector refers to the displayed image, such as when the inspection object does not resemble any of the accepted and rejected images displayed on the display unit 105, the pass / fail is still acceptable. You may be troubled by the judgment. In such a case, the inspector speaks, for example, “determination request”.
  • the CPU 101 of the AR display device 100 performs voice recognition processing on the voice of the inspector input to the microphone 106, and determines that a determination request instruction has been received from the recognition result.
  • the CPU 101 of the AR display device 100 confirms whether or not a determination request instruction has been accepted.
  • the process proceeds to S108. If the CPU 101 of the AR display device 100 does not accept the determination request instruction (No in S107), the process proceeds to S116.
  • the process of S107 is an example of a reception process for receiving a determination request instruction.
  • the CPU 101 of the AR display device 100 performs a shooting control process. This process is a process of taking an image and storing it in the storage unit, similar to the shooting control process in S106.
  • the process proceeds to S110.
  • the CPU 111 of the PC 120 displays the received captured image on the display unit 115 together with the inspection item.
  • the supervisor of the inspector who is the user of the PC 120 confirms the captured image displayed on the display unit 115, determines pass or fail, and inputs the determination result via the input unit 116.
  • the PC 120 may be an apparatus used by a person who is determined in advance as a person who can make a correct judgment on the examination.
  • the PC 120 may be an apparatus used by a manager of judgment criteria in the inspection process, a manager of the entire final inspection process, or the like.
  • the CPU 111 of the PC 120 receives an input of a determination result.
  • the CPU 111 of the PC 120 transmits a determination result to the AR display device 100 via the communication I / F 114.
  • the process proceeds to S113.
  • the CPU 101 of the AR display device 100 displays the determination result on the display unit 105. Thereby, the inspector can quickly obtain a correct inspection result even for an inspection object that cannot be determined by himself / herself.
  • the CPU 101 of the AR display device 100 appropriately ends the display of the determination result in accordance with the instruction from the examiner.
  • the CPU 101 of the AR display device 100 transmits an image registration instruction for the photographed image obtained in S108 to the management device 110, and then advances the processing to S116.
  • the image registration instruction includes, in addition to the captured image, the inspection item and the determination result received in S112.
  • the CPU 111 of the management apparatus 110 receives the image registration instruction, the process proceeds to S115.
  • the CPU 111 of the management apparatus 110 registers the captured image related to the image registration instruction in the reference image DB 118 in association with the examination item related to the image registration instruction.
  • the CPU 101 of the AR display device 100 receives the determination result and receives an image registration instruction from the examiner, the CPU 101 executes the processes of S114 and S115 to register the image. It is good as well.
  • the identification information of the captured image transmitted in S114 is transmitted together with the determination result.
  • the management apparatus 110 receives the identification information and the determination result, the management image 110 identifies the captured image identified by the identification information in the reference image DB 118. Then, the management device 110 records the determination result, that is, information indicating that the image is a pass image or a fail image, in the reference image DB 118 in association with the specified captured image.
  • the CPU 101 of the AR display device 100 confirms whether or not a reference image display end instruction has been accepted in S119 in accordance with the user's utterance. If the CPU 101 of the AR display device 100 does not receive a display end instruction (No in S119), the process proceeds to S104. As another example, if the CPU 101 of the AR display device 100 does not receive a display end instruction (No in S119), the process may proceed to S101. Thereby, the reference image DB 118 in a newer state can be referred to. On the other hand, when the CPU 101 of the AR display device 100 receives a display end instruction (Yes in S119), the process ends.
  • the AR display device 100 displays a pass image and a fail image by superimposing on the inspection target existing in the real space. For this reason, when the inspector determines the inspection object, the inspector can determine whether the inspection object is acceptable or not by looking at the images of the actual acceptable product and the rejected product.
  • images passed images and rejected images
  • the AR display system according to the present embodiment can provide support that leads to an improvement in the inspection accuracy of the inspection visually performed by the inspector.
  • the reference image is used as a determination criterion, and a new reference image is automatically accumulated, thereby determining the determination criterion. Is updated.
  • identification information for distinguishing both can be displayed by symbols and characters common in many countries, such as circle and cross. Therefore, it is not necessary to manually update the determination criteria by an administrator or the like, and it is also possible to eliminate the translation work at the time of updating.
  • the AR display device 100 is preferably a wearable device such as the eyeglass type as described in the present embodiment or a head-mounted type such as a head-mounted display.
  • the AR display device 100 is not limited to the wearable type.
  • the AR display device 100 in a case where the line-of-sight movement during inspection is small, the AR display device 100 is, for example, a position in the line-of-sight direction of the inspector and transmits the inspection object to a position between the inspector and the inspection object. It may be installed to display.
  • the AR display device 100 may be portable.
  • the AR display device 100 is not limited to an optical transmission type display device.
  • a video transmission type display device may be used.
  • the CPU 101 of the AR display device 100 controls the photographing unit 107 to photograph the image of the inspection object, and displays the real space video as the photographed image on the display unit 105. indicate.
  • the CPU 101 of the AR display device 100 superimposes and displays a pass image and a reject image on the video of the inspection object in the real space being displayed on the display unit 105.
  • the CPU 101 of the AR display device 100 superimposes the image of the inspection object in the image of the real space being displayed on the display unit 105 in place of the inspection object in the real space, and issues a superposition display instruction. Such an image shall be displayed.
  • the AR display device 100 displays a 2D image, but may display a 3D image instead.
  • the AR display device 100 may have two display units at positions corresponding to the right eye and the left eye, and display an image that realizes a 3D image on each display unit.
  • the AR display device 100 may store a reference image corresponding to all inspection items that can be executed in a storage unit such as the ROM 102 in advance.
  • the AR display device 100 receives an inspection item selection instruction in S100 illustrated in FIG. 5, the AR display device 100 reads a reference image related to the selection instruction from the reference images stored in the storage unit in S104 ( Reading process), and the read illumination image is displayed. That is, in this case, the processing of S101 to S103 is not necessary.
  • the AR display device 100 periodically transmits an update image acquisition request to the management device 110, receives the updated reference image (additional reference image) from the management device 110, and stores it in the storage unit. May be.
  • the inspector inputs an instruction to start the inspection at the start of the inspection.
  • the AR display device 100 identifies the first inspection item indicated in the inspection information, and transmits an image acquisition request including the first inspection item to the management device 110, whereby the first inspection item is displayed. The reference image is received and displayed. Thereafter, the inspector inputs an instruction to end the inspection when the first inspection is completed.
  • the AR display device 100 receives an instruction to end the inspection, the AR display device 100 refers to the inspection information and advances the inspection object to the next inspection item. Then, the AR display device 100 receives the corresponding reference image by transmitting an image acquisition request including the second inspection item to the management device 110, and displays it. Thereafter, the same processing may be repeated.
  • the AR display device 100 is not limited to the embodiment in the arrangement of the reference image when displaying the reference image on the display unit 105 in S104 of FIG.
  • the AR display device 100 may display a plurality of rejected images on the right side of the display unit 105 as shown in FIG.
  • S104 as shown in FIGS. 8A and 8B, only the pass image 231 or only the fail image 232 may be displayed on the display unit 105.
  • the total number and the identification number of the image being displayed may be displayed in a fractional format.
  • the AR display device 100 automatically adjusts the image size and the display position according to the selection instruction without receiving an instruction from the examiner in S106 of FIG. May be.
  • the CPU 101 of the AR display device 100 first acquires the captured image by controlling the imaging unit 107. Then, the CPU 101 performs image recognition on the captured image, extracts an image of the inspection object (image recognition processing), and specifies the position and size of the image of the inspection object in the captured image.
  • the CPU 101 of the AR display device 100 further determines the display position and display size of the image related to the selection instruction based on the relationship between the shooting direction and the line-of-sight direction and the position and size of the inspection object in the shot image.
  • the display position is the position adjacent to the inspection object. Then, the CPU 101 of the AR display device 100 displays an image according to the selection instruction with the determined display size at the determined display position.
  • the adjacent position is a position where the distance between the position of the inspection object grasped by the inspector in the display unit 105 and the display position is a predetermined length, and more preferably, the inspection is performed. It is assumed that the position is such that the object and the image do not overlap.
  • the adjacent position may be a position determined in accordance with the size of the inspection object grasped by the inspector in the display unit 105.
  • the image displayed as the pass image and the fail image by the AR display device 100 is not limited to a still image, and may be a moving image.
  • the AR display device 100 may generate an animation from the moving image shot by the shooting unit 107 and display it as a pass image and a fail image.
  • the AR display device 100 determines not only the captured image that has received the determination result from the PC 120 but also the captured image that the inspector desires to register in the reference image DB 118 as the reference image. It may be registered in the reference image DB 118 in association with the result.
  • the AR display device 100 captures and records an image of the inspection object during inspection or at the end of the inspection for all inspection items, not limited to cases where the inspector is troubled by the determination. It is good as well. Thereby, when a quality defect etc. arise later, the cause of a defect can be pinpointed.
  • the AR display device 100 records a captured image in the management device 110 as an inspected image separately from the reference image. Furthermore, the AR display device 100 may record the inspection result in association with the inspected image.
  • the inspection object is not limited to an automobile emblem.
  • the inspection object is not limited to the completed vehicle inspection, but may be applied to a completion inspection in an automobile assembly process or a painting process.
  • the present invention may be applied to building inspection, plant / facility / device inspection, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • General Factory Administration (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

現実空間に重畳して画像を表示可能な表示装置と、表示装置が表示する画像を管理する管理装置とを有する表示システムであって、表示装置は、記憶手段から、現実空間に存在する検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出し、読み出された画像を、光透過型の表示手段を透過する現実空間に重畳して前記表示手段に表示する表示処理手段を有する。

Description

表示システム、表示装置、表示方法及びプログラム
 本発明は、表示システム、表示装置、表示方法及びプログラムに関する。
 従来、自動車製造工場等では複数の検査工程が実施されており、各検査工程を管理する管理システムが知られている。特許文献1には、実行済みの検査工程の検査結果が所定の基準を満たさない場合に、その旨を表示するシステムが開示されている。また、検査工程には、検査者の目視による検査も含まれている。目視検査においては、検査者は、検査項目毎に定められた判定基準に従って、検査対象物の合格、不合格を判定する。
 一方、近年では、拡張現実(Augmented Reality、以下AR)技術を利用した作業支援技術が知られている。作業支援の技術として、特許文献2には、作業者が装着する装着型AR表示装置に、現実空間の映像に重畳して、障害復旧作業に係る情報を表示する技術が開示されている。
特開2010-26757号公報 特開2011-248860号公報
 しかしながら、作業者の目視検査では、誤判定がなされる可能性もあり、本来不合格と判定されるべき製品が出荷されてしまうという問題があった。
 本発明はこのような問題点に鑑みなされたもので、検査者の目視による検査の検査精度の向上に繋がる支援を行うことを目的とする。
 そこで、本発明は、現実空間に重畳して画像を表示可能な表示装置と、前記表示装置が表示する画像を管理する管理装置とを有する表示システムであって、前記表示装置は、記憶手段から、現実空間に存在する検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を受信する第1の受信手段と、読み出された画像を、光透過型の表示手段を透過する現実空間に重畳して前記表示手段に表示する表示処理手段とを有する。
 本発明によれば、検査者の目視による検査を含んだ検査工程における検査精度を向上させることができる。
図1は、AR表示システムを示す図である。 図2は、AR表示装置を示す図である。 図3は、管理装置を示す図である。 図4は、完成車検査の説明図である。 図5は、AR表示システムによる検査支援処理を示すフローチャートである。 図6は、参照画像DBのデータ構成の一例を示す図である。 図7は、参考画像の表示例を示す図である。 図8Aは、選択指示に係る画像の拡大表示例を示す図である。 図8Bは、選択指示に係る画像の拡大表示例を示す図である。 図9は、参考画像の表示例を示す図である。
 以下、本発明の実施形態について図面に基づいて説明する。
 図1は、表示システムとしての拡張現実表示システムを示す図である。以下、拡張現実表示システムをAR(Augmented Reality)表示システムと称することとする。AR表示システムは、AR表示装置100と、管理装置110と、PC120とを有している。
 AR表示装置100は、眼鏡型のデバイスである。本実施形態においては、自動車工場における完成車の最終検査において、検査者がAR表示装置100を装着して検査対象物の目視検査を行うものとする。AR表示装置100はまた、光透過型の表示装置であり、眼鏡のレンズ部分に相当する位置には、光透過型の表示部105が設けられている。AR表示装置100を装着した検査者は、AR表示装置100の表示部105を介して、現実空間において、視線の先に存在する物体を見ることができる。さらに、表示部105には任意の画像が表示されるので、AR表示装置100を装着した検査者には、表示部105を通して見ている現実空間に、任意の画像が重畳された状態が認識される。このように、AR表示装置100は、現実空間に重畳して画像を表示可能な表示装置である。なお、現実空間と、任意の画像とが合成された空間を拡張現実空間と称する。さらに、表示部105に隣接する位置に撮影部107が設けられている。撮影部107は、撮影方向がAR表示装置100の装着者の視線方向と、撮影部107の撮影方向とが一致するように設置されているものとする。これにより、撮影部107は、AR表示装置100を装着する検査者が見ている現実空間の画像を撮影することができる。なお、他の例としては、撮影部107は、撮影方向と装着者の視線方向とが一定の関係になるように設置されていてもよい。
 管理装置110は、AR表示装置100が表示する情報を管理する。PC120は、例えば検査者の上司等予め定められたユーザが使用する情報処理装置である。ここで、PC120は、外部装置の一例である。AR表示装置100は、ネットワークを介して管理装置110及びPC120と通信可能であるものとする。AR表示装置100と管理装置110の間のネットワークと、AR表示装置100とのPC120の間のネットワークは同一であってもよく、異なるものであってもよい。
 図2は、AR表示装置100を示す図である。AR表示装置100は、CPU101と、ROM102と、RAM103と、通信I/F104と、表示部105と、マイク106と、撮影部107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。なお、後述するAR表示装置100の機能や処理は、CPU101がROM102に格納されているコンピュータのプログラムを読み出し、このプログラムを実行することにより実現されるものである。
 通信I/F104は、ネットワークを介して、管理装置110及びPC120との通信処理を行う。表示部105は、各種情報を表示する。マイク106は、AR表示装置100を装着した検査者の発話等の音声を入力する。なお、音声は、CPU101に送られ、CPU101において音声認識処理が行われる。CPU101は、音声認識の結果から、ユーザによる各種指示を受け付けることができる。撮影部107は、現実空間の撮影を行う。なお、本実施形態においては、AR表示装置100は、マイク106に入力された音声によりユーザからの指示を受け付けるものとするが、ユーザからの指示を受け付けるためのユーザインタフェースは、これに限定されるものではない。他の例としては、AR表示装置100は、AR表示装置100に設けられた不図示のボタンの押下に応じた指示を受け付けてもよい。また、他の例としては、AR表示装置100は、撮影部107により撮影された動画を基に、ユーザによるジェスチャに対するジェスチャ認識結果に応じた指示を受け付けてもよい。
 図3は、管理装置110を示す図である。管理装置110は、CPU111と、ROM112と、RAM113と、通信I/F114と、表示部115と、入力部116と、HDD117とを有している。CPU111、ROM112、RAM113及び通信I/F114は、それぞれCPU101、ROM102、RAM103及び通信I/F104と同様である。表示部115は、各種情報を表示する。入力部116は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。HDD117は、データや各種プログラム等を記憶する。後述する管理装置110の機能や処理は、CPU111がROM112又はHDD117に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。なお、PC120の構成は、管理装置110の構成と同様である。
 図4は、自動車工場において実施される完成車検査の説明図である。完成車検査においては、検査装置による検査と、検査者の目視による検査とを含んでおり、検査者Aは、AR表示装置100を装着し、目視による検査を行う。完成車200は、ベルトコンベアー210に載って、検査者Aの前に運ばれる。ベルトコンベアー210に載って運ばれてくる検査対象の自動車の仕様(車種、型式、装備、色等)は多種に渡り、検査者Aは、まず自動車の仕様を特定する。そして、検査者は、仕様毎の検査項目が記載されたスペックシート等を参照しつつ、仕様に応じて、検査項目を特定し、検査項目に示される検査対象物を目視により確認し、合格又は不合格の判定を下す。以下においては、完成車200の前面に設けられたエンブレム201を検査対象物とし、エンブレム201の形状の検査を例に説明する。
 図5は、AR表示システムによる検査支援処理を示すフローチャートである。本処理は、AR表示装置100を装着した検査者が検査を行う際に実行される処理である。まず、S100において、AR表示装置100のCPU101は、検査者による発話に応じて、検査項目の選択指示を受け付けたか否かを確認する。ここで、検査項目とは、検査者がこれから検査する検査対象物及びその検査内容を示す情報である。検査者が「エンブレムの形状検査」と発話すると、AR表示装置100のCPU101は、マイク106から入力された音声に対する音声認識を行い、音声認識結果に応じて、検査項目「エンブレムの形状」の選択指示を受け付ける。なお、前述の通り、検査者が選択指示を入力するためのユーザインタフェースは、マイク106に限定されるものではない。他の例としては、ユーザは、ボタンの押下、ジェスチャ等により選択指示の入力を行ってもよい。なお、以下の説明において、検査者が各種指示を入力する場合においても同様に、指示入力のためのユーザインタフェースは実施形態に限定されるものではない。ここで、S100の処理は、受付処理の一例である。
 AR表示装置100のCPU101は、選択指示を受け付けた場合には(S100でYes)、処理をS101へ進める。S101において、AR表示装置100のCPU101は、通信I/F104を介し、管理装置110に対し、選択指示に係る検査項目を含む画像取得要求を送信する(送信処理)。管理装置110のCPU111は、通信I/F114を介し、画像取得要求を受信すると、処理をS102へ進める。S102において、管理装置110のCPU111は、参照画像DBから画像取得要求に示される検査項目に対応付けて登録されている参照画像を抽出する。ここで、参照画像とは、検査において参照される画像であり、合格又は不合格と判定された検査対象物の画像である。
 図6は、参照画像DB118のデータ構成の一例を示す図である。参照画像DB118は、例えば、管理装置110のHDD117等の記憶部に格納されている。参照画像DB118には、検査項目と、参照画像とが対応付けて格納されている。図6に示すように、参照画像は合格画像及び不合格画像を含んでいる。ここで、合格画像は、合格と判定された検査対象物の画像である。不合格画像は、不合格と判定された検査対象物の画像である。このように、参照画像DB118は、参照画像を、合格画像であるか不合格画像であるかを識別可能に格納しているものとする。なお、合格画像及び不合格画像は、AR表示システムの設計時等、実際の処理が行われる前に、設計者等により予め作成され、参照画像DB118に登録されているものとする。
 管理装置110のCPU111は、参照画像DB118において、検査項目に対応付けられている参照画像を抽出する。なお、検査項目に対応付けて、合格画像及び不合格画像の両方が格納されている場合と、何れか一方の画像のみが格納されている場合とがある。前者の場合には、合格画像及び不合格画像の両方が抽出され、後者の場合には合格画像及び不合格画像のうち何れか一方の画像のみが抽出される。
 次に、S103において、管理装置110のCPU111は、抽出した参照画像と、各参照画像が合格画像であるか不合格画像であるかを識別する情報とを対応付けて、通信I/F114を介して、AR表示装置100に送信する。
 AR表示装置100のCPU101は、S103において参照画像を受信すると、処理をS104へ進める。ここで、S103の処理は、合格画像及び不合格画像のうち少なくとも一方を受信する受信処理の一例である。S104において、AR表示装置100のCPU101は、受信した参照画像の中から1つの合格画像と、1つの不合格画像とを抽出し、これらを表示部105に表示する。図7は、合格画像及び不合格画像の表示例を示す図である。表示部105の左側及び右側に、それぞれ1つの合格画像221及び1つの不合格画像223が表示されている。これにより、検査者は、表示部105を介して、現実空間に存在する検査対象物としての、完成車200のエンブレム201を見るのと同時に、表示部105に表示される合格画像221及び不合格画像223を見ることができる。すなわち、検査者は、現実空間に存在する検査対象物に合格画像221及び不合格画像223が重畳された拡張現実空間を認識することができる。
 さらに、合格画像221の近傍に、合格画像であることを示す情報222として「OK」の文字が表示され、NG画像223の近傍に、不合格画像であることを示す情報224として「NG」の文字が表示される。なお、合格画像、不合格画像であることを示す情報は、多国の検査者が容易に把握可能なものが好ましい。例えば、丸とバツ等の記号であってもよい。
 さらに、AR表示装置100は、表示部105における合格画像及び不合格画像それぞれを予め定められた表示位置に表示することが好ましい。これにより、検査者は、合格画像又は不合格画像であることを示す情報222,224を確認することなく、表示位置から合格画像であるのか不合格画像であるのかを特定することができる。本実施形態に係るAR表示装置100は、合格画像を表示部105の左側に表示し、不合格画像を表示部105の右側に表示するものとする。また、AR表示装置100のCPU101は、S103において、合格画像及び不合格画像のうち一方のみを受信した場合には、S104において、受信した画像(合格画像又は不合格画像)のみを表示するものとする。
 AR表示装置100のCPU101はさらに、合格画像221に隣接して「1/3」と表示する。ここで、分母「3」は、S103において受信した合格画像の総数であり、分子「1」は、表示中の合格画像221の識別番号である。AR表示装置100のCPU101はまた、不合格画像222に隣接して、同様に「1/4」と表示する。
 AR表示装置100のCPU101は、さらに検査者からの指示に応じて、表示部105に表示する画像を切り替えることができる。例えば、検査者が「合格画像変更」と発話すると、AR表示装置100のCPU101は、合格画像の表示切替指示を受け付ける。そして、AR表示装置100のCPU101は、表示中の合格画像に替えて、受信した他の合格画像を表示する。同様に、検査者が「不合格画像変更」と発話すると、AR表示装置100のCPU101は、不合格画像の表示切替指示を受け付け、表示中の不合格画像に替えて、受信した他の不合格画像を表示する。このように、AR表示装置100のCPU101は、表示切替指示を受け付ける度に、表示画像を切り替えることにより、受信した合格画像及び不合格画像を順に表示することができる。ここで、S104の処理は、管理装置110から受信した画像を表示する表示処理の一例である。
 なお、表示部105に同時に表示する画像の数は実施形態に限定されるものではない。他の例としては、表示部105の左側及び右側にそれぞれ合格画像及び不合格画像を3つずつ表示し、表示切替指示を受け付ける度に、表示中の3つの画像に替えて、次の3つの画像を表示してもよい。
 なお、AR表示装置100のCPU101は、S103において、参照画像の受信を契機に、管理装置110から受信した参照画像を表示することとしたが、これに限定されるものではない。他の例としては、AR表示装置100のCPU101は、S103において参照画像を受信し、かつ検査者から、参照画像の表示指示を受け付けた場合に、参照画像を表示することとしてもよい。
 検査者は、こうして、表示部105に合格画像及び不合格画像を表示させ、表示中の画像と、現実空間に存在する検査対象物とを比較する。そして、検査者は、特に似ている画像がある場合には、似ている画像の選択指示を入力する。例えば、検査者は、検査対象物を、表示中の合格画像と比較したいと考えた場合には、「合格画像選択」と発話する。このとき、AR表示装置100のCPU101は、マイク106に入力された、この音声に対し音声認識処理を行い、認識結果に応じて、表示中の合格画像の選択指示を受け付けたと判断する。同様に、AR表示装置100のCPU101は、表示中の不合格画像の選択指示を受け付けることもできる。
 これに対し、S105において、AR表示装置100のCPU101は、選択指示を受け付けた場合には(S105でYes)、処理をS106へ進める。AR表示装置100のCPU101は、選択指示を受け付けなかった場合には(S105でNo)、処理をS114へ進める。ここで、S105の処理は、表示部105が表示中の画像のうち一の画像の選択指示を受け付ける受付処理の一例である。
 S106において、AR表示装置100のCPU101は、選択指示に係る画像(合格画像又は不合格画像)を拡大して表示し、その後処理をS107へ進める。
 図8Aは、合格画像の拡大表示例を示す図である。合格画像231は、表示部105の左側に表示される。また、図8Bは、不合格画像の拡大表示例を示す図である。不合格画像232は、表示部105の右側に表示される。AR表示装置100のCPU101はさらに、検査者から変倍指示を受け付け、変倍指示に応じて、合格画像231又は不合格画像232を拡大、縮小することができる。これにより、合格画像231及び不合格画像232の表示サイズを、例えば実空間の検査対象物201を検査者が視認するサイズと同じサイズに調整することができる。さらに、検査者は、視線を移動することにより、検査対象物201の隣に、合格画像231又は不合格画像232を表示させることができる。さらに、AR表示装置100のCPU101は、検査者からの指示に従い、合格画像231または不合格画像232の表示位置を変更することができる。これにより、上記と同様に、検査対象物201の隣に、合格画像231又は不合格画像232を表示させることができる。このように、検査者は、実際の検査対象物と、合格画像231又は不合格画像232と、を、視線を動かすことなく、比較することができるため、より正確に合格不合格の判定を行うことができる。
 しかしながら、検査対象物が、表示部105に表示されるいずれの合格画像及び不合格画像にも類似していないような場合等、検査者が表示された画像を参照してもなお、合格不合格の判定に悩む場合がある。このような場合には、検査者は、例えば「判定依頼」と発話する。これに対し、AR表示装置100のCPU101は、マイク106に入力された検査者の音声に対し音声認識処理を行い、認識結果から判定依頼指示を受け付けたと判断する。
 これに対し、S107において、AR表示装置100のCPU101は、判定依頼指示を受け付けたか否かを確認する。AR表示装置100のCPU101は、判定依頼指示を受け付けた場合には(S107でYes)、処理をS108へ進める。AR表示装置100のCPU101は、判定依頼指示を受け付けなかった場合には(S107でNo)、処理をS116へ進める。ここで、S107の処理は、判定依頼指示を受け付ける受付処理の一例である。S108において、AR表示装置100のCPU101は、撮影制御処理を行う。本処理は、S106における撮影制御処理と同様に、画像を撮影し、記憶部に格納する処理である。次に、S109において、AR表示装置100のCPU101は、S108において得られた撮影画像をS100において選択された検査項目に対応付けてPC120に送信する。なお、他の例としては、S109において、AR表示装置100のCPU101は、S106において得られた撮影画像を送信することとしてもよい。この場合には、S108の処理は省略することができる。
 PC120のCPU111は、S109において、撮影画像と検査項目とを受信すると、処理をS110へ進める。S110において、PC120のCPU111は、受信した撮影画像を検査項目と共に表示部115に表示する。このとき、PC120の使用者である検査者の上司等は、表示部115に表示された撮影画像を確認し、合格又は不合格を判定し、入力部116を介して判定結果を入力する。ここで、PC120は、検査に対し正しい判断を下すことができる人物として予め定められた人物が使用する装置であればよい。他の例としては、PC120は、検査工程における判断基準の管理者や、最終検査工程全体の管理者等が使用する装置であってもよい。
 PC120の処理に対し、S111において、PC120のCPU111は、判定結果の入力を受け付ける。次に、S112において、PC120のCPU111は、通信I/F114を介して、AR表示装置100に判定結果を送信する。これに対し、AR表示装置100のCPU101は、S112において、判定結果を受信すると、処理をS113へ進める。S113において、AR表示装置100のCPU101は、判定結果を表示部105に表示する。これにより、検査者は、自身で判断できないような検査対象物に対しても、迅速に、正しい検査結果を得ることができる。なお、AR表示装置100のCPU101は、検査者からの指示に従い、適宜判定結果の表示を終了する。
 次に、S114において、AR表示装置100のCPU101は、S108において得られた撮影画像の画像登録指示を管理装置110に送信し、その後処理をS116へ進める。ここで、画像登録指示には、撮影画像の他、検査項目、S112において受信した判定結果が含まれているものとする。管理装置110のCPU111は、画像登録指示を受信すると、処理をS115へ進める。S115において、管理装置110のCPU111は、画像登録指示に係る撮影画像を、画像登録指示に係る検査項目に対応付けて、参照画像DB118に登録する。
 なお、他の例としては、AR表示装置100のCPU101は、判定結果を受信し、かつ検査者から、画像登録指示を受け付けた場合に、S114及びS115の処理を実行し、画像の登録を行うこととしてもよい。
 また、AR表示装置100のCPU101は、S116において、検査者により入力された判定結果を受け付ける。次に、S117において、AR表示装置100のCPU101は、判定結果を管理装置110に送信する。管理装置110は、判定結果を受信すると、S118において、判定結果を検査項目に対応付けて記録する。次に、S118において、管理装置110は、判定結果をHDD117等の記憶部に記録する。
 なお、AR表示装置100は、S114において、撮影画像を送信している場合には、S114にて送信した撮影画像の識別情報を判定結果と共に送信するものとする。管理装置110は、識別情報と判定結果とを受信した場合には、参照画像DB118において、識別情報により識別される撮影画像を特定する。そして、管理装置110は、判定結果、すなわち合格画像又は不合格画像であることを示す情報を、特定した撮影画像に対応付けて、参照画像DB118に記録する。
 AR表示装置100のCPU101は、S117の処理の後、S119において、ユーザによる発話に応じて、参照画像の表示終了指示を受け付けたか否かを確認する。AR表示装置100のCPU101は、表示終了指示を受け付けなかった場合には(S119でNo)、処理をS104へ進める。なお、他の例としては、AR表示装置100のCPU101は、表示終了指示を受け付けなかった場合には(S119でNo)、処理をS101へ進めることとしてもよい。これにより、より新しい状態の参照画像DB118を参照することができる。一方で、AR表示装置100のCPU101は、表示終了指示を受け付けた場合には(S119でYes)、処理を終了する。
 このように、本実施形態に係るAR表示装置100は、現実空間に存在する検査対象物に重畳して、合格画像と不合格画像とを表示する。このため、検査者は、検査対象物の判定を行う際に、実際の合格品及び不合格品の画像を見て、検査対象物の合格不合格の判定を行うことができる。このように、本実施形態に係るAR表示システムを用いた検査工程においては、合否の判定に曖昧さが含まれ得る文字に替えて画像(合格画像及び不合格画像)を、検査の判定基準として用いることができる。このため、検査者は、より簡単かつ正確に検査対象物の判定(検査)を行うことができる。このように、本実施形態に係るAR表示システムは、検査者の目視による検査の検査精度の向上に繋がる支援を行うことができる。
 また、従来は、検査者が合否の判定に迷う場合、主観で判定して結果を入力しており、適切な判定が行われないこともあった。そのような場合であっても、必ずしも検査の判定基準が更新されるわけではなく、次に同じような検査対象を検査することになった際、適切でない判定が繰り返されることがあった。これに対し、本実施形態に係るAR表示システムを用いた検査工程においては、判定基準を即時に更新することができるようになる。このため、次に同じような検査対象を検査することになった場合、検査者は、客観的な判定基準に基づいて判定することができるため、適切でない判定が繰り返されることを防止することができる。また、検査の判定基準を更新する場合、管理者等が手作業でマニュアルに記載された判定基準を書き替える必要があった。さらに、同じ検査が複数国の工場で行われる場合には、各国の言語への翻訳作業も必要であった。これに対し、上述のように、本実施形態に係るAR表示システムを用いた検査工程においては、参照画像が判定基準として用いられ、新たな参照画像が自動的に蓄積されることにより、判定基準が更新される。また、表示される合格画像及び不合格画像についても、両者を区別するための識別情報を丸とバツ等、多国で共通の記号や文字で表示することができる。したがって、管理者等による手作業での判定基準の更新を不要とし、さらに更新時の翻訳作業も不要とすることができる。
 次に、本実施形態に係るAR表示システムの第1の変更例について説明する。両手が自由になるという観点から、AR表示装置100は、本実施形態において説明したような眼鏡型や、ヘッドマウントディスプレイのような頭部装着型等、装着型の装置であることが好ましい。ただし、AR表示装置100は、装着型に限定されるものではない。例えば、検査時の視線移動が少ないようなケースにおいては、AR表示装置100は、例えば検査者の視線方向の位置であり、検査者と検査対象物の間の位置に検査対象物を透過して表示するように設置されてもよい。また、他の例としては、AR表示装置100は、携帯型であってもよい。
 また、第2の変更例としては、AR表示装置100は、光学透過型の表示装置に限定されるものではない。他の例としては、ビデオ透過型の表示装置であってもよい。この場合、AR表示装置100のCPU101は、図5に示す処理の開始時に、撮影部107を制御して検査対象物の画像を撮影し、撮影画像としての、現実空間の映像を表示部105に表示する。そして、S104において、AR表示装置100のCPU101は、表示部105に表示中の、現実空間の検査対象物の映像に重畳して、合格画像及び不合格画像を重畳表示するものとする。また、S106において、AR表示装置100のCPU101は、現実空間の検査対象物に替えて、表示部105に表示中の現実空間の映像中の検査対象物の画像に重畳して、重畳表示指示に係る画像を表示するものとする。
 第3の変更例について説明する。本実施形態に係るAR表示装置100は、2D画像を表示するものであったが、これに替えて3D画像を表示するものであってもよい。この場合、AR表示装置100は、右目及び左目に対応する位置に2つの表示部を有し、各表示部に3D画像を実現するような画像を表示すればよい。
 また、第4の変更例としては、AR表示装置100は、実行され得るすべての検査項目に対応する参照画像を予めROM102等の記憶部に記憶していてもよい。そして、AR表示装置100は、図5に示すS100において検査項目の選択指示を受け付けた場合に、S104において、記憶部に記憶されている参照画像の中から、選択指示に係る参照画像を読み出し(読出処理)、読み出した照画像を表示する。すなわち、この場合には、S101~S103の処理は不要である。さらに、AR表示装置100は、定期的に管理装置110に更新分の画像取得要求を送信し、管理装置110から更新分の参照画像(追加分の参照画像)を受信し、記憶部に格納してもよい。
 なお、前回送った参照画像を特定すべく、例えば、AR表示装置100は、参照画像を受信する度に、受信日時を記録しておき、前回の受信日時の情報を含んだ、更新分の画像取得要求を送信することとする。また、他の例としては、管理装置110がAR表示装置100に更新分の参照画像を送信した送信日時を記録しておくこととしてもよい。
 なお、AR表示装置100が、変更分の参照画像を受信するタイミングは特に限定されるものではない。AR表示装置100は、他の例としては、図5のS100において選択指示を受け付けたタイミングにおいて、更新分の参照画像を受信することとしてもよい。
 また、第5の変更例としては、AR表示装置100は、検査者からの検査項目の選択指示の入力に応じて検査を進める(図5のS100)のに替えて、自動的に検査を進めてもよい。例えば、AR表示装置100は、スペックシートに対応する検査情報をHDD117等に予め記憶しておく。ここで、検査情報は、検査項目と、各検査項目の検査順とを示す情報である。
 そして、検査者は、検査開始時に検査開始の指示を入力する。これに対応し、AR表示装置100は、検査情報に示される1番目の検査項目を特定し、1番目の検査項目を含む画像取得要求を管理装置110に送信することにより、1番目の検査項目の参照画像を受信し、これを表示する。その後、検査者は、1番目の検査が終了した時点で、検査終了の指示を入力する。AR表示装置100は、検査終了の指示を受け付けると、検査情報を参照し、検査対象を次の検査項目に進める。そして、AR表示装置100は、2番目の検査項目を含む画像取得要求を管理装置110に送信することにより、対応する参照画像を受信し、これを表示する。以降同様の処理を繰り返せばよい。
 また、第6の変更例としては、AR表示装置100は、図5のS104において、表示部105に参照画像を表示する際の参照画像の配置は実施形態に限定されるものではない。例えば、AR表示装置100は、図9に示すように、表示部105の右側に複数の不合格画像を表示してもよい。また、他の例としては、S104において、図8A、図8Bに示したように、表示部105に合格画像231のみ、又は不合格画像232のみを表示してもよい。なお、この場合も、図7を参照しつつ説明したのと同様に、総数と、表示中の画像の識別番号とを分数形式で表示してもよい。
 また、第7の変更例としては、AR表示装置100は、図5のS106において、検査者からの指示を受け付けることなく、自動的に選択指示に係る画像のサイズ調整及び表示位置の調整を行ってもよい。具体的には、AR表示装置100のCPU101は、まず撮影部107を制御して撮影画像を取得する。そして、CPU101は、撮影画像に対して画像認識を行い、検査対象物の画像を抽出し(画像認識処理)、検査対象物の画像の撮影画像中での位置と大きさを特定する。AR表示装置100のCPU101は、さらに撮影方向と視線方向の関係と、検査対象物の撮影画像中の位置及び大きさと、に基づいて、選択指示に係る画像の表示位置及び表示サイズを決定する。
 ここで、表示位置は、検査対象物に隣接する位置とする。そして、AR表示装置100のCPU101は、決定した表示位置に、決定した表示サイズで選択指示に係る画像を表示する。ここで、隣接する位置とは、表示部105内において検査者が把握する検査対象物の位置と前記表示位置との間の距離が所定の長さとなるような位置であり、さらに好ましくは、検査対象物と画像とが重ならないような位置であるものとする。また、隣接する位置は、表示部105内において検査者が把握する検査対象物のサイズに応じて定まる位置であってもよい。
 また、第8の変更例としては、AR表示装置100が合格画像及び不合格画像として表示する画像は静止画に限定されるものではなく、動画であってもよい。また、他の例としては、AR表示装置100は、撮影部107により撮影された動画からアニメーションを生成し、これを合格画像及び不合格画像として表示してもよい。
 また、第9の変更例としては、AR表示装置100は、PC120から判定結果を受信した撮影画像だけでなく、検査者が参照画像DB118への登録を希望する撮影画像を、参照画像として、判定結果に対応付けて参照画像DB118に登録してもよい。
 また、第10の変更例としては、AR表示装置100は、検査者が判定に悩んだケースに限らず、すべての検査項目について、検査中又は検査終了時に検査対象物の画像を撮影、記録することとしてもよい。これにより、後に品質不良等が生じた場合に、不良の原因を突き止めることができる。例えば、AR表示装置100は、参照画像とは別に、検査済み画像として、撮影画像を管理装置110に記録することとする。さらに、AR表示装置100は、検査結果を検査済み画像に対応付けて記録してもよい。
 また、第11の変更例としては、検査対象は、自動車のエンブレムに限定されるものではなく、例えば、木目調のステアリング・ホイール、バックドアとボディとのチリ(隙間)、コーションラベル(注意書き)、オーナメント(飾り)等であってもよい。また、検査対象は、完成車検査に限定されるものではなく、自動車の組立工程や塗装工程における完成検査等に適用してもよい。また、他の例としては、建築物の検査、プラント・設備・装置の検査等に適用してもよい。
 以上、上述した各実施形態によれば、検査者の目視による検査の検査精度の向上に繋がる支援を行うことができる。
 以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。

Claims (18)

  1.  現実空間に重畳して画像を表示可能な表示装置と、前記表示装置が表示する画像を管理する管理装置とを有する表示システムであって、
     前記表示装置は、
     記憶手段から、現実空間に存在する検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出手段と、
     読み出された画像を、光透過型の表示手段を透過する現実空間に重畳して前記表示手段に表示する表示処理手段と
    を有する表示システム。
  2.  前記表示装置は、
     前記管理装置から、前記合格画像及び前記不合格画像のうち少なくとも一方を受信する受信手段と、
     前記受信手段が受信した前記合格画像及び不合格画像を前記記憶手段に格納する格納手段と
    をさらに有する請求項1に記載の表示システム。
  3.  前記表示装置は、
     前記表示処理手段が表示中の画像のうち一の画像の選択指示を受け付け、さらに、前記選択指示に係る画像に対する変倍指示を受け付ける受付手段をさらに有し、
     前記表示処理手段は、前記変倍指示に係る画像を、変倍して表示する請求項1又は2に記載の表示システム。
  4.  前記表示装置は、
     前記表示処理手段が表示中の画像のうち一の画像の選択指示を受け付ける受付手段と、
     前記選択指示を受け付けた場合に、前記現実空間に存在する前記検査対象物の撮影を制御する撮影制御手段と、
     前記撮影制御手段の制御により得られた撮影画像に対する画像認識処理により、前記検査対象物の画像を抽出する画像認識手段と
    をさらに有し、
     前記表示処理手段は、前記画像認識手段により得られた前記検査対象物の位置に基づいて、前記現実空間の前記検査対象物に隣接する位置に、前記選択指示に係る画像を表示する請求項1に記載の表示システム。
  5.  前記表示装置は、
     前記現実空間の前記検査対象物の判定依頼指示を受け付ける受付手段と、
     前記判定依頼指示を受け付けた場合に、前記検査対象物の撮影を制御する撮影制御手段と、
     前記撮影制御手段の制御により得られた撮影画像を外部装置に送信する第1の送信手段と、
     前記外部装置から前記撮影画像に対する合格又は不合格の判定結果を受信する第2の受信手段と
    をさらに有し、
     前記表示処理手段は、前記判定結果を表示する請求項1に記載の表示システム。
  6.  前記表示装置は、
     前記撮影画像を前記判定結果と共に、前記管理装置に送信する第2の送信手段をさらに有し、
     前記管理装置は、
     前記判定結果に対応付けて前記撮影画像を記憶手段に登録する登録手段と、
     前記判定結果に従い、前記記憶手段に登録されている前記撮影画像を、前記合格画像又は前記不合格画像として前記表示装置に送信する送信手段と
    を有する請求項5に記載の表示システム。
  7.  前記表示装置は、
     検査項目の選択指示を受け付ける受付手段と、
     前記選択指示に係る検査項目に対応付けられている画像の取得要求を、前記管理装置に送信する第2の送信手段と、
     前記選択指示に係る前記検査項目に対応付けられている前記画像を、前記管理装置から受信する受信手段と
    をさらに有する請求項1に記載の表示システム。
  8.  前記表示装置は、装着型装置である請求項1乃至7何れか1項に記載の表示システム。
  9.  前記表示装置は、携帯型装置である請求項1乃至7何れか1項に記載の表示システム。
  10.  現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置と、前記表示装置が表示する画像を管理する管理装置とを有する表示システムであって、
     前記表示装置は、
     前記現実空間の撮影を制御する撮影制御手段と、
     記憶手段から、検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出手段と、
     読み出された画像を、前記撮影制御手段の制御により得られた撮影画像に重畳してビデオ透過型の表示手段に表示する表示処理手段と
    を有する表示システム。
  11.  現実空間に重畳して画像を表示可能な表示装置であって、
     記憶手段から、現実空間に存在する検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出手段と、
     読み出された画像を、光透過型の表示手段を透過する現実空間に重畳して前記表示手段に表示する表示処理手段を有する表示装置。
  12.  現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置であって、
     前記現実空間の撮影を制御する撮影制御手段と、
     記憶手段から、検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出手段と、
     読み出された画像を、前記撮影制御手段の制御により得られた撮影画像に重畳してビデオ透過型の表示手段に表示する表示処理手段と
    を有する表示装置。
  13.  現実空間に重畳して画像を表示可能な表示装置と、前記表示装置が表示する画像を管理する管理装置とを有する表示システムが実行する表示方法であって、
     前記表示装置が、記憶手段から、現実空間に存在する検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出ステップと、
     前記表示装置が、読み出された画像を、光透過型の表示手段を透過する現実空間に重畳して前記表示手段に表示する表示処理ステップと
    を含む表示方法。
  14.  現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置と、前記表示装置が表示する画像を管理する管理装置とを有する表示システムが実行する表示方法であって、
     前記表示装置が、前記現実空間の撮影を制御する撮影制御ステップと、
     前記表示装置が、記憶手段から、検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出ステップと、
     前記表示装置が、読み出された画像を、前記撮影制御ステップにおいて得られた撮影画像に重畳してビデオ透過型の表示手段に表示する表示処理ステップと
    を含む表示方法。
  15.  現実空間に重畳して画像を表示可能な表示装置が実行する表示方法であって、
     前記表示装置が、記憶手段から、現実空間に存在する検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出ステップと、
     前記表示装置が、読み出された画像を、光透過型の表示手段を透過する現実空間に重畳して前記表示手段に表示する表示処理ステップと
    を含む表示方法。
  16.  現実空間の撮影画像に、他の画像を重畳して表示可能な表示装置が実行する表示方法であって、
     前記現実空間の撮影を制御する撮影制御ステップと、
     記憶手段から、検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出ステップと、
     読み出された画像を、前記撮影制御ステップにおいて得られた撮影画像に重畳してビデオ透過型の表示手段に表示する表示処理ステップと
    を含む表示方法。
  17.  コンピュータを、
     記憶手段から、現実空間に存在する検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出手段と、
     読み出された画像を、光透過型の表示手段を透過する現実空間に重畳して前記表示手段に表示する表示処理手段と
    して機能させるためのプログラム。
  18.  コンピュータを、
     現実空間の撮影を制御する撮影制御手段と、
     記憶手段から、検査対象物に対する合格画像及び不合格画像のうち少なくとも一方を読み出す読出手段と、
     読み出された画像を、前記撮影制御手段の制御により得られた撮影画像に重畳してビデオ透過型の表示手段に表示する表示処理手段と
    して機能させるためのプログラム。
PCT/JP2016/069055 2015-08-21 2016-06-27 表示システム、表示装置、表示方法及びプログラム WO2017033561A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
MYPI2018000170A MY188596A (en) 2015-08-21 2016-06-27 Display system, display device, display method, and non-transitory computer readable recording medium
JP2016567690A JP6165362B1 (ja) 2015-08-21 2016-06-27 表示システム、表示装置、表示方法及びプログラム
US15/753,119 US10539509B2 (en) 2015-08-21 2016-06-27 Display system, display device, display method, and non-transitory computer readable recording medium
CN201680046493.XA CN107850550B (zh) 2015-08-21 2016-06-27 显示系统、显示装置、显示方法以及存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015163825 2015-08-21
JP2015-163825 2015-08-21

Publications (1)

Publication Number Publication Date
WO2017033561A1 true WO2017033561A1 (ja) 2017-03-02

Family

ID=58099780

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069055 WO2017033561A1 (ja) 2015-08-21 2016-06-27 表示システム、表示装置、表示方法及びプログラム

Country Status (5)

Country Link
US (1) US10539509B2 (ja)
JP (2) JP6165362B1 (ja)
CN (1) CN107850550B (ja)
MY (2) MY201893A (ja)
WO (1) WO2017033561A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019095431A (ja) * 2017-10-27 2019-06-20 ファイファー バキユーム トレーサガスによる被検査物の密封性検査用漏洩検知モジュール、および漏洩検知方法
WO2019139129A1 (ja) * 2018-01-11 2019-07-18 株式会社デンソー 設置位置情報提供装置及び設置位置情報提供方法
JP2019200201A (ja) * 2018-05-02 2019-11-21 ファイファー バキユーム トレーサガスによる被検査物の密封性を検査する漏洩検知モジュールおよび方法
WO2020066711A1 (ja) * 2018-09-26 2020-04-02 パナソニックIpマネジメント株式会社 内装材検査システム、及び、内装材検査方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180150070A1 (en) * 2016-11-29 2018-05-31 Caterpillar Inc. Portable inspection and control device
JP6856590B2 (ja) * 2018-08-31 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
CN109584226B (zh) * 2018-11-26 2021-02-05 浙江瑞度新材料科技有限公司 一种质检系统以及方法
RU2739901C1 (ru) * 2019-07-23 2020-12-29 Публичное акционерное общество "Ракетно-космическая корпорация "Энергия" имени С.П. Королёва" Мобильное устройство визуализации контроля технологического процесса с применением технологии дополненной реальности
US11624713B2 (en) * 2019-12-04 2023-04-11 Ford Global Technologies, Llc Flexible inspection system
JP2021096185A (ja) * 2019-12-18 2021-06-24 日本信号株式会社 検査システム
CN113282778A (zh) * 2020-02-20 2021-08-20 青岛海尔工业智能研究院有限公司 一种品质异常记录方法、装置、ar设备、系统及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230806A (ja) * 1999-02-09 2000-08-22 Sony Corp 位置認識装置、位置認識方法及び仮想画像立体合成装置
JP2003338700A (ja) * 2002-05-21 2003-11-28 Hitachi Giken Co Ltd 工業製品のリペア支援装置
JP2004184095A (ja) * 2002-11-29 2004-07-02 Mitsubishi Heavy Ind Ltd 検査支援装置
JP2007309729A (ja) * 2006-05-17 2007-11-29 Matsushita Electric Ind Co Ltd プレス加工品の外観検査方法とそれに用いる外観検査装置
JP2009150866A (ja) * 2007-11-29 2009-07-09 Toshiba Corp 外観検査装置、外観検査システム及び外観検査方法
JP2012007985A (ja) * 2010-06-24 2012-01-12 Nec Corp 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
JP2015001468A (ja) * 2013-06-17 2015-01-05 株式会社松井製作所 成形品の検査装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2237256B1 (es) * 2003-01-13 2006-02-01 Servicios Tecnologicos Para La Peritacion, S.L. Sistema de peritaje virtual.
JP4243500B2 (ja) 2003-03-12 2009-03-25 日本Cmo株式会社 ディスプレイパネルの欠陥検査システム
JP4599980B2 (ja) 2003-10-15 2010-12-15 パナソニック株式会社 多層配線構造の不良解析方法および不良解析装置
US7502068B2 (en) * 2004-06-22 2009-03-10 International Business Machines Corporation Sensor for imaging inside equipment
JP2006337235A (ja) * 2005-06-03 2006-12-14 Toppan Printing Co Ltd 目視検査支援システムおよび目視検査支援装置
US8224020B2 (en) 2007-11-29 2012-07-17 Kabushiki Kaisha Toshiba Appearance inspection apparatus, appearance inspection system, and appearance inspection appearance
JP4888792B2 (ja) 2008-07-18 2012-02-29 Necアクセステクニカ株式会社 検査工程管理システム
JP4913913B2 (ja) 2010-04-28 2012-04-11 新日鉄ソリューションズ株式会社 情報処理システム、情報処理方法及びプログラム
US9977496B2 (en) * 2010-07-23 2018-05-22 Telepatheye Inc. Eye-wearable device user interface and augmented reality method
JP5325267B2 (ja) * 2011-07-14 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP5929238B2 (ja) * 2012-01-27 2016-06-01 オムロン株式会社 画像検査方法および画像検査装置
DE102012101310C5 (de) * 2012-02-17 2014-09-04 Stephan Krebs Vorrichtung und Verfahren zur Druckbildkontrolle
US9723251B2 (en) * 2013-04-23 2017-08-01 Jaacob I. SLOTKY Technique for image acquisition and management
JP5824101B2 (ja) * 2014-04-14 2015-11-25 鹿島建設株式会社 電気機器の検査装置
KR102145542B1 (ko) * 2014-08-14 2020-08-18 삼성전자주식회사 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230806A (ja) * 1999-02-09 2000-08-22 Sony Corp 位置認識装置、位置認識方法及び仮想画像立体合成装置
JP2003338700A (ja) * 2002-05-21 2003-11-28 Hitachi Giken Co Ltd 工業製品のリペア支援装置
JP2004184095A (ja) * 2002-11-29 2004-07-02 Mitsubishi Heavy Ind Ltd 検査支援装置
JP2007309729A (ja) * 2006-05-17 2007-11-29 Matsushita Electric Ind Co Ltd プレス加工品の外観検査方法とそれに用いる外観検査装置
JP2009150866A (ja) * 2007-11-29 2009-07-09 Toshiba Corp 外観検査装置、外観検査システム及び外観検査方法
JP2012007985A (ja) * 2010-06-24 2012-01-12 Nec Corp 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
JP2015001468A (ja) * 2013-06-17 2015-01-05 株式会社松井製作所 成形品の検査装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019095431A (ja) * 2017-10-27 2019-06-20 ファイファー バキユーム トレーサガスによる被検査物の密封性検査用漏洩検知モジュール、および漏洩検知方法
WO2019139129A1 (ja) * 2018-01-11 2019-07-18 株式会社デンソー 設置位置情報提供装置及び設置位置情報提供方法
JP2019121322A (ja) * 2018-01-11 2019-07-22 株式会社デンソー 設置位置情報提供装置及び設置位置情報提供方法
JP2019200201A (ja) * 2018-05-02 2019-11-21 ファイファー バキユーム トレーサガスによる被検査物の密封性を検査する漏洩検知モジュールおよび方法
WO2020066711A1 (ja) * 2018-09-26 2020-04-02 パナソニックIpマネジメント株式会社 内装材検査システム、及び、内装材検査方法
JPWO2020066711A1 (ja) * 2018-09-26 2021-08-30 パナソニックIpマネジメント株式会社 内装材検査システム、及び、内装材検査方法
JP7054869B2 (ja) 2018-09-26 2022-04-15 パナソニックIpマネジメント株式会社 内装材検査システム、及び、内装材検査方法

Also Published As

Publication number Publication date
JP6279131B2 (ja) 2018-02-14
JPWO2017033561A1 (ja) 2017-08-24
US10539509B2 (en) 2020-01-21
MY188596A (en) 2021-12-22
JP2017182838A (ja) 2017-10-05
US20180238810A1 (en) 2018-08-23
MY201893A (en) 2024-03-22
CN107850550A (zh) 2018-03-27
JP6165362B1 (ja) 2017-07-19
CN107850550B (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
JP6279131B2 (ja) 表示システム及び情報処理方法
CN103558909B (zh) 交互投射显示方法及交互投射显示系统
US10095030B2 (en) Shape recognition device, shape recognition program, and shape recognition method
EP3009833B1 (de) In-Prozess Fehlerüberprüfung durch erweiterte Realität
JP6105180B1 (ja) 作業支援装置、作業支援方法及びプログラム
US10032297B2 (en) Simulation system, simulation device, and product explanation assistance method
WO2013035758A1 (ja) 情報表示システム、情報表示方法、及び記憶媒体
WO2017120363A1 (en) Task management using augmented reality devices
CN105469379A (zh) 视频目标区域遮挡方法和装置
CN108986766A (zh) 信息显示终端以及信息显示方法
CN110678353B (zh) 在vr眼镜中外部地显示车辆内部空间的拍摄图像
JP7138499B2 (ja) 作業支援システム、作業支援システム用のサーバ装置およびプログラム
JP7011569B2 (ja) 熟練度判定システム
JP6710095B2 (ja) 技術支援装置、方法、プログラムおよびシステム
US10460155B2 (en) Facial identification techniques
US11455750B2 (en) Operator characteristic-based visual overlays
JP6765846B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7094759B2 (ja) システム、情報処理方法及びプログラム
JP7036559B2 (ja) 杭位置検査装置及び杭位置検査方法
JP6601894B1 (ja) ウェアラブル検索システム、検索方法、及び、検索プログラム
US20200372722A1 (en) Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product
JP7059798B2 (ja) サーバ、システム、方法、及びプログラム
JP2024027122A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2024019208A (ja) 操作支援方法
CN114341945A (zh) 用于生成关于图像的至少一个被检查区域的信息的显微镜、控制电路、方法和计算机程序

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016567690

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16838908

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15753119

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16838908

Country of ref document: EP

Kind code of ref document: A1