WO2018062239A1 - 検査装置 - Google Patents

検査装置 Download PDF

Info

Publication number
WO2018062239A1
WO2018062239A1 PCT/JP2017/034893 JP2017034893W WO2018062239A1 WO 2018062239 A1 WO2018062239 A1 WO 2018062239A1 JP 2017034893 W JP2017034893 W JP 2017034893W WO 2018062239 A1 WO2018062239 A1 WO 2018062239A1
Authority
WO
WIPO (PCT)
Prior art keywords
trigger
worker
wearable camera
visual confirmation
work
Prior art date
Application number
PCT/JP2017/034893
Other languages
English (en)
French (fr)
Inventor
潤 堀口
耕平 中村
博行 岩月
勝宏 宮垣
加藤 慎司
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2018062239A1 publication Critical patent/WO2018062239A1/ja
Priority to US16/362,783 priority Critical patent/US20190222810A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8803Visual inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/845Objects on a conveyor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • This disclosure relates to an inspection apparatus used for visual confirmation work by an operator.
  • Patent Literature 1 describes a shooting method of a wearable camera that records an image when a trigger such as sound is detected.
  • Patent Document 1 may be able to suppress the timing of automatic shooting, it is necessary to perform some special operation as a shooting trigger such as generating sound.
  • This disclosure is intended to provide an inspection device that can easily perform automatic photographing of a wearable camera in visual confirmation work.
  • the present disclosure is an inspection device (1, 1A, 1B, 1C) used for a worker (H) 's visual confirmation work, and a trigger detection unit (51, 51A) for detecting a trigger of the visual confirmation work; And a camera control unit (52) that causes the wearable camera (20) attached to the worker to perform shooting when the trigger detection unit detects the visual confirmation trigger.
  • the camera control unit can cause the wearable camera to perform shooting according to the trigger detection. For this reason, image data can be automatically recorded only by performing an operation associated with the conventional visual confirmation work, even if a visual confirmation work worker does not perform a special operation for photographing with the camera. Thereby, the automatic photography of the wearable camera in the visual confirmation work can be easily performed.
  • FIG. 1 is a diagram schematically illustrating a schematic configuration of the inspection apparatus according to the first embodiment and an example of inspection work to which the inspection apparatus is applied.
  • FIG. 2 is a block diagram illustrating a configuration of the inspection apparatus according to the first embodiment.
  • FIG. 3 is a diagram illustrating a function related to automatic recording of visual confirmation work in the inspection apparatus according to the first embodiment.
  • FIG. 4 is a flowchart of the automatic recording process of the visual confirmation work.
  • FIG. 5 is a diagram illustrating a function related to automatic recording of visual confirmation work in the inspection apparatus according to the second embodiment.
  • FIG. 6 is a diagram for explaining a trigger detection method for visual confirmation work in the inspection apparatus according to the third embodiment.
  • FIG. 7 is a diagram for explaining a trigger detection method for visual confirmation work in the inspection apparatus according to the fourth embodiment.
  • the first embodiment will be described with reference to FIGS. First, an example of inspection work to which the inspection apparatus 1 according to the first embodiment is applied and a schematic configuration of the inspection apparatus 1 will be described with reference to FIGS. 1 and 2.
  • the inspection apparatus 1 is for determining whether or not an inspected object such as a workpiece 3 in a production intermediate stage or a finished product is a non-defective product in a production process of a product such as a heat exchanger.
  • Used for inspection work is the configuration shown in FIG.
  • the worker H of the inspection work inspects whether or not the work 3 sequentially transported by the transport conveyor 2 is a non-defective product.
  • the conveyor 2 is mounted with a plurality of sets including the work 3 and the sign 4 and conveys the plurality of sets such that each set is sequentially arranged in front of the worker H.
  • the signboard 4 is disposed in the vicinity of each work 3, and a code indicating the type of the work 3 is displayed.
  • the inspection device 1 includes a code reader 10, a wearable camera 20, a battery 30, and a tablet 40.
  • the code reader 10 includes a code reader unit 11, an illumination unit 12, a laser pointer unit 13, and a wireless unit 14.
  • the code reader unit 11 includes a light source that emits light, and emits light from the light source through the lens 10a, and then reflects the light by the reflected light that is reflected by the signboard 4 and received through the lens 10a.
  • the signboard 4 of the present embodiment is a display board on which a code is displayed.
  • the code is an identification index indicating the type of the work 3.
  • the code includes various codes such as a QR code (registered trademark) and a barcode.
  • the illumination unit 12 illuminates the work 3 and its surroundings through the lens 10a.
  • the laser pointer unit 13 irradiates a laser beam as a pointer through the lens 10a.
  • the laser pointer unit 13 assists the worker H in recognizing the read area in which the code reader unit 11 reads the code.
  • the region irradiated with the laser beam from the laser pointer unit 13 is set to coincide with the read region of the code reader unit 11.
  • the wireless unit 14 includes an antenna and a wireless circuit, and performs wireless communication with the wireless unit 41 of the tablet 40.
  • the wearable camera 20 is a small camera intended to be worn on the body or the like and photographed hands-free.
  • the wearable camera 20 includes a camera unit 21 and a radio unit 22 as shown in FIG.
  • the camera unit 21 photographs the workpiece 3 as a subject to be photographed with light received through the lens 20a.
  • the wireless unit 22 includes an antenna, a wireless circuit, and the like, and performs wireless communication with the wireless unit 42 of the tablet 40.
  • the battery 30 is a secondary battery that supplies DC power to the code reader 10 and the camera 20 via a harness 31 or the like.
  • the code reader 10, the wearable camera 20, and the battery 30 are mounted on the cap 5 worn by the worker H as shown in FIG. Further, the code reader 10 and the wearable camera 20 are installed on the hat 5 of the worker H so that the lens 10a of the code reader 10 and the lens 20a of the wearable camera 20 are arranged facing the front of the worker H. Has been.
  • the tablet 40 is a mobile terminal configured to be portable by the worker H. As shown in FIG. 2, the tablet 40 includes wireless units 41 and 42, an amplifier 43, a speaker 44, a touch panel 45, and a control device 50.
  • the radio units 41 and 42 are composed of an antenna, a radio circuit, and the like.
  • the wireless unit 41 performs wireless communication with the wireless unit 14 of the code reader 10.
  • the wireless unit 42 performs wireless communication with the wireless unit 22 of the wearable camera 20.
  • various short-range wireless communications are used for wireless communication between the wireless units.
  • Bluetooth registered trademark
  • Wi-Fi registered trademark
  • the amplifier 43 amplifies the analog signal output from the control device 50 and outputs an amplified signal.
  • the speaker 44 converts the amplified signal output from the amplifier 43 into sound and outputs the sound.
  • the touch panel 45 is a display device that combines a transparent key input operation unit and a display panel.
  • the control device 50 is a device that controls the operation of each part of the inspection device 1 related to the inspection work.
  • the control device 50 is physically a microcomputer including a CPU, a memory, a digital-analog conversion circuit, and the like.
  • the control device 50 executes inspection processing according to a computer program stored in advance in the memory.
  • the inspection process is a determination process for determining whether or not the workpiece 3 is a non-defective product based on a code acquired from the code reader 10 and a photographed image acquired by the wearable camera 20.
  • the reference image is composed of a still image or a moving image, and is used to determine whether or not the work 3 is a non-defective product.
  • One reference image includes a non-defective image showing the non-defective work 3 and a non-defective image showing the non-defective work 3.
  • the digital-analog conversion circuit outputs an analog signal indicating sound based on a command from the CPU.
  • the tablet 40 is carried by the worker H, for example, stored in the pocket of the worker H, or placed in the vicinity of the worker H.
  • standard operation of the inspection process of the workpiece 3 performed by the worker H is performed as follows, for example.
  • worker H turns his head to the signboard 4 side and causes the code reader 10 attached to the hat 5 to read the code from the signboard 4.
  • the head 3 is pointed at the work 3, and the wearable camera 20 that is also mounted on the hat 5 is photographed, and the photographed image is acquired. That is, a photographed image of the work 3 is acquired by the wearable camera 20 when the code reader 10 reads a code from the signboard 4 as a trigger.
  • the tablet 40 receives a code from the code reader 10 via wireless communication, and receives a captured image from the wearable camera 20.
  • the control device 50 in the tablet 40 selects a reference image corresponding to the received code from a plurality of types of reference images stored in advance in the memory as described above.
  • the control device 50 determines whether or not the work 3 is a non-defective product by collating the captured image of the work 3 with the reference image. Further, the control device 50 notifies the worker H of the quality determination result of the work 3 by sound information or visual information via the speaker 44 or the touch panel 45 of the tablet 40.
  • the worker H moves to the next work based on the information of the determination result output from the tablet 40. For example, when it is determined that the workpiece 3 is a non-defective product, the next workpiece 3 on the conveyor 2 is inspected.
  • the inspection device 1 configured as described above is carried by the worker H as a wearable device so that both hands of the worker H are free.
  • the inspection apparatus 1 can automatically perform the inspection work of the inspection object without requiring the operation using both hands of the worker H, and supports the inspection work of the worker H.
  • the burden on the worker H can be reduced.
  • the worker H since the worker H is in a hands-free state during the inspection work, the worker H can perform other work (for example, screw tightening) other than the inspection while performing the inspection work on the workpiece 3. Efficiency can be improved.
  • the wearable camera 20 attached to the worker H is used to automatically record an image including an object for visual confirmation (hereinafter referred to as “photographed object P”) as a work record.
  • photographed object P an object for visual confirmation
  • the above-described inspection apparatus 1 is used to automatically cause the wearable camera 20 attached to the worker H to take a picture when a trigger related to the visual confirmation work is detected. .
  • FIG. 1 shows that in the present embodiment, as shown in FIG.
  • detecting the fingertip 60 of the worker H within the screen D of the wearable camera 20 is employed as a trigger for visual confirmation work.
  • the frame of the screen D photographed by the wearable camera 20 is virtually illustrated by dotted lines around the photographed object P and the fingertip 60.
  • the control device 50 of the inspection apparatus 1 includes a trigger detection unit 51, a camera control unit 52, and a photographing data recording unit 53 as functions relating to such automatic recording of visual confirmation work. .
  • the trigger detection unit 51 detects a trigger related to visual confirmation work. More specifically, the trigger detection unit 51 detects a trigger based on information included in the screen D photographed by the wearable camera 20. Particularly in the first embodiment, the trigger detection unit 51 uses the detection of the fingertip 60 of the worker H within the screen D of the wearable camera 20 as a trigger.
  • the camera control unit 52 controls the operation of the wearable camera 20.
  • the camera control unit 52 causes the wearable camera 20 to take a picture when the trigger detection unit 51 detects a trigger for visual confirmation work (fingertip 60).
  • the camera control unit 52 causes the photographed object P, which is the object of the visual confirmation work, to be photographed in the image D of the wearable camera 20 based on the trigger detected by the trigger detection unit 51.
  • the photographing data recording unit 53 records photographing data of the visual confirmation work photographed by the wearable camera 20.
  • the photographic data can be in any form, such as a still image including the photographic object P that is the object of the visual confirmation work, or moving image data during the visual confirmation work.
  • the process of the flowchart shown in FIG. 4 is executed by the control device 50 of the inspection device 1 at predetermined intervals, for example.
  • step S1 the trigger detection unit 51 acquires the screen D of the wearable camera 20.
  • the wearable camera 20 constantly outputs a captured image to the tablet 40 during the operation of the inspection apparatus 1 and at least during the visual confirmation work.
  • the trigger detection unit 51 acquires the screen D from the captured image input in this manner under an arbitrary condition.
  • the trigger detection unit 51 determines whether or not a trigger is detected in the screen D acquired in step S1.
  • the trigger detection unit 51 uses the detection of the fingertip 60 of the worker H within the screen D of the wearable camera 20 as a trigger.
  • the worker H performs the pointing check while facing the object (photographed object P) for visual confirmation at the time of visual confirmation. That is, in general, the fingertip 60 of the worker H is positioned in the vicinity of the photographed object P at the time of visual confirmation.
  • the detection / non-detection of the trigger is determined based on the presence / absence of the fingertip 60 in the screen D using such an essential operation in the visual confirmation work.
  • step S2 As a result of the determination in step S2, when the fingertip 60 of the worker H as a trigger is detected in the screen D (YES in step S2), the trigger detection unit 51 performs camera control on the determination result indicating that the trigger has been detected. It outputs to the part 52, and progresses to step S3. If not (NO in step S2), the process returns to step S1, and steps S1 and S2 are repeated until a trigger is detected.
  • step S3 in response to the determination that the trigger is detected in the screen D in step S2, the camera control unit 52 performs focusing on the photographed object P.
  • the camera control unit 52 causes the focus position of the wearable camera 20 to be focused on the object P behind the fingertip 60 with the fingertip 60 as a trigger as a reference. Accordingly, it is possible to prevent the fingertip 60 positioned on the near side of the subject from being focused.
  • step S4 the camera control unit 52 performs shooting of the wearable camera 20.
  • the camera control unit 52 records shooting data of irregular work shot by the wearable camera 20 in the shooting data recording unit 53. At this time, the camera control unit 52 may control the photographing range in accordance with the size of the photographed object P.
  • the process of step S4 is completed, the process returns to step S1, and a series of processes is repeated.
  • the wearable camera 20 is imaged by the camera control unit 52 in response to the trigger detection. Can be done. For this reason, the image data can be automatically recorded only by performing the operation associated with the conventional visual confirmation work, even if the worker H of the visual confirmation work does not perform any special operation for photographing with the camera. Thereby, automatic imaging
  • the trigger detection unit 51 detects a trigger based on information (fingertip 60) included in the screen D photographed by the wearable camera 20. Based on the trigger detected by the trigger detection unit 51, the camera control unit 52 causes the photographed object P, which is the object of the visual confirmation work, to focus on the screen D of the wearable camera 20, and performs photographing.
  • the inspection apparatus 1 is configured as a trigger (fingertip 60) in the screen D even if the distance or angle between the camera 20 and the photographed object P changes every time the visual confirmation work is performed.
  • the worker H Since the image is automatically focused on the basis of this, the worker H performs a special operation especially for focus adjustment even when photographing the wearable camera 20 in the visual confirmation work in which the distance and angle of the photographed object changes each time. This makes it possible to perform simple and high-quality shooting without performing it.
  • the trigger detection part 51 uses detecting the fingertip 60 of the worker H within the screen D of the wearable camera 20 as a trigger.
  • the trigger is detected by using the pointing confirmation operation that the worker H has conventionally performed during the visual confirmation work, automatic photographing during the visual confirmation can be performed without causing the worker H to feel any burden. Can do.
  • the second embodiment will be described with reference to FIG.
  • the inspection apparatus 1A according to the second embodiment differs from the inspection apparatus 1 according to the first embodiment in information used as a trigger for visual confirmation work.
  • the inspection apparatus 1 ⁇ / b> A includes a laser sensor 61.
  • the laser sensor 61 can measure the distance from the object irradiated with the laser beam.
  • the trigger detection unit 51A of the control device 50A is triggered by the fact that the light spot 61A of the laser sensor 61 is held for a predetermined time in the screen D of the wearable camera 20. Use.
  • step S2 of FIG. 4 it is determined whether or not a trigger is detected in the screen D by the processing of the trigger detection unit 51A.
  • the third embodiment will be described with reference to FIG.
  • the inspection apparatus 1B according to the third embodiment differs from the inspection apparatus 1 according to the first embodiment in information used as a trigger for visual confirmation work.
  • the trigger detection unit 51 ⁇ / b> B has a template image 62 relating to a photographed object P to be visually confirmed, and the wearable camera 20 is based on the template image 62. Detection of the photographed object P in the screen D is used as a trigger.
  • step S2 of FIG. 4 it is determined whether or not a trigger is detected in the screen D by the processing of the trigger detection unit 51B.
  • the fourth embodiment will be described with reference to FIG.
  • the inspection apparatus 1C according to the fourth embodiment differs from the inspection apparatus 1 according to the first embodiment in information used as a trigger for visual confirmation work.
  • the trigger detection unit 51 ⁇ / b> C detects the marker 63 attached to the object P to be visually confirmed in the screen D of the wearable camera 20. Is used as a trigger.
  • step S2 of FIG. 4 it is determined whether or not a trigger is detected in the screen D by the processing of the trigger detection unit 51C.
  • the inspection object for pass / fail determination is the workpiece 3 which is a product in the intermediate stage of manufacturing, but a finished product can also be included.
  • the irregular work detection units 51, 51A, 51B, 51C, the camera control unit 52, and the photographic data recording unit 53 according to the embodiment are mounted on the tablet 40 and are carried by the worker H of the inspection work.
  • the configuration is exemplified, at least a part of these components may be provided in another place away from the work area of the worker H.
  • a configuration in which these components are mounted on a computer device installed at a remote location can be cited.
  • the installation position of the wearable camera 20 is not restricted to a head,

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Quality & Reliability (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Studio Devices (AREA)
  • General Factory Administration (AREA)

Abstract

本発明は、目視確認作業におけるウェアラブルカメラの自動撮影を簡易に行うことができる検査装置を提供することを目的とする。 本発明の検査装置(1)は、目視確認作業のトリガを検出するトリガ検出部(51)と、トリガ検出部(51)により目視確認作業のトリガが検出されたときに、作業員に装着されるウェアラブルカメラ(20)に撮影を行わせるカメラ制御部(52)と、を備える。

Description

検査装置 関連出願の相互参照
 本出願は、2016年9月28日に出願された日本国特許出願2016-190099号に基づくものであって、その優先権の利益を主張するものであり、その特許出願の全ての内容が、参照により本明細書に組み込まれる。
 本開示は、作業員の目視確認作業に用いられる検査装置に関する。
 作業員にウェアラブルカメラを装着させ、ウェアラブルカメラの撮像画像を利用して検査作業を支援する検査装置が知られている。
 検査作業のうち、計器類などの目視確認作業において、作業員に装着されるウェアラブルカメラを利用して、目視確認中の画像を作業記録として自動的に記録し、これにより作業負担を減らしたいというニーズがある。関連する技術として、例えば特許文献1には、音響等のトリガを検出したときに画像を記録するウェアラブルカメラの撮影手法が記載されている。
特開2004-356970号公報
 しかしながら、特許文献1に記載の従来手法は、自動撮影のタイミングを押さえることができる可能性はあるものの、音響を発するなどの撮影のトリガとして何らかの特別な動作を行う必要がある。
 本開示は、目視確認作業におけるウェアラブルカメラの自動撮影を簡易に行うことができる検査装置を提供することを目的とする。
 本開示は、作業員(H)の目視確認作業に用いられる検査装置(1,1A,1B,1C)であって、前記目視確認作業のトリガを検出するトリガ検出部(51,51A)と、前記トリガ検出部により前記目視確認作業のトリガが検出されたときに前記作業員に装着されるウェアラブルカメラ(20)に撮影を行わせるカメラ制御部(52)と、を備える検査装置である。
 この構成により、トリガ検出部が目視確認作業のトリガを検出したときに、トリガ検出に応じてカメラ制御部によりウェアラブルカメラに撮影を行わせることができる。このため、目視確認作業の作業員がカメラ撮影のために特別な操作をしなくても、従来の目視確認作業に伴う動作を行うだけで自動的に画像データを記録できる。これにより、目視確認作業におけるウェアラブルカメラの自動撮影を簡易に行うことができる。
 尚、「発明の概要」及び「請求の範囲」に記載した括弧内の符号は、後述する「発明を実施するための形態」との対応関係を示すものであって、「発明の概要」及び「請求の範囲」が、後述する「発明を実施するための形態」に限定されることを示すものではない。
図1は、第1実施形態に係る検査装置の概略構成と、検査装置が適用される検査作業の一例とを模式的に示す図である。 図2は、第1実施形態に係る検査装置の構成を示すブロック図である。 図3は、第1実施形態に係る検査装置のうち目視確認作業の自動記録に関する機能を示す図である。 図4は、目視確認作業の自動記録処理のフローチャートである。 図5は、第2実施形態に係る検査装置のうち目視確認作業の自動記録に関する機能を示す図である。 図6は、第3実施形態に係る検査装置における目視確認作業のトリガ検出手法を説明するための図である。 図7は、第4実施形態に係る検査装置における目視確認作業のトリガ検出手法を説明するための図である。
 以下、添付図面を参照しながら本実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。
[第1実施形態]
 図1~図4を参照して第1実施形態を説明する。まず図1及び図2を参照して、第1実施形態に係る検査装置1が適用される検査作業の一例と、検査装置1の概略構成について説明する。
 第1実施形態に係る検査装置1は、熱交換器等の製品の製造工程において、製造中間段階のワーク3や完成後の製品などの被検査物が良品であるか否かを判定するための検査作業に用いられる。このような検査作業としては、例えば図1に示される構成が挙げられる。
 検査作業の作業員Hは、搬送コンベア2で順次搬送されるワーク3が良品であるか否かを検査する。搬送コンベア2は、ワーク3と看板4からなる組の複数を載置され、各組が作業員Hの前方に順次配置されるようにこれらの複数の組を搬送する。看板4は、ワーク3ごとにこの近傍に配置されるもので、ワーク3の種類を示すコードが表示されている。
 作業員Hは、上記の検査作業を、本実施形態の検査装置1を利用して実施することができる。図1及び図2に示されるように、検査装置1は、コードリーダ10、ウェアラブルカメラ20、バッテリ30、及び、タブレット40を具備する。
 コードリーダ10は、図2に示されるように、コードリーダ部11、照明部12、レーザポインタ部13、及び無線部14を備える。
 コードリーダ部11は、光を照射する光源を備え、この光源からレンズ10aを通して光を出射してから看板4で反射されてレンズ10aを通して受光される反射光によってコードを読み込むための周知の光学式コードリードである。ここで、本実施形態の看板4は、コードが表示されている表示板である。コードは、ワーク3の種類を示す識別指標である。コードとしては、QRコード(登録商標)やバーコードなどの各種のコードが含まれる。
 照明部12は、レンズ10aを通してワーク3およびその周辺を照明する。
 レーザポインタ部13は、レンズ10aを通してレーザ光線をポインタとして照射する。レーザポインタ部13は、これにより、コードリーダ部11がコードを読み込む被読込領域を、作業員Hが認識することを補助する。本実施形態では、レーザポインタ部13によりレーザ光線が照射される領域が、コードリーダ部11の被読込領域に一致するように設定されている。
 無線部14は、アンテナや無線回路等から構成されて、タブレット40の無線部41との間で無線通信する。
 ウェアラブルカメラ20は、身体等に装着しハンズフリーで撮影する事を目的とした小型カメラである。ウェアラブルカメラ20は、図2に示されるように、カメラ部21及び無線部22を備える。カメラ部21は、レンズ20aを介して受光される光によって被撮影対象としてのワーク3を撮影する。無線部22は、アンテナや無線回路等から構成されて、タブレット40の無線部42との間で無線通信する。
 バッテリ30は、ハーネス等31を介してコードリーダ10やカメラ20に直流電力を供給する二次電池である。
 本実施形態では、コードリーダ10、ウェアラブルカメラ20、バッテリ30は、図1に示されるように、作業員Hが被る帽子5に装着されている。また、コードリーダ10及びウェアラブルカメラ20は、コードリーダ10のレンズ10aと、ウェアラブルカメラ20のレンズ20aとが作業員Hの前方に向いて配置されるように、作業員Hの帽子5上に設置されている。
 タブレット40は、作業員Hが携帯可能に構成されている携帯端末である。タブレット40は、図2に示されるように、無線部41,42、アンプ43、スピーカ44、タッチパネル45、及び制御装置50を備える。
 無線部41,42は、アンテナや無線回路等から構成される。無線部41は、コードリーダ10の無線部14との間で無線通信する。無線部42は、ウェアラブルカメラ20の無線部22との間で無線通信する。本実施形態において、各無線部間の無線通信には、各種の近距離無線通信が用いられる。近距離無線通信としては、Bluetooth(登録商標)や、Wi-Fi(登録商標)を用いることができる。
 アンプ43は、制御装置50から出力されるアナログ信号を電圧増幅して増幅信号を出力する。スピーカ44は、アンプ43から出力される増幅信号を音に変換して出力する。タッチパネル45は、透明のキー入力操作部と表示パネルとを組み合わせた表示ディスプレイ装置である。
 制御装置50は、上記の検査作業に係る検査装置1の各部の動作を制御する装置である。制御装置50は、物理的には、CPU、メモリ、デジタル-アナログ変換回路などから構成されるマイクロコンピュータである。制御装置50は、予めメモリに記憶されているコンピュータプログラムにしたがって、検査処理を実行する。検査処理は、コードリーダ10から取得するコード、及びウェアラブルカメラ20により取得された撮影画像に基づいて、ワーク3が良品であるか否かを判定する判定処理である。
 メモリには、複数種の基準画像が予め記憶されている。基準画像は、静止画、あるいは動画から成るもので、ワーク3が良品であるか否かを判別するために用いられる。1つの基準画像には、良品であるワーク3を示す良品画像と、不良品であるワーク3を示す不良品画像とが含まれる。デジタル-アナログ変換回路は、CPUの指令に基づいて音声を示すアナログ信号を出力する。
 本実施形態では、タブレット40は、例えば作業員Hのポケットに収納されるなど、作業員Hにより携帯されているか、または、作業員Hの近傍に載置されている。
 このように構成される検査装置1を利用することにより、作業員Hが実施するワーク3の検査処理の標準的な作業(以下「標準作業」という)は、例えば以下のような手順になる。
 まず、作業員Hは、頭を看板4側に向け、帽子5に装着されているコードリーダ10に看板4からコードを読み取らせる。次いで、頭をワーク3に向け、同じく帽子5に装着されているウェアラブルカメラ20にワーク3を撮影させ、撮影画像を取得させる。つまり、コードリーダ10が看板4からコードを読み込むことをトリガとして、ウェアラブルカメラ20によってワーク3の撮影画像を取得することになる。タブレット40は、無線通信を介してコードリーダ10からコードを受信し、ウェアラブルカメラ20から撮影画像を受信する。
 タブレット40内の制御装置50は、上述のとおりメモリに予め記憶された複数種の基準画像のうちから、受信したコードに対応する基準画像を選択する。制御装置50は、ワーク3の撮影画像をこの基準画像と照合させることで、ワーク3が良品であるか否かを判定する。また、制御装置50は、タブレット40のスピーカ44やタッチパネル45を介して、音情報や視覚情報によってワーク3の良否判定結果を作業員Hに報知する。
 作業員Hは、タブレット40から出力された判定結果の情報に基づき、次の作業に移行する。例えば、ワーク3が良品と判定された場合には、搬送コンベア2上の次のワーク3の検査を行う。
 以上のように構成される検査装置1は、ウェアラブル装置として、作業員Hの両手が自由になるように、作業員Hに携帯されている。検査装置1は、上記構成により、作業員Hの両手を使う操作を要せずに被検査物の検査作業を自動的に実施することを可能とし、作業員Hの検査作業を支援して作業員Hの負担を軽減させることができる。また、作業員Hは検査作業中にハンズフリーの状態であるので、作業員Hはワーク3の検査作業を行いながら、検査以外の他の作業(例えばネジ締めなど)も行うことができ、作業効率を向上できる。
 ところで、上記の検査作業の一種として、計器類の保守点検など作業員Hが対象物を目視により確認する目視確認作業がある。この目視確認作業において、作業員Hに装着されるウェアラブルカメラ20を利用して、目視確認の対象物(以下「撮影物P」という)を含む画像を作業記録として自動的に記録し、これにより作業員Hの作業負担を減らしたいというニーズがある。そこで本実施形態では、上述した検査装置1を利用して、目視確認作業に関するトリガが検出されたとき、作業員Hに装着されるウェアラブルカメラ20に自動的に撮影を行わせる構成をとっている。特に本実施形態では、図3に示されるように、ウェアラブルカメラ20の画面D内に作業員Hの指先60を検出することを、目視確認作業のトリガとして採用している。なお、図3では、ウェアラブルカメラ20により撮影される画面Dの枠を、撮影物P及び指先60の周囲に点線で仮想的に図示している。
 図3に示されるように、このような目視確認作業の自動記録に関する機能として、検査装置1の制御装置50は、トリガ検出部51と、カメラ制御部52と、撮影データ記録部53とを備える。
 トリガ検出部51は、目視確認作業に関するトリガを検出する。より詳細には、トリガ検出部51は、ウェアラブルカメラ20により撮影された画面Dに含まれる情報に基づきトリガを検出する。特に第1実施形態では、トリガ検出部51は、ウェアラブルカメラ20の画面D内で作業員Hの指先60を検出することをトリガとして用いる。
 カメラ制御部52は、ウェアラブルカメラ20の動作を制御する。ここでは、カメラ制御部52は、トリガ検出部51により目視確認作業のトリガ(指先60)が検出されたときに、ウェアラブルカメラ20に撮影を行わせる。また、カメラ制御部52は、トリガ検出部51により検出されたトリガに基づいて、ウェアラブルカメラ20の画像D内で目視確認作業の対象である撮影物Pに焦点を合わせて撮影を行わせる。
 撮影データ記録部53は、ウェアラブルカメラ20により撮影された目視確認作業の撮影データを記録する。撮影データは、例えば目視確認作業の対象である撮影物Pを含む静止画や、目視確認作業中の動画データなど、任意の形態とすることができる。
 図4を参照して、目視確認作業の自動記録処理の手順について説明する。図4に示すフローチャートの処理は、検査装置1の制御装置50により、例えば所定周期ごとに実行される。
 ステップS1では、トリガ検出部51により、ウェアラブルカメラ20の画面Dが取得される。ウェアラブルカメラ20は、検査装置1の作動中、少なくとも目視確認作業の実施中には、恒常的に撮影画像をタブレット40に出力する。トリガ検出部51は、このように入力される撮影画像から、任意の条件で画面Dを取得する。ステップS1の処理が完了するとステップS2に移動する。
 ステップS2では、トリガ検出部51により、ステップS1にて取得した画面Dの内でトリガを検出したか否かが判定される。トリガ検出部51は、ウェアラブルカメラ20の画面D内で、作業員Hの指先60を検出することをトリガとして用いる。通常、目視確認作業では、作業員Hは目視確認時に目視確認の対象物(撮影物P)の方を向き、指差確認を行う。つまり、一般的に、目視確認の際には撮影物Pの近傍に作業員Hの指先60が位置することになる。本実施形態では、このような目視確認作業における必須の動作を利用して、画面D内の指先60の有無によってトリガの検出/非検出を判定する。ステップS2の判定の結果、画面D内にトリガとしての作業員Hの指先60を検出した場合(ステップS2のYES)には、トリガ検出部51は、トリガを検出した旨の判定結果をカメラ制御部52に出力し、ステップS3に進む。そうでない場合(ステップS2のNO)には、ステップS1に戻り、トリガを検出するまでステップS1,S2を繰り返す。
 ステップS3では、ステップS2にて画面D内でトリガを検出したと判定されたのに応じて、カメラ制御部52により、撮影物Pに焦点合わせが行われる。カメラ制御部52は、例えば、トリガである指先60を基準として、ウェアラブルカメラ20の焦点位置をこの指先60よりも奥にある撮影物Pに当てるようにする。これにより、被写体の手前側に位置する指先60に焦点が合ってしまうことを防ぐことができる。ステップS3の処理が完了するとステップS4に移動する。
 ステップS4では、カメラ制御部52により、ウェアラブルカメラ20の撮影が実行される。カメラ制御部52は、ウェアラブルカメラ20により撮影されたイレギュラー作業の撮影データを撮影データ記録部53に記録する。なお、このとき、カメラ制御部52は、撮影物Pの大きさに合わせて撮影範囲を制御してもよい。ステップS4の処理が完了するとステップS1に戻り、一連の処理を繰り返す。
 次に、第1実施形態に係る検査装置1の効果について説明する。第1実施形態の検査装置1は、制御装置50のトリガ検出部51が目視確認作業のトリガ(指先60)を検出したときに、トリガ検出に応じてカメラ制御部52によりウェアラブルカメラ20に撮影を行わせることができる。このため、目視確認作業の作業員Hがカメラ撮影のために特別な操作をしなくても、従来の目視確認作業に伴う動作を行うだけで自動的に画像データを記録できる。これにより、目視確認作業におけるウェアラブルカメラ20の自動撮影を簡易に行うことができる。
 また、第1実施形態の検査装置1では、トリガ検出部51は、ウェアラブルカメラ20により撮影された画面Dに含まれる情報(指先60)に基づきトリガを検出する。カメラ制御部52は、トリガ検出部51により検出されたトリガに基づいて、ウェアラブルカメラ20の画面Dで目視確認作業の対象である撮影物Pに焦点を合わせて撮影を行わせる。
 従来、カメラと撮影物の距離が固定されるような通常の検査では、タイミングさえ合えば焦点の合った高品質な撮影は可能である。しかし、目視確認中のウェアラブルカメラ20を用いた撮影では、ウェアラブルカメラ20と撮影物Pとの距離や角度が、作業の都度変わってしまうため、高品質な撮影のためには焦点の調整がその都度必要となる。これに対して、第1形態の検査装置1は、上記構成により、目視確認作業の度にカメラ20と撮影物Pとの距離や角度が変わっても、画面D内のトリガ(指先60)に基づいて焦点を自動的に合わせて撮影するので、撮影物の距離や角度が都度変わる目視確認作業におけるウェアラブルカメラ20の撮影であっても、作業員Hが特に焦点調整のための特別な操作を行うことなく、簡易かつ高品質な撮影が可能となる。
 また、第1実施形態の検査装置1では、トリガ検出部51は、ウェアラブルカメラ20の画面D内で作業員Hの指先60を検出することをトリガとして用いる。これにより、作業員Hが従来より目視確認作業中に行う指差確認の動作を利用してトリガを検出するので、作業員Hに何ら負担を感じさせることなく目視確認中の自動撮影を行うことができる。
[第2実施形態]
 図5を参照して第2実施形態を説明する。第2実施形態に係る検査装置1Aは、目視確認作業のトリガとして用いる情報が第1実施形態の検査装置1と異なる。
 図5に示されるように、第2実施形態の検査装置1Aは、レーザセンサ61を備える。レーザセンサ61は、レーザ光線が照射された対象物との距離を計測できる。第2実施形態の検査装置1Aでは、制御装置50Aのトリガ検出部51Aは、ウェアラブルカメラ20の画面D内で、レーザセンサ61の光点61Aが静止する状態が所定時間保持されたことをトリガとして用いる。第2実施形態の構成の場合、図4のステップS2では、上記のトリガ検出部51Aの処理によって、画面Dの内でトリガを検出したか否かが判定される。
 この構成によっても、目視確認の対象物(撮影物P)を所定時間目視するという、従来より目視確認作業中に作業員Hが行う動作を利用してトリガを検出するので、作業員Hに何ら負担を感じさせることなく目視確認中の自動撮影を行うことができる。
[第3実施形態]
 図6を参照して第3実施形態を説明する。第3実施形態に係る検査装置1Bは、目視確認作業のトリガとして用いる情報が第1実施形態の検査装置1と異なる。
 図6に示されるように、第3実施形態の検査装置1Bにおいて、トリガ検出部51Bは、目視確認作業の対象の撮影物Pに関するテンプレート画像62を有し、テンプレート画像62に基づきウェアラブルカメラ20の画面D内で撮影物Pを検出することをトリガとして用いる。第3実施形態の構成の場合、図4のステップS2では、上記のトリガ検出部51Bの処理によって、画面Dの内でトリガを検出したか否かが判定される。
 この構成によっても、目視確認の対象物(撮影物P)を目視するという、従来より目視確認作業中に作業員Hが行う動作を利用してトリガを検出するので、作業員Hに何ら負担を感じさせることなく目視確認中の自動撮影を行うことができる。
[第4実施形態]
 図7を参照して第4実施形態を説明する。第4実施形態に係る検査装置1Cは、目視確認作業のトリガとして用いる情報が第1実施形態の検査装置1と異なる。
 図7に示されるように、第4実施形態の検査装置1Cにおいて、トリガ検出部51Cは、ウェアラブルカメラ20の画面D内で、目視確認作業の対象の撮影物Pに取り付けられたマーカ63を検出することをトリガとして用いる。第4実施形態の構成の場合、図4のステップS2では、上記のトリガ検出部51Cの処理によって、画面Dの内でトリガを検出したか否かが判定される。
 この構成によっても、目視確認の対象物(撮影物P)を目視するという、従来より目視確認作業中に作業員Hが行う動作を利用してトリガを検出するので、作業員Hに何ら負担を感じさせることなく目視確認中の自動撮影を行うことができる。
 以上、具体例を参照しつつ本実施形態について説明した。しかし、本開示はこれらの具体例に限定されるものではない。これら具体例に、当業者が適宜設計変更を加えたものも、本開示の特徴を備えている限り、本開示の範囲に包含される。前述した各具体例が備える各要素およびその配置、条件、形状などは、例示したものに限定されるわけではなく適宜変更することができる。前述した各具体例が備える各要素は、技術的な矛盾が生じない限り、適宜組み合わせを変えることができる。
 図1及び図2を参照して説明した、実施形態に係る検査装置1,1A,1B,1Cが適用される検査作業の内容や、検査装置1,1A,1B,1Cの具体的な構成は、あくまで一例であって図1及び図2に示されるものに限定されない。例えば、上記実施形態では、良否判定の被検査物は製造中間段階の生成物であるワーク3であったが、完成後の製品も含めることができる。
 上記実施形態では、実施形態に係るイレギュラー作業検出部51,51A,51B,51C、カメラ制御部52、及び撮影データ記録部53がタブレット40に搭載され、検査作業の作業者Hに携帯される構成を例示したが、これらの構成要素の少なくとも一部を作業員Hの作業領域から離れた別の場所に備える構成としてもよい。このような構成としては、例えば、遠隔位置に設置されるコンピュータ装置にこれらの構成要素が搭載される構成が挙げられる。
 また、上記実施形態では、ウェアラブルカメラ20が作業員Hの頭部に設置される構成を例示したが、ウェアラブルカメラ20の設置位置は頭部に限らず、作業員Hの腕部、手部、体幹部など、作業員Hの体の任意の部位に装着してもよい。

Claims (6)

  1.  作業員(H)の目視確認作業に用いられる検査装置(1,1A,1B,1C)であって、
     前記目視確認作業のトリガを検出するトリガ検出部(51,51A,51B,51C)と、
     前記トリガ検出部により前記目視確認作業のトリガが検出されたときに、前記作業員に装着されるウェアラブルカメラ(20)に撮影を行わせるカメラ制御部(52)と、
    を備える検査装置。
  2.  前記トリガ検出部は、前記ウェアラブルカメラにより撮影された画面(D)に含まれる情報に基づき前記トリガを検出し、
     前記カメラ制御部は、前記トリガ検出部により検出されたトリガに基づいて、前記ウェアラブルカメラの画面で前記目視確認作業の対象である撮影物(P)に焦点を合わせて撮影を行わせる、
    請求項1に記載の検査装置。
  3.  前記トリガ検出部(51)は、前記ウェアラブルカメラの画面内で前記作業員の指先(60)を検出することをトリガとして用いる、
    請求項2に記載の検査装置(1)。
  4.  前記トリガ検出部(51A)は、前記ウェアラブルカメラの画面内で、レーザセンサ(61)の光点(61A)が静止する状態が所定時間保持されたことをトリガとして用いる、
    請求項2に記載の検査装置(1A)。
  5.  前記トリガ検出部(51B)は、前記目視確認作業の対象の撮影物に関するテンプレート画像(62)を有し、前記テンプレート画像に基づき前記ウェアラブルカメラの画面内で前記撮影物を検出することをトリガとして用いる、
    請求項2に記載の検査装置(1B)。
  6.  前記トリガ検出部(51C)は、前記ウェアラブルカメラの画面内で、前記目視確認作業の対象の撮影物に取り付けられたマーカ(63)を検出することをトリガとして用いる、
    請求項2に記載の検査装置(1C)。
PCT/JP2017/034893 2016-09-28 2017-09-27 検査装置 WO2018062239A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/362,783 US20190222810A1 (en) 2016-09-28 2019-03-25 Inspection device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-190099 2016-09-28
JP2016190099A JP6696384B2 (ja) 2016-09-28 2016-09-28 検査装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/362,783 Continuation US20190222810A1 (en) 2016-09-28 2019-03-25 Inspection device

Publications (1)

Publication Number Publication Date
WO2018062239A1 true WO2018062239A1 (ja) 2018-04-05

Family

ID=61763389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/034893 WO2018062239A1 (ja) 2016-09-28 2017-09-27 検査装置

Country Status (3)

Country Link
US (1) US20190222810A1 (ja)
JP (1) JP6696384B2 (ja)
WO (1) WO2018062239A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018107689A1 (de) * 2018-03-29 2019-10-02 Krones Ag Verfahren und Vorrichtung zum Inspizieren von Behältnissen
CN110727128A (zh) * 2018-07-16 2020-01-24 法视特(上海)图像科技有限公司 一种手机屏自动检测线
JP6947463B1 (ja) * 2020-04-08 2021-10-13 ビーエルテック株式会社 流れ分析装置及び流れ分析方法
CN111935412B (zh) * 2020-10-19 2021-04-13 广东科凯达智能机器人有限公司 一种巡检目标自动识别跟踪的方法、系统及机器人

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4675730A (en) * 1985-09-06 1987-06-23 Aluminum Company Of America Video surface inspection system
JP2006148842A (ja) * 2004-10-20 2006-06-08 Daimei Kk ウェアラブル監視カメラシステム
WO2007141857A1 (ja) * 2006-06-08 2007-12-13 Olympus Corporation 外観検査装置
JP2010016693A (ja) * 2008-07-04 2010-01-21 Nikon Corp 電子カメラ
JP2012007985A (ja) * 2010-06-24 2012-01-12 Nec Corp 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
JP2016205836A (ja) * 2015-04-15 2016-12-08 株式会社デンソー 検査装置、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4675730A (en) * 1985-09-06 1987-06-23 Aluminum Company Of America Video surface inspection system
JP2006148842A (ja) * 2004-10-20 2006-06-08 Daimei Kk ウェアラブル監視カメラシステム
WO2007141857A1 (ja) * 2006-06-08 2007-12-13 Olympus Corporation 外観検査装置
JP2010016693A (ja) * 2008-07-04 2010-01-21 Nikon Corp 電子カメラ
JP2012007985A (ja) * 2010-06-24 2012-01-12 Nec Corp 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
JP2016205836A (ja) * 2015-04-15 2016-12-08 株式会社デンソー 検査装置、およびプログラム

Also Published As

Publication number Publication date
JP6696384B2 (ja) 2020-05-20
US20190222810A1 (en) 2019-07-18
JP2018054435A (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
WO2018062238A1 (ja) 検査装置
WO2018062239A1 (ja) 検査装置
JP6337822B2 (ja) 検査装置、およびプログラム
US20140139654A1 (en) Pickup system and pickup method
WO2019087870A1 (ja) 作業支援装置、作業支援方法及びプログラム
US11234074B2 (en) Sound pickup device, sound pickup system, sound pickup method, program, and calibration method
JP6391540B2 (ja) エレベーター点検支援システム
JP2004318823A (ja) 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
US10705025B2 (en) Inspection device
US20190220999A1 (en) Inspection device
US9998661B1 (en) Panoramic camera enclosure
JP2007147506A (ja) 配管検査システム及びそれに用いる自走式配管検査装置
JP2017068849A (ja) 物品の組立て状況情報表示装置
JP6610487B2 (ja) 検査装置
US20060244837A1 (en) Thermal imaging device
WO2018062241A1 (ja) 検査装置
US10908095B2 (en) Inspection device
JP2007010419A (ja) 対象物の3次元形状検証システム。
JP7416231B2 (ja) 設置支援装置、設置支援方法、およびプログラム
JP5779302B1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2012014361A (ja) 情報処理装置およびその制御方法
US20230401860A1 (en) Management apparatus, management method, management system, computer program and recording medium
JP2008215971A (ja) 検査システムおよび検査に用いる不具合記録システム
KR20220091191A (ko) 용접 품질 검사 장치 및 방법
CN114543697A (zh) 测量设备、控制设备和控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17856188

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17856188

Country of ref document: EP

Kind code of ref document: A1