KR102174035B1 - Object inspection method using an augmented-reality - Google Patents

Object inspection method using an augmented-reality Download PDF

Info

Publication number
KR102174035B1
KR102174035B1 KR1020190043559A KR20190043559A KR102174035B1 KR 102174035 B1 KR102174035 B1 KR 102174035B1 KR 1020190043559 A KR1020190043559 A KR 1020190043559A KR 20190043559 A KR20190043559 A KR 20190043559A KR 102174035 B1 KR102174035 B1 KR 102174035B1
Authority
KR
South Korea
Prior art keywords
assembly
augmented reality
assembly position
tracking
component
Prior art date
Application number
KR1020190043559A
Other languages
Korean (ko)
Other versions
KR20200121053A (en
Inventor
강문호
Original Assignee
선문대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 선문대학교 산학협력단 filed Critical 선문대학교 산학협력단
Priority to KR1020190043559A priority Critical patent/KR102174035B1/en
Publication of KR20200121053A publication Critical patent/KR20200121053A/en
Application granted granted Critical
Publication of KR102174035B1 publication Critical patent/KR102174035B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/23299
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • G01N2021/177Detector of the video camera type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 대상물의 특징점 데이터를 추출하는 제1 단계; 상기 제1 단계후 증강 현실 앱을 구동하는 제2 단계; 상기 제2 단계후 상기 대상물을 트래킹하는 제3 단계; 상기 제3 단계후 상기 대상물 트래킹후 대상물 부품 조립 위치를 설정하는 제4 단계; 상기 제4 단계후 부품 조립 여부를 검지하는 제5 단계; 상기 제5 단계후 부품 조립 실수 여부를 판단하는 제6 단계; 상기 제6 단계후 단말기의 대상물 이미지에 증강 현실 컨텐츠를 투영하는 제7 단계; 상기 제7 단계후 조립 실수가 확인되면 작업자에게 알려주는 제8 단계를 포함하는 증강 현실을 이용한 대상물 검사 방법이 제공될 수 있다. The present invention includes a first step of extracting feature point data of an object; A second step of driving an augmented reality app after the first step; A third step of tracking the object after the second step; A fourth step of setting an assembly position of an object part after tracking the object after the third step; A fifth step of detecting whether a component is assembled after the fourth step; A sixth step of determining whether a component assembly error has occurred after the fifth step; A seventh step of projecting the augmented reality content onto the object image of the terminal after the sixth step; An object inspection method using augmented reality including an eighth step of notifying an operator when an assembly mistake is confirmed after the seventh step may be provided.

Description

증강 현실을 이용한 대상물 검사 방법{Object inspection method using an augmented-reality}Object inspection method using an augmented-reality}

본 발명은 증강 현실을 이용한 대상물 검사방법에 관한 것이다. The present invention relates to an object inspection method using augmented reality.

각종 작업 현장에서 사소한 실수가 제품의 결함으로 직결될 수 있기 때문에,작업자의 작업을 돕고 실수를 방지하기 위한 여러 방식들이 사용되고 있다. Since minor mistakes in various work sites can be directly linked to defects in products, various methods are used to help workers work and prevent mistakes.

부품 조립의 경우, 일반적으로 픽업(pick-up) 광센서나 비젼센서 등이 활용되는데, 전자의 경우는 부품 박스마다 유선으로 센서를 설치해야 하고, 후자의 경우, 설비가 고가이며, 실시간으로 오조립을 검출하기가 쉽지 않다. In the case of assembly of parts, a pickup (pick-up) optical sensor or a vision sensor is generally used.In the former case, a sensor must be installed by wire for each component box, and in the latter case, the equipment is expensive and It is not easy to detect assembly.

초음파 센서를 이용하여 작업자 손의 위치를 추적하며 정해진 위치에 부품을 조립하도록 지원하는 장치들도 발표되고 있는데, 장치가 비교적 복잡하고 성능이 충분히 검증되어있지 않다. Devices that track the position of an operator's hand using an ultrasonic sensor and support assembling parts at a predetermined position are also being announced, but the device is relatively complex and its performance is not sufficiently verified.

본 발명은 대상물의 부품 조립 작업을 보조하고 조립 실수를 실시간으로 검지하기 위한 증강 현실을 이용한 대상물 검사 방법을 제공하는 것이다. The present invention provides a method for inspecting an object using augmented reality to assist in the assembly of parts of an object and to detect an assembly error in real time.

대상물의 특징점 데이터를 추출하는 단계;Extracting feature point data of the object;

증강 현실 앱을 구동하는 단계;Driving an augmented reality app;

상기 대상물을 트래킹하는 단계;Tracking the object;

상기 대상물 트래킹후 부품 조립 위치를 설정하는 단계;Setting a component assembly position after tracking the object;

부품 조립 여부를 검지하는 단계;Detecting whether a component is assembled;

대상물 이미지에 증강 현실 컨텐츠를 투영하는 단계;Projecting augmented reality content onto the object image;

조립 실수가 확인되면 작업자에게 알려주는 단계;Notifying the operator when an assembly mistake is confirmed;

를 포함하는 증강 현실을 이용한 대상물 검사 방법이 제공될 수 있다. An object inspection method using an augmented reality including a may be provided.

본 발명은, 네비게이션과 교육 분야에서 주로 활용되던 증강 현실(Augmented reality:AR) 기법을 산업분야에 적용한 것이다. 실제 작업 현장 위에 작업 지원을 위한 가상의 컨텐츠들을 투영하여 보임으로써, 유비쿼터스한 작업지원을 실현할 수 있다. The present invention applies an augmented reality (AR) technique that has been mainly used in the fields of navigation and education to the industrial field. By projecting virtual contents for work support on the actual work site, it is possible to realize ubiquitous work support.

증강 현실을 이용한 애플리케이션이 제공되므로, 예를 들어 차량 부품 조립시 발생하는 실수를 방지할 수 있다.Since an application using augmented reality is provided, it is possible to prevent mistakes that occur, for example, when assembling vehicle parts.

본 발명에 따르면, 부품 조립 작업을 보조하고, 조립 실수를 실시간으로 검지하기 위하여, 가상 현실 기반 모바일 안드로이드 앱을 제공할 수 있다.According to the present invention, it is possible to provide a virtual reality-based mobile Android app to assist component assembly work and detect assembly mistakes in real time.

본 발명은 증강 현실을 통해 대상물의 부품 조립 작업시, 부품 조립 실수를 실시간으로 검지하고 작업자에게 알려줄 수 있다.The present invention can detect in real time a component assembly error and notify an operator when assembling a component of an object through augmented reality.

부품 조립 실수를 실시간으로 확인할 수 있기 때문에, 제품의 불량률을 현저히 감소시킬 수 있다.Since it is possible to check component assembly mistakes in real time, it is possible to significantly reduce the defect rate of the product.

도 1은 본 발명에 따른 증강 현실을 이용한 대상물 검사 방법을 나타낸 플로우챠트이다.
도 2는 대상물의 형상 및 부품 조립 위치를 나타낸 도면이다.
도 3은 대상물의 부품 조립위치(POIt) 추출과정을 나타낸 설명도이다.
도 4는 대상물의 부품 조립 지원을 위한 증강 현실 컨텐츠를 나타낸 도면이다.
도 5는 대상물에 붉은색 마크를 도시한 도면이다.
도 6 내지 도 9는 대상물 부품 조립시 조립 실수 여부를 확인해주는 영상을 나타낸 도면이다.
1 is a flowchart showing an object inspection method using augmented reality according to the present invention.
2 is a view showing the shape of the object and the assembly position of the parts.
3 is an explanatory diagram showing a process of extracting a part assembly position (POIt) of an object.
4 is a diagram showing augmented reality content for supporting assembly of parts of an object.
5 is a diagram showing a red mark on an object.
6 to 9 are views showing an image confirming whether an assembly error occurs when assembling an object part.

이하, 본 발명을 실시하기 위한 구체적인 내용을 첨부된 예시 도면에 의거 상세하게 설명한다. Hereinafter, specific details for carrying out the present invention will be described in detail based on the accompanying exemplary drawings.

본 발명은 대상물의 부품 조립 작업을 보조하고 조립 실수를 실시간으로 검지하기 위한 증강 현실을 이용한 대상물 검사 방법이다. The present invention is a method for inspecting an object using augmented reality to assist in the assembly work of parts of the object and to detect assembly errors in real time.

도 1은 본 발명에 따른 증강 현실을 이용한 대상물 검사 방법을 나타낸 플로우챠트이다.1 is a flowchart showing an object inspection method using augmented reality according to the present invention.

도 1을 참조하면, 본 발명의 검사 방법은 대상물의 특징점 데이터를 추출하는 전처리 단계로서 제1 단계(S1), 증강 현실 앱을 구동하는 제2 단계(S2), 대상물을 트래킹하는 제3 단계(S3), 대상물 트래킹후 대상물 부품 조립 위치를 설정하는 제4 단계(S4), 부품 조립 여부를 검지하는 제5 단계(S5), 부품 조립 실수 여부를 판단하는 제6 단계(S6), 단말기의 대상물 이미지에 증강 현실 컨텐츠를 투영하는 제7 단계(S7), 조립 실수가 확인되면 음성으로 작업자에게 알려주는 제8 단계(S8)를 포함할 수 있다. Referring to Figure 1, the inspection method of the present invention is a pre-processing step of extracting feature point data of an object, a first step (S1), a second step of driving an augmented reality app (S2), a third step of tracking the object ( S3), the fourth step of setting the assembly position of the target part after tracking the target (S4), the fifth step of detecting whether or not the parts are assembled (S5), the sixth step of determining whether or not the parts are assembled (S6), the object of the terminal It may include a seventh step (S7) of projecting the augmented reality content onto the image, and an eighth step (S8) of notifying the operator by voice when an assembly mistake is confirmed.

대상물을 트래킹하는 제3 단계(S3)에서 부품 조립 위치를 설정하는 제4 단계(S4)로 넘어가는 과정에서, 증강 현실 앱이 부품 조립 위치 설정을 확정하지 않은 상태이면, 제4 단계(S4)로 넘어갈 수 있고, 대상물의 부품 조립 위치를 새롭게 설정할 수 있다.In the process of moving from the third step (S3) of tracking the object to the fourth step (S4) of setting the parts assembly position, if the augmented reality app has not determined the part assembly position setting, the fourth step (S4) You can move to and set a new location for assembling the parts of the object.

대상물을 트래킹하는 제3 단계(S3)에서 부품 조립 위치를 설정하는 제4 단계(S4)로 넘어가는 과정에서, 증강 현실 앱이 부품 조립 위치 설정을 이미 확정한 상태이면, 부품 조립 위치를 새로 설정하는 제4 단계를 생략하고 부품 조립 여부를 검지하는 제5 단계(S5)로 진행될 수 있다. In the process of moving from the third step (S3) of tracking the object to the fourth step (S4) of setting the part assembly position, if the augmented reality app has already confirmed the part assembly position setting, the part assembly position is newly set. The fourth step may be omitted and proceed to a fifth step (S5) of detecting whether or not the parts are assembled.

부품 조립 여부를 검지하는 제5 단계(S5)에서 판단한 결과는 제7 단계(S7)에서 단말기의 대상물 이미지에 증강 현실 컨텐츠를 투영할 수 있다. As a result of the determination in the fifth step (S5) of detecting whether the parts are assembled, the augmented reality content may be projected onto the object image of the terminal in the seventh step (S7).

만약, 부품 조립이 잘못되었으면 음성으로 작업자에게 알리는 제8 단계(S8)가 수행될 수 있다.If the assembly of the parts is wrong, the eighth step (S8) of notifying the operator by voice may be performed.

제8 단계(S8)후 다시 제2 단계(S2) 이후로 되돌아가서 제3 단계(S3)를 수행하는 제9 단계(S9)를 포함할 수 있다. It may include a ninth step (S9) of performing the third step (S3) by returning to the second step (S2) after the eighth step (S8).

도 2 내지 도 3을 참조하여 본 발명의 실시 예를 설명한다. An embodiment of the present invention will be described with reference to FIGS. 2 to 3.

본 발명의 실시 예로서, 대상물인 자동차 밸브 바디(10)의 부품 조립에 적용한 예를 다음과 같이 설명한다. As an embodiment of the present invention, an example applied to assembly of parts of the vehicle valve body 10 as an object will be described as follows.

제1 단계(S1)에서는, 단말기, 예를 들어 스마트폰의 카메라로 부품 조립 대상인 상용차 밸브 바디(10) 사진을 찍어 2D 밸브 바디 이미지(타겟 이미지)를 생성하고, 타겟(target) 이미지를 실시간 추적하기 위해 사용할 특징점(feature points) 데이터 셋을 추출할 수 있다. In the first step (S1), a 2D valve body image (target image) is generated by taking a picture of the commercial vehicle valve body 10 that is a component assembly target with a camera of a terminal, for example, a smartphone, and tracking the target image in real time. A data set of feature points to be used can be extracted.

제1 단계(S1)에서 수행하는 특징점 추출 과정은 전처리 과정으로 수행될 수 있다. 즉, 앱을 구동하기 전에 오프라인(off-line)으로 한번만 수행될 수 있다. The feature point extraction process performed in the first step S1 may be performed as a pre-processing process. That is, it can be performed only once offline (off-line) before running the app.

제2 단계(S2)에서 증강 현실 앱이 수행된 이후, 하나씩 반복 투입되는 대상물마다 그 대상물에 대한 부품 조립 위치를 각각 설정할 수 있고, 그 대상물에 대한 부품 조립 실수를 판단할 수 있다. After the augmented reality app is executed in the second step (S2), it is possible to set a component assembly position for each object repeatedly input one by one, and determine a component assembly error for the object.

스마트폰의 카메라를 대상물인 밸브 바디(10)가 보이는 위치에 설치한 후, 증강 현실 앱을 구동하고, 전처리 과정인 제1 단계에서 구한 특징점 데이터 셋을 기준으로, 대상물인 밸브 바디의 포즈를 알아낼 수 있다. 대상물은 여러 개가 차례로 투입될 수 있으므로 새롭게 투입되는 대상물마다 포즈를 알아내는 제3 단계(S3)의 대상물 트래킹 단계가 반복 수행될 수 있다. 대상물 트래킹 단계는 증강 현실 앱이 구동되는 동안 대상물마다 계속해서 반복될 수 있다. After installing the camera of the smartphone at the position where the target valve body 10 is visible, the augmented reality app is driven, and based on the feature point data set obtained in the first step of the preprocessing process, the pose of the target valve body can be found. I can. Since several objects may be sequentially input, the object tracking step of the third step (S3) of finding a pose for each newly introduced object may be repeatedly performed. The object tracking step may be continuously repeated for each object while the augmented reality app is running.

제3 단계에서 카메라에 대한 대상물의 자세나 위치를 포함하는 정보인 대상물의 포즈를 알았으면, 그 대상물 내에서 부품 조립 위치를 알 필요가 있다. 우리가 알아야 할 부품 조립 위치는 도 2에 도시된다. 각 부품 조립 위치의 타겟 좌표와 터치 좌표를 알 필요가 있다. 제1 부품(part1)의 제1 부품 조립 위치의 타겟 좌료(POIt1)를 알 필요가 있고, 제1 부품 조립 위치의 터치 좌표(POIc)도 알 필요가 있다.In the third step, if the pose of the object, which is information including the posture or position of the object relative to the camera, is known, it is necessary to know the assembly position of the part within the object. The parts assembly location we need to know is shown in FIG. 2. It is necessary to know the target coordinates and touch coordinates of each part assembly location. It is necessary to know the target seat POIt1 of the first part assembly position of the first part part1, and also the touch coordinate POIc of the first part assembly position.

한편, 스마트폰이 촬영한 대상물인 밸브 바디의 이미지 위에 부품 조립 위치를 포함한 정보인 증강 현실 컨텐츠를 투영할 필요가 있다. 증강 현실 컨텐츠를 투영하기 위해서 부품 조립 위치를 미리 알아야 하는데, 대상물인 밸브 바디의 이미지에서 각 부품의 위치 데이터가 주어지지 않기 때문에 예를 들면 5개의 부품에 대한 조립 위치를 파악할 필요가 있다. 이는 제4 단계이다. On the other hand, it is necessary to project augmented reality content, which is information including the assembly position of parts, on the image of the valve body, which is an object photographed by the smartphone. In order to project augmented reality content, it is necessary to know the assembly position of the parts in advance. Since the position data of each part is not given in the image of the valve body as the object, for example, it is necessary to determine the assembly positions of five parts. This is the fourth step.

도 3은 제4 단계를 설명한다. 대상물인 밸브 바디의 부품 조립 위치의 추출 과정을 나타낸 설명한다. 도 3을 참조하면, 앱이 수행되어 대상물인 밸브 바디 추적에 성공하면 타겟 포즈 행렬이 생성될 수 있다. 타겟 포즈 행렬로부터 카메라 좌표계를 기준으로 표현된 모델-뷰 행렬(model-view matrix)을 구한 후 모델-뷰 행렬은 원근-투사 행렬(perspective projection matrix)과 함께 저장할 수 있다. 3 illustrates the fourth step. A description will be made showing the extraction process of the assembly position of the part of the valve body as an object. Referring to FIG. 3, when the app is executed and the target valve body is successfully tracked, a target pose matrix may be generated. After obtaining a model-view matrix expressed based on the camera coordinate system from the target pose matrix, the model-view matrix can be stored together with a perspective projection matrix.

원근-투사 행렬은 지면에 대하여 카메라가 어느 위치 또는 어떤 각도로 설치되었는지 지면에 대한 카메라의 설치 함수를 표현하는 것으로 볼 수 있다. The perspective-projection matrix can be viewed as expressing the camera's installation function with respect to the ground at which position or angle the camera is installed with respect to the ground.

모델-뷰 행렬은 지면 위의 특정 위치에 특정 각도로 카메라가 고정되었을 때, 지면 위의 어느 위치에 어떤 각도로 각각의 대상물이 놓여졌는지 지면에 대한 대상물의 적재 함수를 표현하는 것으로 볼 수 있다. The model-view matrix can be viewed as expressing the loading function of the object relative to the ground, at which position on the ground and at what angle, when the camera is fixed at a specific angle on the ground.

대상물 트래킹이 완료된 이후, 사용자가 스마트폰 화면에 표시되는 대상물 이미지에서 부품 조립 위치를 찾아 터치하면, 각 부품 조립 위치의 터치 좌표가 생성될 수 있고, 앱은 화면위의 터치 좌표(POIc)를 추출한 후, 앞서 저장한 모델-뷰 행렬과 원근-투사 행렬의 역행렬들을 구하고, 이 역행렬들을 이용하여 터치 좌표에 해당하는 타겟 좌표(POIs)를 계산할 수 있다. 타켓 좌표는 대상물을 기준으로 한 대상물 좌표계에서 각 부품 조립 위치의 좌표일 수 있다. After the object tracking is complete, if the user finds and touches the assembly position of the part from the object image displayed on the smartphone screen, the touch coordinates of each part assembly position can be generated, and the app extracts the touch coordinates (POIc) on the screen. Thereafter, inverse matrices of the previously stored model-view matrix and perspective-projection matrix may be obtained, and target coordinates (POIs) corresponding to touch coordinates may be calculated using the inverse matrices. The target coordinates may be coordinates of each component assembly position in the object coordinate system based on the object.

전처리 단계인 제1 단계에서 대상물인 밸브 바디의 특징점을 추출하는데, 특징점은 예를 들면 밸브 바디의 외곽선 또는 지면과 밸브 다이의 경계선일 수 있다. 그 밖에도 특징점은 밸브 바디의 구멍이나 돌출된 부분의 에지일 수 있다. 이미지 처리가 용이한 특징점을 활용하면, 카메라 이미지의 여러 픽셀 중에서 대상물에 해당하는 픽셀을 인식할 수 있다. 이는 곧 카메라 이미지에서 대상물의 위치 또는 각도를 인식하는 것과 동등하다. In a first step, which is a pre-processing step, a feature point of a valve body as an object is extracted, and the feature point may be, for example, an outline of the valve body or a boundary line between the ground and the valve die. In addition, the feature point may be a hole in the valve body or an edge of a protruding portion. By using feature points that are easy to process images, it is possible to recognize a pixel corresponding to an object among several pixels of a camera image. This is equivalent to recognizing the position or angle of an object in a camera image.

제1 단계가 수행된 후에는 특징점 데이터 셋이 구해진 이후이고 모델-뷰 행렬과 원근-투사 행렬이 구해진 이후일 수 있다. 모델-뷰 행렬의 역행렬과 원근-투사 행렬의 역행렬도 당연히 구할 수 있다. 제1 단계가 수행된 이후에 다른 대상물로 교체된 경우, 대상물이 다른 위치에 놓여져도 대상물이 카메라의 시야각(Field of view)내에 놓여졌는지 여부, 시야각에 놓여졌다면 대상물의 위치나 각도를 파악할 수 있다. 이는 제1 단계에서 전처리 과정으로 구한 모델-뷰 행렬과 원근-투사 행렬을 기준으로 새로 놓여진 대상물의 이미지가 어떤 특징점의 차이를 갖는지 판단하는 방법으로 구할 수 있다. 새로운 대상물에 대하여 제2 단계인 대상물 트래킹 과정에서 그 대상물에 상응하는 새로운 모델-뷰 행렬과 원근-투사 행렬을 구할 수 있다. 이는 새로운 대상물의 위치나 각도를 포함하는 대상물의 포즈를 자동 인식하는 것과 동등하다고 할 수 있다.After the first step is performed, it may be after the feature point data set is obtained and after the model-view matrix and the perspective-projection matrix are obtained. Of course, the inverse of the model-view matrix and the inverse of the perspective-projection matrix can be obtained. If the object is replaced with another object after the first step is performed, even if the object is placed in a different position, whether the object is placed within the field of view of the camera, and if placed in the field of view, the position or angle of the object can be determined. . This can be obtained by determining which feature point has a difference in the image of the newly placed object based on the model-view matrix and the perspective-projection matrix obtained by the preprocessing process in the first step. For a new object, a new model-view matrix and a perspective-projection matrix corresponding to the object can be obtained in the second step, the object tracking process. This can be said to be equivalent to automatically recognizing the pose of the object including the position or angle of the new object.

대상물에 대한 부품 조립 위치는 카메라 또는 증강 현실 앱에 입력되어 있지 않으므로 사용자의 티칭(teaching)에 의하여 구할 수 있다. 사용자가 카메라의 대상물 이미지에서 부품 조립 위치를 터치하면, 터치 좌표가 생성될 수 있다. 증강 현실 앱은 모델-뷰 행렬의 역행렬과 원근-투사 행렬의 역행렬을 이용하여 부품 조립 위치의 타겟 좌표를 산출할 수 있다. The assembly position of the part for the object is not input into the camera or the augmented reality app, so it can be obtained by the user's teaching. When the user touches the assembly position of the part in the object image of the camera, touch coordinates may be generated. The augmented reality app can calculate the target coordinates of the assembly position of the part by using the inverse of the model-view matrix and the inverse of the perspective-projection matrix.

구해진 타겟 좌표는 화면에 표시되어 사용자가 확인할 수 있고, 증강 현실 앱에 기록되어 부품의 조립 위치를 설정하거나 정위치 조립 여부를 판단할 수 있다. 한편, 부품 조립 위치 설정 과정은 초기화 루틴에서 한번만 수행될 수 있다. The obtained target coordinates are displayed on the screen and can be checked by the user, and are recorded in an augmented reality app to set the assembly position of the part or determine whether to assemble in place. On the other hand, the component assembly position setting process can be performed only once in the initialization routine.

다음으로 증강 현실 컨텐츠를 생성하는 과정을 설명한다.Next, a process of generating augmented reality content will be described.

도 4를 참조하면, 증강 현실 컨텐츠는, 각 부품의 부품 조립 위치 또는 각 부품의 부품 조립 순서를 나타내는 3D 박스, 부품 조립 위치의 타겟 좌표 또는 터치 좌표를 나타내는 좌표 텍스트, 사용자가 부품 조립 위치 또는 3D 박스를 터치하면 팝업되는 부품 이미지나 부품 텍스트를 포함하는 부품 정보, 부품 조립 상태를 표시하는 조립 상황 인디케이터, 조립 상태를 음성으로 알려주는 음성 메시지 중 적어도 하나를 포함할 수 있다. Referring to FIG. 4, the augmented reality content includes a 3D box indicating a component assembly position of each component or a component assembly sequence of each component, a coordinate text representing target coordinates or touch coordinates of the component assembly location, and a user assembly location or 3D It may include at least one of a part image or part information including part text that is popped up when the box is touched, an assembly status indicator that displays a component assembly state, and a voice message that informs the assembly state by voice.

도 4에서 3D 박스의 z축 위치는 0으로 설정될 수 있다. 조립 실수가 발생하면 작업자에게 즉시 알려주기 위해, 스마트폰 마이크를 통한 음성 메시지가 발생될 수 있다. 음성 메시지 발생은 단말기 또는 스마트폰의 TTS (text to speech) 기능을 활용하여 구현할 수 있다. 증강 현실 컨텐츠 중에서, 3D 박스가 가장 중요한 요소로, 대상물의 정해진 부품 조립 위치에 3D 박스가 정확하게 표시되어야 하며, 3D 박스 생성 과정은 다음과 같다. In FIG. 4, the z-axis position of the 3D box may be set to 0. In order to immediately notify the operator when an assembly mistake occurs, a voice message through the smartphone microphone may be generated. Voice message generation can be implemented by utilizing the text to speech (TTS) function of a terminal or smartphone. Among augmented reality contents, a 3D box is the most important element, and a 3D box must be accurately displayed at a predetermined part assembly position of an object, and the 3D box creation process is as follows.

1) 3D 박스의 랜더링 또는 3D 박스를 단말기 화면에 표시하기 위한 가상 카메라를 생성할 수 있다. 각각의 3D 박스는 각각의 가상 카메라에 입출력되는 이미지를 표시하는 윈도우일 수 있다.1) You can create a virtual camera to render a 3D box or display a 3D box on the terminal screen. Each 3D box may be a window displaying images input/output to each virtual camera.

2) 단말기 카메라로 촬영된 후 단말기 화면에 표시되는 대상물 이미지(밸브 바디 이미지)로부터 대상물을 인식하는 대상물 트래킹 단계인 도 1의 제3 단계를 수행할 수 있다.2) The third step of FIG. 1, which is an object tracking step of recognizing an object from an object image (valve body image) displayed on the terminal screen after being photographed with a terminal camera, may be performed.

3) 대상물 트래킹 단계에서 대상물을 인식하면 모델-뷰 행렬의 역행렬인 인버스 모델 뷰(inverse model-view) 행렬을 계산하고, 인버스 모델 뷰 행렬을 이용하여 대상물을 기준으로 한 단말기 카메라의 위치, 회전, 방향 중 적어도 하나를 포함하는 단말기 카메라의 포즈를 구할 수 있다. 즉, 대상물과 단말기 카메라 상호간의 포즈 정보를 포함하는 단말기 카메라의 모델 뷰 행렬을 구할 수 있다.3) When the object is recognized in the object tracking step, the inverse model-view matrix, which is an inverse matrix of the model-view matrix, is calculated, and the position, rotation, and rotation of the terminal camera based on the object using the inverse model view matrix. A pose of the terminal camera including at least one of the directions may be obtained. That is, it is possible to obtain a model view matrix of the terminal camera including pose information between the object and the terminal camera.

4) 가상 카메라의 포즈를 단말기 카메라의 포즈와 동일하게 설정할 수 있다. 즉, 대상물과 가상 카메라 상호간의 포즈 정보를 포함하는 가상 카메라의 모델 뷰 행렬을 구할 수 있다. 4) The pose of the virtual camera can be set the same as that of the terminal camera. That is, a model view matrix of a virtual camera including pose information between an object and the virtual camera can be obtained.

5)캘리브레이션(calibration)을 수행하여 단말기 카메라의 해상도(resolution), 크기(size), 초점 거리(focal-length), 시야각(fov : field of view), 종횡비(aspect-ratio) 중 적어도 하나를 포함하는 단말기 카메라 파라미터들을 구하고, 단말기 카메라 파라미터들을 이용하여 가상 카메라의 원근 투사 모드 또는 가상 카메라의 원근 투사 행렬을 구할 수 있다. 5) Perform calibration to include at least one of the resolution, size, focal-length, field of view, and aspect ratio of the terminal camera. The desired terminal camera parameters may be obtained, and the perspective projection mode of the virtual camera or the perspective projection matrix of the virtual camera may be obtained using the terminal camera parameters.

6) 가상 카메라의 모델 뷰 행렬 또는 원근 투사 행렬을 포함하는 가상 카메라의 지오메트리(geometry)를 생성한 후, 부품 조립 위치 설정 과정에서 알아낸 부품 조립 위치와 동일한 지오메트리 위치에 3D 박스들을 위치시킬 수 있다. 6) After creating the geometry of the virtual camera including the model view matrix or the perspective projection matrix of the virtual camera, the 3D boxes can be placed at the same geometry location as the part assembly location found in the part assembly location setting process. .

각각의 3D 박스는 부품들이 정해진 위치와 순서에 따라 조립되는지를 실시간 검지하는 수단인 각각의 가상 카메라일 수 있다. 각각의 3D 박스로 파악한 조립 정보를 보고 조립 실수가 발생하면 작업자에게 즉각 알려주어 수정하도록 할 수 있다. Each 3D box may be a virtual camera that is a means for real-time detection of whether parts are assembled according to a predetermined position and order. The assembly information identified by each 3D box can be viewed, and if an assembly error occurs, the operator can be immediately informed and corrected.

각각의 3D 박스 또는 각각의 가상 카메라가 부품 조립의 양호 또는 불량 판단을 하기 위하여 부품이나 조립 위치의 특징점을 이용하는 방법이 있을 수 있다.There may be a method for each 3D box or each virtual camera to use the feature points of the part or the assembly location to determine the good or bad of the part assembly.

그 외에도, 부품에 형상이나 색상 등의 추가 특징을 부여할 수 있다. 이러한 방안은 주변의 환경 노이즈의 영향을 덜 받으면서 쉽게 부품의 검지 유무를 확인하기 위함이다. 예를 들면, 부품의 일부에 밸브 바디와 구별할 수 있는 색을 칠하고 이를 검지하는 방식일 수 있다. 도 5를 참조하면, 영상에서 조립될 부품의 머리 일부분에 붉은색을 칠하여 조립한 모습을 보일 수 있다. 해당 가상 카메라 또는 3D 박스에 붉은 색상이 갑자기 감지되면 해당 부품이 잘 조립된 것으로 판단할 수 있다. 미리 부품에 색을 칠하는 별도의 과정이 필요하지만, 색을 판별하는 간단한 알고리즘을 통해 부품 조립 여부를 매우 정확하고 신속하게 판별할 수 있다. In addition, additional features, such as shape or color, can be given to the part. This method is to easily check the presence or absence of detection of parts while being less affected by surrounding environmental noise. For example, a part of the part may be painted with a color that can be distinguished from the valve body and detected. Referring to FIG. 5, in the image, a part of the head of the component to be assembled may be painted red to show the assembly. If a red color is suddenly detected in the virtual camera or 3D box, it can be determined that the part is well assembled. Although a separate process of coloring parts is required in advance, it is possible to very accurately and quickly determine whether parts are assembled through a simple algorithm to determine the color.

도 6 내지 도 9는 대상물인 밸브 바디에 부품 조립 결과를 보인 도면이다. 도 6 내지 도 9를 참조하면, 5개의 부품을 밸브 바디(10)의 정해진 위치에 순서에 따라 조립할 수 있다.6 to 9 are views showing a result of assembly of a component to a valve body as an object. Referring to FIGS. 6 to 9, five components may be assembled in order at predetermined positions of the valve body 10.

부품 조립 위치에 표시된 3D 박스 안에 보이는 숫자가 조립 순서를 나타내고, 현재 조립해야 할 부품은 3D 박스의 색을 노란색으로 알려줄 수 있다. 현재 조립해야 할 순서가 아닌 곳은 붉은 색의 3D 박스로 사용자에게 알려줄 수 있다.The number displayed in the 3D box displayed at the assembly location of the part indicates the assembly order, and the currently assembled part can indicate the color of the 3D box in yellow. Where the current assembly is not in order, the user can be informed with a red 3D box.

조립 상황 인디케이터가 표시되며, 조립 과정이 정상적으로 수행되면 조립 상황이 OK로 표시되고, 조립 오류가 발생되면 ERR로 표시되어 작업자가 확인 후 처리하도록 할 수 있으며, 작업이 정상적으로 완료되면 END가 표시될 수 있다. The assembly status indicator is displayed.If the assembly process is normally performed, the assembly status is displayed as OK, and if an assembly error occurs, it is displayed as ERR so that the operator can process it after confirmation, and when the work is completed normally, END may be displayed. have.

조립 도중에 스마트폰 화면에서 부품 조립 위치 또는 3D 박스를 터치하면, 해당 위치에 조립될 부품의 이미지나 부품 텍스트를 포함하는 부품 정보가 화면의 하단에 표시되어 작업자가 확인할 수 있다.If a part assembly location or 3D box is touched on the smartphone screen during assembly, part information including an image or part text of the part to be assembled at that location is displayed at the bottom of the screen so that the operator can check it.

도 6 내지 도 9를 참조하여 단계별로 설명하면 다음과 같다. The step-by-step description with reference to FIGS. 6 to 9 is as follows.

도 6을 참조하면, 1번 부품(part1)(예를 들어 나사)이 정상적으로 조립되고, 노란색 3D 박스로 표시되는 2번 부품(part2)이 조립될 차례이다. Referring to FIG. 6, part 1 (part1) (for example, screws) is normally assembled, and it is time to assemble part 2 (part2) indicated by a yellow 3D box.

작업 도중에 작업자가 2번 부품을 확인하기 위해 2번 부품이 조립될 위치(노란색 3D 박스 내부)를 터치하면, 3D 박스 내부에 붉은색 점이 표시되고 2번 부품의 이름(part2)이나 이미지를 포함하는 부품 정보가 화면의 하단에 표시될 수 있다. 조립 상황 인디케이터에 OK가 표시될 수 있다. During work, if the operator touches the location where the part 2 will be assembled (inside the yellow 3D box) to check the part 2, a red dot is displayed inside the 3D box and contains the name (part2) or image of the part 2. Part information can be displayed at the bottom of the screen. OK can be displayed on the assembly status indicator.

도 7을 참조하면, 1번 부품(part1), 2번 부품(part2), 3번 부품(part3) 까지 정상적으로 조립되고, 노란색 3D 박스로 표시한 4번 부품(part4)이 조립될 차례이며, 조립 상황 인디케이터에 OK가 표시될 수 있다. Referring to FIG. 7, it is time to assemble part 1 (part1), part 2 (part2), and part 3 (part3) normally, and then to assemble part 4 (part4) marked with a yellow 3D box. OK may be displayed on the status indicator.

도 8을 참조하면, 1번 부품(part1), 2번 부품(part2)까지 정상적으로 조립되고, 현재 노란색 3D 박스로 표시되는 3번 부품(part3)이 조립될 차례이나 4번 부품(part 4)이 조립되어서 실수가 발생하고, 4번 부품 위치에 대하여 조립 상황 인디케이터에 ERR-박스가 표시될 수 있다. Referring to FIG. 8, the first part (part1) and the second part (part2) are normally assembled, and the turn to assemble part 3 (part3), which is currently displayed as a yellow 3D box, or part 4 (part 4). A mistake may occur due to assembly, and an ERR-box may be displayed on the assembly status indicator for the location of the 4th part.

스마트폰의 마이크를 통해 작업자에게 음성 메시지(예를 들어 "실수가 발생했습니다")가 전달되고, 조립 상황 인디케이터에 ERR가 표시될 수 있다. A voice message (for example, “a mistake has occurred”) is delivered to the operator through the smartphone's microphone, and the ERR may be displayed on the assembly status indicator.

도 9를 참조하면, 5개의 부품 조립 작업이 완료되고, 조립 상황 인디케이터에 END가 표시될 수 있다. Referring to FIG. 9, five parts assembly work is completed, and END may be displayed on the assembly status indicator.

본 발명은 작업자가 각 부품을 조립하는 시간 이내에 모든 부품의 조립 상황이 검지되어야 하므로, 작업자의 조립 시간을 고려하여 영상 처리 검지 루틴의 주기를 설정할 수 있다.In the present invention, since the assembly condition of all the parts must be detected within the time when the operator assembles each part, the period of the image processing detection routine can be set in consideration of the assembly time of the operator.

10 : 대상물(밸브 바디)
S1 : 제1 단계 S2 : 제2 단계
S3 : 제3 단계 S4 : 제4 단계
S5 : 제5 단계 S6 : 제6 단계
S7 : 제7 단계 S8 : 제8 단계
S9 : 제9 단계
10: object (valve body)
S1: first step S2: second step
S3: third step S4: fourth step
S5: the fifth step S6: the sixth step
S7: the seventh step S8: the eighth step
S9: 9th step

Claims (6)

대상물의 특징점 데이터를 추출하는 단계;
증강 현실 앱을 구동하는 단계;
상기 대상물을 트래킹하는 단계;
상기 대상물 트래킹후 부품 조립 위치를 설정하는 단계;
부품 조립 여부를 검지하는 단계;
대상물 이미지에 증강 현실 컨텐츠를 투영하는 단계;
조립 실수가 확인되면 작업자에게 알려주는 단계;
를 포함하고,
단말기 카메라가 상기 대상물이 보이는 위치에 설치되고 상기 증강 현실 앱이 구동된 후, 상기 대상물의 특징점 데이터를 기준으로 상기 대상물의 포즈를 산출하고,
상기 새롭게 투입되는 대상물마다 각각의 포즈를 알아내는 상기 대상물 트래킹 단계가 반복 수행되며,
상기 대상물 트래킹이 완료된 이후, 단말기 화면에 표시되는 상기 대상물 이미지에서 부품 조립 위치가 터치되면, 각 부품 조립 위치의 터치 좌표가 생성되고,
상기 증강 현실 앱은 상기 단말기 화면에서 상기 터치 좌표(POIc)를 추출한 후, 모델-뷰 행렬의 역행렬과 원근-투사 행렬의 역행렬을 구하고, 이 역행렬들을 이용하여 상기 터치 좌표에 대응되는 타겟 좌표(POIs)를 산출하며,
상기 증강 현실 컨텐츠로서 3D 박스를 단말기 화면에 표시하기 위한 가상 카메라를 생성하고,
상기 단말기 화면에 표시되는 상기 대상물 이미지로부터 상기 대상물을 인식하는 상기 대상물 트래킹 단계를 수행하며,
상기 대상물 트래킹 단계에서 상기 대상물을 인식하면 상기 대상물을 기준으로 한 단말기 카메라의 위치, 회전, 방향 중 적어도 하나를 포함하는 단말기 카메라의 포즈를 산출하며,
상기 가상 카메라의 포즈를 상기 단말기 카메라의 포즈와 동일하게 설정하고,
상기 부품 조립 위치 설정 과정에서 산출된 상기 부품 조립 위치와 동일한 위치에 상기 3D 박스를 표시하는 대상물 검사 방법.
Extracting feature point data of the object;
Driving an augmented reality app;
Tracking the object;
Setting a component assembly position after tracking the object;
Detecting whether a component is assembled;
Projecting augmented reality content onto the object image;
Notifying the operator when an assembly mistake is confirmed;
Including,
After the terminal camera is installed at the position where the object is visible and the augmented reality app is driven, the pose of the object is calculated based on the feature point data of the object,
The object tracking step of finding each pose for each newly introduced object is repeatedly performed,
After the object tracking is completed, when a part assembly position is touched in the object image displayed on the terminal screen, touch coordinates of each part assembly position are generated,
The augmented reality app extracts the touch coordinates (POIc) from the terminal screen, then obtains the inverse matrix of the model-view matrix and the perspective-projection matrix, and uses the inverse matrices to obtain target coordinates (POIs) corresponding to the touch coordinates. ),
Creating a virtual camera for displaying the 3D box as the augmented reality content on the terminal screen,
Performing the object tracking step of recognizing the object from the object image displayed on the terminal screen,
When the object is recognized in the object tracking step, a pose of the terminal camera including at least one of a position, rotation, and direction of the terminal camera based on the object is calculated,
Set the pose of the virtual camera to be the same as that of the terminal camera,
An object inspection method for displaying the 3D box at the same position as the part assembly position calculated in the part assembly position setting process.
제1 항에 있어서,
상기 대상물을 트래킹하는 단계에서 상기 부품 조립 위치를 설정하는 단계로 넘어가는 과정에서, 상기 증강 현실 앱이 상기 부품 조립 위치 설정을 확정하지 않은 상태이면, 상기 대상물의 상기 부품 조립 위치를 새롭게 설정하는 대상물 검사 방법.
The method of claim 1,
In the process of passing from the step of tracking the object to the step of setting the part assembly position, if the augmented reality app has not determined the part assembly position setting, an object to newly set the part assembly position of the object method of inspection.
삭제delete 제1 항에 있어서,
상기 증강 현실 컨텐츠는, 각 부품의 부품 조립 위치 또는 각 부품의 조립 순서를 나타내는 3D 박스, 상기 부품 조립 위치의 타겟 좌표 또는 터치 좌표를 나타내는 좌표 텍스트, 사용자가 부품 조립 위치 또는 3D 박스를 터치하면 팝업되는 부품 이미지나 부품 텍스트를 포함하는 부품 정보, 부품 조립 상태를 표시하는 조립 상태 인디케이터, 상기 조립 상태를 음성으로 알려주는 음성 메시지 중 적어도 하나를 포함하는 대상물 검사 방법.
The method of claim 1,
The augmented reality content is a 3D box indicating the assembly position of each part or the assembly order of each part, a coordinate text indicating target coordinates or touch coordinates of the part assembly location, and a pop-up when a user touches the part assembly location or 3D box An object inspection method comprising at least one of a component information including an image of a component or text of a component, an assembly state indicator displaying a component assembly state, and a voice message indicating the assembly state by voice.
삭제delete 제1 항에 있어서,
상기 대상물 이미지의 상기 부품 조립 위치마다 각각의 3D 박스가 단말기 화면에 표시되고,
상기 각각의 3D 박스는 각 부품의 조립 순서별로 구별되는 색상으로 표시되며,
상기 각각의 3D 박스를 터치하면, 해당 부품의 부품 정보가 상기 단말기 화면에 표시되는 대상물 검사 방법.
The method of claim 1,
Each 3D box is displayed on the terminal screen for each part assembly position of the object image,
Each of the 3D boxes is displayed in a color that is distinguished by the assembly order of each part,
When each of the 3D boxes is touched, part information of the corresponding part is displayed on the terminal screen.
KR1020190043559A 2019-04-15 2019-04-15 Object inspection method using an augmented-reality KR102174035B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190043559A KR102174035B1 (en) 2019-04-15 2019-04-15 Object inspection method using an augmented-reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190043559A KR102174035B1 (en) 2019-04-15 2019-04-15 Object inspection method using an augmented-reality

Publications (2)

Publication Number Publication Date
KR20200121053A KR20200121053A (en) 2020-10-23
KR102174035B1 true KR102174035B1 (en) 2020-11-04

Family

ID=73039540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190043559A KR102174035B1 (en) 2019-04-15 2019-04-15 Object inspection method using an augmented-reality

Country Status (1)

Country Link
KR (1) KR102174035B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734945B (en) * 2021-03-30 2021-08-17 上海交大智邦科技有限公司 Assembly guiding method, system and application based on augmented reality
KR20240002828A (en) * 2022-06-30 2024-01-08 주식회사 와이엠엑스 Real-time virtual reality conference system for sharing a memo interlocked with a pointed location on 3D object in virtual space and method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100962557B1 (en) * 2009-02-05 2010-06-11 한국과학기술원 Augmented reality implementation apparatus and method of the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120090206A (en) * 2011-02-07 2012-08-17 주식회사 엘제이텍 Using video projection equipment, automotive headliner, information system and method for operation
KR20150063703A (en) * 2013-12-02 2015-06-10 에스티엑스조선해양 주식회사 A Method for Block Inspection of a Vessel Using Augmented Reality Technology
KR101535801B1 (en) * 2013-12-09 2015-07-24 계명대학교 산학협력단 Process inspection device, method and system for assembling process in product manufacturing using depth map sensors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100962557B1 (en) * 2009-02-05 2010-06-11 한국과학기술원 Augmented reality implementation apparatus and method of the same

Also Published As

Publication number Publication date
KR20200121053A (en) 2020-10-23

Similar Documents

Publication Publication Date Title
CN109903279B (en) Automatic teaching method and device for welding seam movement track
US20160078682A1 (en) Component mounting work support system and component mounting method
US20150261899A1 (en) Robot simulation system which simulates takeout process of workpieces
KR101973917B1 (en) Three-dimensional measuring device and its supporting method of measurement
CN105637435A (en) A method and a device for verifying one or more safety volumes for a movable mechanical unit
KR102174035B1 (en) Object inspection method using an augmented-reality
JP2008235504A (en) Assembly inspection device
CN112823321B (en) Position locating system and method for mixing position recognition results based on multiple types of sensors
Collett et al. An augmented reality debugging system for mobile robot software engineers
US11891783B2 (en) Calibration work support system
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
WO2014067685A1 (en) A method for simplifying defect analysis
CN111105695A (en) Map making method and device, electronic equipment and computer readable storage medium
Stanimirovic et al. [Poster] A Mobile Augmented reality system to assist auto mechanics
Ng et al. Intuitive robot tool path teaching using laser and camera in augmented reality environment
KR102634601B1 (en) Method for welding members using 3D depth sensor
KR101535801B1 (en) Process inspection device, method and system for assembling process in product manufacturing using depth map sensors
US11630208B2 (en) Measurement system, measurement method, and measurement program
CN111727100B (en) Welding action measuring system
KR20230081963A (en) Welding automation system using deep learning and its welding automation method
KR20130075712A (en) A laser-vision sensor and calibration method thereof
JP2017146228A (en) Welding position inspection system
WO2022176928A1 (en) Teaching device
WO2021118458A1 (en) Method and system for programming a robot
KR101714700B1 (en) Apparatus for registration of scan data

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant