KR100823549B1 - Recognition method of welding line position in shipbuilding subassembly stage - Google Patents

Recognition method of welding line position in shipbuilding subassembly stage Download PDF

Info

Publication number
KR100823549B1
KR100823549B1 KR1020060098895A KR20060098895A KR100823549B1 KR 100823549 B1 KR100823549 B1 KR 100823549B1 KR 1020060098895 A KR1020060098895 A KR 1020060098895A KR 20060098895 A KR20060098895 A KR 20060098895A KR 100823549 B1 KR100823549 B1 KR 100823549B1
Authority
KR
South Korea
Prior art keywords
image
image processing
processing unit
blob
recognition method
Prior art date
Application number
KR1020060098895A
Other languages
Korean (ko)
Other versions
KR20080032856A (en
Inventor
도영칠
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR1020060098895A priority Critical patent/KR100823549B1/en
Publication of KR20080032856A publication Critical patent/KR20080032856A/en
Application granted granted Critical
Publication of KR100823549B1 publication Critical patent/KR100823549B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 조선소 조립 용접부재 위치 인식 방법에 관한 것이다. 본 발명에 따르면, 영상처리부가 촬영된 영상을 입력받는 단계; 영상처리부가 입력된 영상에 따라 적절한 스레쉬홀드(threshold) 값을 결정하는 단계; 영상처리부가 오토 스레쉬홀딩(Auto Thresholding) 기법을 이용하여 영상을 이진영상으로 만드는 단계; 영상처리부가 겐트리에 취부된 카메라로 획득한 영상을 메디안필터(Median Filter)를 이용하여 전처리를 행하여 영상상의 노이즈를 제거하는 단계; 영상처리부가 노이즈 성분들이 제거된 이진영상으로부터 소벨 오퍼레이터(Sobel Operator)를 이용하여 에지들을 검출하는 단계; 영상처리부가 검출된 에지에 대하여 허프 트랜스폼(Hough Transform)을 행하여 직선성분들을 검출하여 에지를 세선화하는 단계; 영상처리부가 세선화된 에지를 통해 직선을 검출하는 단계; 및 영상처리부가 상기에 검출된 직선 그룹핑(Blob Center) 좌표로 부터 거리값을 산출하여 부재의 외곽선으로 판단되는 두 직선의 부재 꼭지점의 위치를 측정하는 단계를 포함하는 것을 특징으로 하는 조선소 소조립 용접부재 위치 인식 방법이 제공된다. The present invention relates to a shipyard assembly welding member position recognition method. According to the present invention, the image processing unit receives a photographed image; Determining an appropriate threshold value according to the input image by the image processor; The image processing unit making the image as a binary image using an auto threshold holding technique; Performing image processing by preprocessing an image acquired by a camera attached to the gantry using a median filter to remove noise on the image; Detecting, by the image processor, edges from a binary image from which noise components are removed using a Sobel Operator; Performing an Hough transform on the detected edges to detect linear components and thinning the edges; Detecting a straight line through the thinned edge by the image processor; And calculating a distance value from the linear grouping (Blob Center) coordinates detected by the image processor to measure positions of two member vertices of the two straight lines determined as outlines of the member. A member position recognition method is provided.

영상처리부, 용접로봇, 허프변환부, 저장부 Image processing unit, welding robot, Hough transform unit, storage unit

Description

조선소 소조립 용접부재 위치 인식 방법{Recognition method of welding line position in shipbuilding subassembly stage}Recognition method of welding line position in shipbuilding subassembly stage}

도 1은 종래의 용접부재 위치 인식 방법을 나타내는 도면.1 is a view showing a conventional welding member position recognition method.

도 2는 본 발명의 조선소 조립 용접부재 위치 인식 시스템을 나타내는 도면.2 is a view showing a shipyard assembly welding member position recognition system of the present invention.

도 3은 상기 도 2의 영상처리부가 용접부재 위치 인식방법을 나타내는 흐름도. 3 is a flowchart illustrating a welding member position recognition method of the image processor of FIG. 2;

도 4a 내지 도 4c는 본 발명에 따른 영상처리부가 드레쉬홀드 값을 나타내는 도면.4A to 4C are diagrams illustrating threshold values of an image processor according to the present invention;

도 5a 내지 도 5c는 본 발명에 따른 영상처리부가 라벨링 / 필터링의 영상을 나타내는 도면.5A to 5C are diagrams illustrating images of labeling / filtering by an image processor according to the present invention;

도 6a 및 도 6b는 본 발명에 따른 영상처리부가 에지 세선화 전후의 영상상태를 나타내는 도면.6A and 6B illustrate image states before and after edge thinning by an image processor according to the present invention;

도 7은 본 발명에 따른 영상처리부가 허프 트랜스폼 전후의 영상상태를 나타내는 도면. 7 is a view showing the image state before and after the Hough transform image processing unit according to the present invention.

도 8은 본 발명에 따른 영상처리부가 두 직선의 부재 꼭지점의 위치를 측정하는 상태를 나타내는 도면. 8 is a view showing a state in which the image processing unit measures the position of the member vertices of the two straight lines in accordance with the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100 : 용접로봇 200 : 영상처리부100: welding robot 200: image processing unit

220 : 영상촬영부 221 : 드레쉬홀드 설정부220: image pickup unit 221: threshold hold setting unit

223 : 허프변환부 227 : 위치정보 측정부223: Hough transform unit 227: location information measuring unit

229 : 저장부 230 : 제어부229 storage unit 230 control unit

본 발명은 조선소 소조립 용접부재 위치 인식 방법에 관한 것으로서, 보다 상세하게는 용접로봇이 용접하기 전 용접할 대상 부재의 두 꼭지점(대각선 방향)의 영상을 촬영하고, 영상 처리를 통해 부재의 꼭지점 좌표값(픽셀 좌표)을 도출하여 이 점을 공간좌표로 변환하여 부재 1개당 2개의 꼭지점 좌표값을 알아내고, 해당 부재의 캐드 데이터와 비교하여 부재내의 정확한 용접선 좌표값을 도출하는 조선소 소조립 용접부재 위치 인식 방법에 관한 것이다. The present invention relates to a method for recognizing the position of a small assembly welding member of a shipyard, and more specifically, to capture an image of two vertices (diagonal directions) of a target member to be welded before welding by a welding robot, and to coordinate the vertices of the member through image processing. The shipbuilding subassembly welding member derives the value (pixel coordinates), converts this point into spatial coordinates, finds two vertex coordinate values per member, and compares the CAD data of the member with the exact weld line coordinates in the member. It relates to a location recognition method.

일반적으로 용접 로봇을 이용하여 대형 구조물을 용접할 경우, 용접할 곳의 위치를 정확히 감지하여 용접하는데 많은 시간과 인력이 필요하게 된다. In general, when welding a large structure using a welding robot, it takes a lot of time and manpower to accurately detect and weld the location of the welding place.

이때, 용접대상부재가 놓이는 정반의 크기가 수M X 수십M으로 매우 크며, 용접로봇을 이용하여 자동용접을 수행하기 위해 용접대상 부재의 정확한 위치와 자세를 파악해야 한다. At this time, the size of the surface plate on which the welding target member is placed is very large, several M x several tens of M, and it is necessary to grasp the exact position and posture of the welding target member to perform automatic welding using a welding robot.

이러한 종래의 기술로서, 당사 특허인 2단계의 영상처리를 통한 조선소 조립부재의 위치 및 자세 측정방법이 특허 공개번호 1999-66116호에 개시되어 있다. As such a conventional technique, a method of measuring the position and attitude of a shipyard assembly member through two-step image processing, which is our patent, is disclosed in Korean Patent Publication No. 1999-66116.

종래의 도 1을 참조하면, 정반의 전 영역에 대해 용접선 측정을 가능하게 하기 위하여 천정에 부착된 제 1 카메라로 전체적인 정반의 영상을 획득한 후, 이동 후 겐트리(80)에 취부된 제 2 카메라(용접공정 카메라, 81)로 영상을 획득하여 부재(10)의 위치를 알아내었다. Referring to FIG. 1 of the related art, a second camera mounted on the gantry 80 after moving is obtained after an overall image of the surface plate is acquired by a first camera attached to the ceiling in order to enable welding line measurement for all regions of the surface plate. An image was acquired with a camera (welding process camera, 81) to find out the position of the member 10.

그러나, 종래에는 겐트리에 취부된 카메라(용접공정 카메라)로 획득한 영상을 이진영상으로 만들 때 어떤 값으로 문턱값을 결정하느냐에 따라서 검출하고자 하는 대상물체와 바닥면의 구분을 결정하는데, 이때, 겐트리에 취부된 카메라에 입력된 영상상태에 따라서 문턱값이 가변적이지 않아 대상물체와 바닥면을 효과적으로 구분하지 못하여 부재의 위치 및 자세 측정이 정확하지 못한 문제점이 발생하였다. However, conventionally, when the image acquired by the camera (welding process camera) attached to the gantry is made into a binary image, the division of the object and the bottom surface to be detected is determined according to what value the threshold is determined. Since the threshold value is not variable according to the image state input to the camera mounted on the camera, the object and floor cannot be effectively distinguished, which causes a problem in that the position and posture of the member are not accurate.

상기와 같은 문제점을 해결하기 위해서, 본 발명은 촬영된 영상과 해당 부재의 캐드 데이터와 부재내의 정확한 용접선 좌표값을 통해 해당 부재의 정확한 용접선 좌표값을 알아내는 조선소 소조립 용접부재 위치 인식 방법을 제공하는데 그 목적이 있다. In order to solve the above problems, the present invention provides a shipyard sub-assembly welding member position recognition method that finds the exact weld line coordinate value of the member through the photographed image, the CAD data of the member and the exact weld line coordinate value in the member. Its purpose is to.

상기와 같은 목적을 달성하기 위해서, 본 발명에 따른 조선소 소조립 용접부재 위치 인식 방법은 (a) 영상처리부가 촬영된 영상을 입력받는 단계(S1); (b) 상 기 영상처리부가 입력된 영상에 따라 적절한 드레쉬홀드값을 결정하는 단계(S3); (c) 상기 영상처리부가 오토 드레쉬홀딩(Auto Thresholding) 기법을 이용하여 영상을 이진영상으로 만드는 단계(S5); (d) 상기 영상처리부가 상기 겐트리에 취부된 카메라로 획득한 영상을 메디안필터(Median Filter)를 이용하여 전처리를 행하는 단계(S7); (e) 상기 영상처리부가 상기 전처리된 영상상에 노이즈를 제거하는 브롭 라벨링/필터링(Blob labeling/filtering)을 수행하는 단계(S8); (f) 상기 영상처리부가 상기 노이즈 성분들이 제거된 이진영상으로부터 소벨 오퍼레이터(Sobel Operator)를 이용하여 에지들을 검출하는 단계(S9); (g) 상기 영상처리부가 검출된 에지에 대하여 허프 트랜스폼(Hough Transform)을 행하여 직선성분들을 검출하여 에지를 세선화하는 단계(S11); (h) 상기 영상처리부가 상기 세선화된 에지를 통해 직선을 검출하는 단계(S13); 및 (i) 상기 영상처리부가 상기에 검출된 직선 그룹핑(Blob Center) 좌표로 부터 거리값을 산출하여 부재의 외곽선으로 판단되는 두 직선의 부재 꼭지점의 위치를 측정하는 단계(S15); 를 포함한다. In order to achieve the above object, the shipyard small assembly welding member position recognition method according to the present invention comprises the steps of (a) receiving an image captured by the image processor (S1); (b) determining, by the image processor, an appropriate threshold value according to the input image (S3); (c) the image processing unit making an image as a binary image using an auto threshold holding technique (S5); (d) performing, by the image processing unit, preprocessing the image acquired by the camera attached to the gantry using a median filter (S7); (e) performing image blob labeling / filtering to remove noise on the preprocessed image (S8); (S9) the image processing unit detects edges from a binary image from which the noise components are removed using a Sobel Operator (S9); (g) performing a Hough Transform on the detected edge of the image processor to detect linear components and thinning the edge (S11); (h) detecting, by the image processor, a straight line through the thinned edge (S13); And (i) step (S15) of the image processing unit calculating a distance value from the linear grouping (Blob Center) coordinates detected above to measure the positions of the two vertices of the member vertices determined as the outlines of the members; It includes.

이하, 첨부된 도면을 참조하여 본 발명에 따른 조선소 소조립 용접부재 위치 인식 방법에 대한 일실시예로서는 다수개가 존재할 수 있으며, 이하에서는 가장 바람직한 일 실시예에 대해 설명한다. Hereinafter, with reference to the accompanying drawings there may be a plurality of embodiments of the shipyard small assembly welding member position recognition method according to the present invention, the following describes the most preferred embodiment.

도 2는 본 발명에 따른 용접부재 위치 인식 방법을 수행하기 위한 시스템을 도시한 도면이다. 2 is a diagram illustrating a system for performing a welding member position recognition method according to the present invention.

상기 도 2를 참조하면, 본 발명의 용접부재 위치 인식 시스템은 촬영된 영상 및 저장된 용접부재의 캐드 데이터를 이용하여 용접 대상물의 용접선 좌표를 산출하는 용접선 Scheduling 부 및 상기 영상처리부의 제어에 따라 용접할 부재에 용접을 수행하는 용접 로봇(100)을 포함한다.Referring to FIG. 2, the welding member position recognition system of the present invention may perform welding according to a welding line scheduling unit for calculating weld line coordinates of a welding object using the photographed image and stored CAD data of the welding member, and the image processing unit. And a welding robot 100 for performing welding to the member.

상기 영상처리부(200)는 부재 꼭지점 정보 추출을 위한 영상을 획득하는 영상촬영부(220), 상기 영상촬영부를 통해 촬영된 영상을 획득하여 용접선을 찾기 위해 용접선 정보를 추출하기 위한 드레쉬홀드 값을 결정하는 드레쉬홀드 설정부(221), 상기 드레쉬홀드 설정부로부터 설정된 값을 통해 허프 트랜스폼의 결과와 취부에서 가져온 부재의 방향 벡터정보를 이용하여 변환하는 허프 변환부(223), 상기 허프 변환부에서 설정된 드레쉬홀드 값을 기준으로 이진화 영상을 획득하고 획득된 영상으로부터 위치정보를 측정하는 위치정보 측정부(227), 용접부재의 위치정보를 저장하는 저장부(229) 및 상기 각 부를 제어하고, 상기 영상촬영부에서 촬영된 용접선 정보 와 상기 저장부에 저장된 데이터를 비교 산출하는 제어부(230)를 포함한다. The image processing unit 200 obtains an image photographing unit 220 for acquiring an image for extracting member vertex information, and obtains a threshold value for extracting welding line information for finding a welding line by acquiring an image photographed through the image capturing unit. The threshold setting unit 221 for determining and the Hough transform unit 223 for converting using the result of the Hough transform and the direction vector information of the member obtained from the mounting through the value set from the threshold setting unit, the Hough A position information measuring unit 227 for acquiring a binarized image based on the threshold value set by the converter and measuring position information from the obtained image, a storage unit 229 for storing position information of the welding member, and each unit And a controller 230 for controlling and comparing the weld line information photographed by the image photographing unit with data stored in the storage unit.

영상촬영부(220)는 용접선 정보 추출을 위해 취부공정에서 천정에 취부된 카메라들로 영상을 획득하고, 영상처리 단계에서 파악된 위치로 겐트리를 이동시켜 부재의 근방에서 겐트리 회전축 방향에 부착된 카메라로 영상을 촬영한다. The image capturing unit 220 acquires an image with cameras mounted on the ceiling in the attaching process to extract the weld line information, and moves the gantry to the position identified in the image processing step to attach the gantry in the direction of the gantry axis of rotation. The video with the old camera.

드레쉬홀드 설정부(221)는, 상기 영상촬영부로부터 입력된 영상을 이용하여 영상을 이진화하기 위한 적절한 드레쉬홀드 값을 결정한다. The threshold setting unit 221 determines an appropriate threshold value for binarizing the image using the image input from the image capturing unit.

상기 드레쉬홀드 설정부(221)는 상기 영상촬영부에서 얻어진 영상으로부터, 각각의 그레이 레벨(gray level)(0~255)의 빈도수를 측정하여 히스토그램 데이터를 수집한다. The threshold setting unit 221 collects histogram data by measuring the frequency of each gray level (0 to 255) from the image obtained by the image capturing unit.

또한, 드레쉬홀드 설정부(221)는 그레이 레벨에 따른 빈도수를 측정하여 첫 번째 피크(Peak) 점과 두 번째 피크(Peak) 점 사이의 밸리(Valley)값을 최적의 드레쉬홀드 값으로 설정한다. In addition, the threshold setting unit 221 measures the frequency according to the gray level to set the valley value between the first peak point and the second peak point as an optimal threshold value. do.

허프 변환부(223)는 상기 드레쉬홀드 설정부(221)로부터 설정된 값을 통해 허프 트랜스폼의 결과와 취부에서 가져온 부재의 방향 벡터 정보를 이용하여 최종적으로 부재의 꼭지점을 자동으로 인식하게 된다. The Hough transform unit 223 automatically recognizes the vertex of the member by using the result of the Hough transform and the direction vector information of the member obtained from the mounting through the value set by the threshold setting unit 221.

상기 허프 변환부(223)는 허프 변환의 결과로 추출된 라인을 각도별로 소트한 후 취부공정에서 저장한 부재의 꼭지점과 꼭지점을 이루는 두개의 방향 벡터로부터 주어진 직선성분의 각도로부터

Figure 112006073430445-pat00001
이내에 있는 직선들만 필터링 한 후 필터링한 직선들을 Blob Center 좌표값으로부터의 거리를 계산하여 이 거리값 별로 정렬 시킨 후 직선들을 그룹핑 한다.(단, 15 픽셀 이상 떨어진 직선은 다른 그룹으로 인식함) 그러면, 최종 선택된 직선군 중 중심에 존재하는 두 직선의 교점을 최종 꼭지점으로 인식하게 된다. The Hough transform unit 223 sorts the line extracted as a result of the Hough transform by angle and then, from the angle of the linear component given from the two direction vectors constituting the vertex and the vertex of the member stored in the mounting process.
Figure 112006073430445-pat00001
After filtering only the straight lines within it, the filtered straight lines are calculated by calculating the distance from the Blob Center coordinate value and sorted by this distance value, and the straight lines are grouped (but the straight lines more than 15 pixels apart are recognized as other groups). The intersection point of two straight lines existing in the center among the last selected straight group is recognized as the final vertex.

위치정보 측정부(227)는 획득된 영상으로부터 상기 카메라부가 계측하고자 하는 점을 추출하여 위치정보를 측정한 후, 2차원의 영상좌표를 3차원의 실좌표로 변환하여 영상처리부의 제어부로 전송한다. 여기서, 2차원의 영상좌표는 카메라 내에서 계측하고자 하는 점에 해당되는 포인터(pointer)의 좌표를 나타내고, 3차원의 실좌표는 위치하는 곳의 좌표를 원점으로 할 때 계측하고자 하는 점의 좌표를 나타낸다. The location information measuring unit 227 extracts points to be measured by the camera from the acquired image, measures location information, and converts two-dimensional image coordinates into three-dimensional real coordinates and transmits them to the control unit of the image processing unit. . Here, the two-dimensional image coordinates indicate the coordinates of the pointer corresponding to the point to be measured in the camera, and the three-dimensional real coordinates indicate the coordinates of the point to be measured when the coordinates of the location where the position is located are the origin. Indicates.

저장부(229)는 용접할 용접부재의 위치정보 용접부재의 캐드 데이터 및 용접선의 위치를 저장한다. The storage unit 229 stores the CAD data of the position information welding member and the position of the welding line of the welding member to be welded.

제어부(230)는 상기 각 부를 제어하고, 용접선 정보 및 상기 저장부에 저장된 데이터를 비교 산출한다. The controller 230 controls the units and compares and calculates weld line information and data stored in the storage unit.

상기 제어부(230)는 획득된 영상을 통해 중심점에 대한 용접선 정보를 입력받아 상기 저장부(229)에 저장한다. The controller 230 receives weld line information about a center point through the acquired image and stores the weld line information in the storage unit 229.

도 3은 상기 도 2의 영상처리부를 통해 용접부재 위치 인식방법을 나타내는 흐름도이고, 도 4a 내지 도 4c는 본 발명에 따른 드레쉬홀드 값을 나타내는 도면이고, 도 5a 내지 도 5c는 본 발명에 따른 라벨링 / 필터링의 영상을 나타내는 도면이고, 도 6a 및 도 6b는 에지 세선화 전후의 영상상태를 나타내는 도면이고, 도 7은 허프 트랜스폼 전후의 영상상태를 나타내는 도면이고, 도 8은 본 발명에 따른 영상처리부가 두 직선의 부재 꼭지점의 위치를 결정하는 상태를 나타내는 도면이다. 3 is a flowchart illustrating a method for recognizing a welding member position through the image processor of FIG. 2, FIGS. 4A to 4C are diagrams showing a threshold value according to the present invention, and FIGS. 6A and 6B are diagrams showing image states before and after edge thinning, FIG. 7 is a diagram showing image states before and after Hough transform, and FIG. 8 is according to the present invention. It is a figure which shows the state which the image processing part determines the position of the member vertex of two straight lines.

이하에서는 각 단계에 따른 상기 도 4a 내지 도 8을 도 3와 함께 설명하여, 영상처리부에서 수행되는 용접부재 위치 인식 방법에 대하여 살펴볼 수 있다. Hereinafter, the method for recognizing a welding member position performed by the image processor will be described with reference to FIGS. 4A to 8 according to each step along with FIG. 3.

먼저, 영상처리부가 정반의 전 영역에 대해 측정을 가능하게 하기 위하여 두 대의 카메라로 영상을 획득한 후, 획득된 두 영상을 통해 영상합성 과정을 거쳐 하나의 영상으로 만드는 단계를 수행한다.(S1)First, the image processing unit acquires an image with two cameras in order to enable measurement of the entire area of the surface plate, and then performs an image synthesis process through the obtained two images to make one image. )

상기 S1 단계는 천정에 고정된 고정 카메라를 이용하여 용접부재의 전체적인 영상을 촬영하고, 해당 용접부재의 꼭지점을 알아내기 위하여 겐트리 용접으로 이동하여 영상을 촬영하게 된다. In the step S1, the entire image of the welding member is taken by using a fixed camera fixed to the ceiling, and the image is moved to the gantry welding to find the vertex of the welding member.

다음으로, 상기 영상처리부가 입력된 영상에 따라 적절한 드레쉬홀드값을 결정하는 단계를 수행한다.(S3) Next, the image processor determines an appropriate threshold value according to the input image (S3).

상기 S3 단계는 도 4a 내지 도 4c를 참조하여 설명하면, 상기 영상처리부가영상의 히스토그램 데이터를 패스트 푸리에 트랜스폼(fast fourier transform)을 해서 저역 통과 필터(Low pass filter)를 통해 작은 피크(Peak)값들은 무시하고 Maximum Peak 사이의 Valley를 찾게 된다. The step S3 is described with reference to FIGS. 4A to 4C. The small peak through a low pass filter is performed by performing fast Fourier transform on the histogram data of the image. The values are ignored and the valley between the maximum peaks is found.

다음으로, 영상처리부가 오토 드레쉬홀딩(Auto Thresholding) 기법을 이용하여 영상을 이진영상으로 만드는 단계를 수행한다.(S5) Next, the image processor performs a step of making the image into a binary image by using an auto threshold holding technique (S5).

상기 S5단계는 영상처리부가 드레쉬홀드 설정부에서 설정된 센싱 드레쉬 홀드 값을 기준으로 이진화하여 영상을 획득한다.In step S5, the image processor obtains an image by binarizing the sensing threshold value set by the threshold setting unit.

이때, 상기 오토 드레쉬홀딩(Auto Thresholding) 기법은 드레쉬홀드 값이 전체 영상에서, 55 이상이면 255(white)로 그레이 레벨을 변경하고, 드레쉬홀드 값이 55 미만이면 그레이 레벨을 0(black)으로 변경하는 것이다. In this case, the auto threshold holding technique changes the gray level to 255 (white) when the threshold value is 55 or more in the entire image, and sets the gray level to 0 (black) when the threshold value is less than 55. Is changed to).

즉, 모든 영상에 대해서 threshold 값이 55 가 아니라, 입력된 영상의 히스토그램의 분포로부터 threshold 값을 결정하여 상기 값 이상 또는 이하로 영상을 이진화 시킨다. That is, the threshold value is not 55 for all images, and the threshold value is determined from the distribution of the histogram of the input image to binarize the image above or below the value.

다음으로, 상기 겐트리에 취부된 카메라로 획득한 영상을 메디안필터(Median filter)를 통해 전처리를 하는 단계를 수행하고(S7), 상기 전처리된 영상을 노이즈 성분을 제거하는 브롭 라벨링/필터링(Blob Labeling / Filtering) 단계를 수행한다(S8).Next, a pre-processing of the image acquired by the camera attached to the gantry through a median filter is performed (S7), and blob labeling / filtering is performed to remove noise components from the pre-processed image. / Filtering) step (S8).

상기 S7 단계는 도 5a 및 도 5c를 참고하여 설명하면, 영상처리부가 이진영상으로부터 브롭 라벨링/필터링(Blob Labeling / Filtering)기법을 이용하여 원하지 않는 노이즈 성분을 제거한다.The step S7 is described with reference to FIGS. 5A and 5C. The image processor removes unwanted noise components from a binary image by using a blob labeling / filtering technique.

이때, 영상처리부는 이진 영상의 blob에 번호를 부여하고 각각의 blob에 중심좌표를 구하고, 취부정보를 이용하여 부재가 놓여진 위치를 대략적으로 파악(1~4 분면)하고, 부재 방향벡터에 따라 다른 사분면에 있는 blob을 제거한다. In this case, the image processor assigns a number to the blob of the binary image, obtains the center coordinates of each blob, and roughly identifies (1 to 4 quadrants) the position where the member is placed using the mounting information, Remove blobs in quadrant.

또한, 상기 영상처리부는 용접부재가 정반상에 놓여질 때 약간의 비틀림 또는 회전을 고려하여 1사분면(337도~120도), 2사분면(60도~203도), 3사분면(157도~300도), 4사분면(240도~23도)으로 영역을 결정한다.In addition, the image processing unit may include one quadrant (337 degrees to 120 degrees), two quadrants (60 degrees to 203 degrees), and three quadrants (157 degrees to 300 degrees) in consideration of a slight twist or rotation when the welding member is placed on the surface plate. ), The quadrant (240 degrees to 23 degrees) determines the area.

즉, 상기 도 5a 의 도면에 도시된 촬영영상을 이진화된 영상(도 5b)으로 변경하고, 취부 방향벡터의 부재 꼭지점을 이루는 두개의 선(61, 62)에 해당되는 합벡터의 각도가 2사분면에 존재하면, 용접부재의 회전각도를 고려한 2사분면의 선(63, 64)안에 존재하는 1번 Blob을 제외한 2, 3 Blob을 삭제하여 라벨링/ 필터링 후의 영상(도 5c)을 얻게 된다. That is, the captured image shown in the drawing of FIG. 5A is converted into a binarized image (FIG. 5B), and an angle of a sum vector corresponding to two lines 61 and 62 constituting a member vertex of the mounting direction vector is quadrant 2. If present, the 2, 3 blobs except for the first blobs existing in the two quadrant lines 63 and 64 considering the rotation angle of the welding member are deleted to obtain an image after labeling / filtering (FIG. 5C).

다음으로, 상기 영상처리부가 상기 노이즈 성분들이 제거된 이진영상으로부터 소벨 오퍼레이터(Sobel Operator)를 이용하여 에지들을 검출한다.(S9)Next, the image processor detects edges from a binary image from which the noise components are removed using a Sobel Operator (S9).

이때, 상기 소벨 오퍼레이터(Sobel Operator)는 에지를 검출하고, 해당 에지의 크기 및 방향을 검출할 때 사용하는 방법이다. In this case, the Sobel Operator is a method used when detecting an edge and detecting the size and direction of the edge.

다음으로, 상기 영상처리부가 검출된 에지에 대하여 허프트랜스폼(Hough Transform)을 행하여 여러 직선 성분들을 검출하여 에지를 세선화하는 단계를 수행한다.(S11)Next, the image processing unit performs a hough transform on the detected edge to detect various linear components to thin the edges (S11).

상기 S11 단계는, 도 6a 및 도 6b를 참조하여 설명하면, 에지 세선화하기 전(도 6a)을 에지 세선화 후(도 6b)로 에지부분에 라인의 두께를 줄여주고, 이후 허프 트랜스폼 한 후에 직선 성분의 개수를 줄여준다. The step S11 is described with reference to FIGS. 6A and 6B, which reduces the thickness of the line at the edge portion before edge thinning (FIG. 6A) and after edge thinning (FIG. 6B). Reduce the number of linear components later.

다음으로, 상기 영상처리부가 허프트랜스폼을 수행하여 여러 직선을 검출하는 단계를 수행한다.(S13)Next, the image processor performs a step of performing a transform to detect a plurality of straight lines (S13).

이때, 허프 트랜스폼(hough Transform)은 N 개의 픽셀로 구성된 영상에서 같은 직선위에 놓여있는 점들을 발견하는 방법으로서, 허프 트랜스폼 후 검출된 직선을 상기 세선화단계를 거쳐 허프 트랜스폼 한 후의 영상(도 7)으로 출력하고, 허프 트랜스폼의 결과와 취부에서 가져온 부재의 방향 벡터를 이용하여 최종적으로 부재의 꼭지점을 자동으로 인식하게 된다. In this case, a hough transform is a method of finding points lying on the same straight line in an image composed of N pixels, and after the hough transform of the straight line detected after the hough transform through the thinning step ( Finally, the vertex of the member is automatically recognized using the result of the Hough transform and the direction vector of the member obtained from the mounting.

상기 S13 단계는 도 7을 참조하여 설명하면, 추출되는 직선은 직선성분 중 하나인 기울기가 두 개의 취부방향 벡터 기울기(θ1, θ2)에서

Figure 112007093481152-pat00018
내의 직선을 추출하면, θ1 -5 < θ < θ1 +5와, θ2 -5 < θ < θ2 +5 인 직선만이 추출된다. The step S13 is described with reference to FIG. 7, wherein the extracted straight line has a slope of one of the linear components at two mounting direction vector slopes θ1 and θ2.
Figure 112007093481152-pat00018
When the straight line inside is extracted, only straight lines with θ1 -5 <θ <θ1 +5 and θ2 -5 <θ <θ2 +5 are extracted.

다음으로, 상기 영상처리부가 상기에 검출된 직선 그룹핑(Blob Center)좌표로부터 거리값을 산출하여 부재의 외곽선으로 판단되는 두 직선의 부재 꼭지점의 위치를 결정하는 단계를 수행한다.(S15)Next, the image processor calculates a distance value from the detected linear grouping coordinates (Blob Center) coordinates to determine the positions of the member vertices of the two straight lines determined as the outline of the member (S15).

상기 S15 단계는 도 8를 참조하여 설명하면, 상기 영상처리부가 허프 트랜스 폼의 결과로 추출된 라인을 각도별로 소팅(Sorting)한 후, 취부공정에서 저장한 부재의 꼭지점과 꼭지점을 이루는 두개의 방향벡터와 주어진 직선성분의 각도로부터

Figure 112006073430445-pat00003
이내에 있는 직선들만 필터링 하고, 필터링한 직선들을 Blob Center 좌표값으로부터 거리를 계산하여 이 거리값 별로 정렬 시킨 후 직선들을 그룹핑 한다.(단, 15 픽셀 이상 떨어진 직선은 다른 그룹으로 인식함)Referring to FIG. 8, the image processing unit sorts the lines extracted as a result of the Hough transform for each angle, and then forms two vertices and vertices of the members stored in the attaching process. From the angle of the vector and the given linear component
Figure 112006073430445-pat00003
Filter only the straight lines that are within, and sort the filtered straight lines by calculating the distance from the Blob Center coordinates and grouping them by this distance value.

이때, 상기 영상처리부가 Blob Center 좌표값으로부터 최외곽 직선을 선택하고, 상기 영상처리부가 최종 선택된 직선군 중 중심에 존재하는 두 직선의 교점을 최종 꼭지점으로 인식하게 된다. In this case, the image processing unit selects the outermost straight line from the Blob Center coordinate value, and the image processing unit recognizes the intersection of two straight lines existing in the center among the finally selected straight line group as the final vertex.

즉, 용접공정 영상처리 부재 꼭지점 인식(최외곽 직선 그룹에서 영역의 중심에 있는 직선 선택)은 여러개의 직선 성분 중에 최외곽의 직선성분들을 찾는 것이고, 이렇게 구해진 직선군들 중에 그 군의 중심에 있는 직선을 선택하는 것으로 꼭지점의 좌표값 자동 인식이 끝나게 된다. That is, the vertex recognition (selection of the straight line at the center of the region in the outermost straight line group) of the welding process image processing member is to find the outermost straight line components among the plurality of straight line components. Selecting a straight line ends the automatic recognition of the coordinates of the vertices.

이상에서 본 발명에 의한 조선소 소조립 용접부재 위치 인식 방법에 대하여 설명하였다. 이러한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.In the above, the shipyard small assembly welding member position recognition method according to the present invention has been described. Such a technical configuration of the present invention will be understood by those skilled in the art that the present invention can be implemented in other specific forms without changing the technical spirit or essential features of the present invention.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범 위에 포함되는 것으로 해석되어야 한다.Therefore, the above-described embodiments are to be understood in all respects as illustrative and not restrictive, and the scope of the present invention is indicated by the appended claims rather than the foregoing description, and the meanings of the claims and All changes or modifications derived from the scope and the equivalent concept should be construed as being included in the scope of the present invention.

상기와 같은 본 발명은 용접부재의 꼭지점 영상을 통해 부재의 꼭지점 좌표값을 공간좌표로 변환하여 해당 부재의 캐드 데이터와 비교하여 부재내의 보다 정확한 용접선의 좌표값을 알아내어 작업의 정확성이 향상되는 효과가 있다. As described above, the present invention converts the vertex coordinate value of the member into a spatial coordinate through the vertex image of the welding member, compares the CAD data of the corresponding member, and finds the coordinate value of the welding line in the member to improve the accuracy of the work. There is.

또한, 본 발명은 취부공정에서의 부재가 놓이는 위치정보를 이용하여 용접공정에 촬영한 영상에서 다수개의 부재가 한 영상에 동시에 존재하더라도 영상처리가 가능하도록 하여 생산성이 향상되는 효과가 있다. In addition, the present invention has the effect of improving the productivity by enabling the image processing even if a plurality of members in the image at the same time in the image photographed in the welding process by using the position information placed by the member in the mounting process.

또한, 본 발명은 허프 트렌스폼(Hough Transform)후 여러개의 직선군중에 취부공정에서 얻어진 부재 방향벡터 영역의 blob center좌표를 기준으로 최외곽 직선군을 선택하여 영상처리의 신뢰성을 향상시키는 효과가 있다. In addition, the present invention has an effect of improving the reliability of image processing by selecting the outermost straight group based on the blob center coordinates of the member direction vector region obtained in the attaching process among several straight groups after the Hough Transform. .

Claims (3)

조선소 소조립 용접부재 위치 인식방법에 있어서, In the shipyard small assembly welding member position recognition method, (a) 영상처리부가 촬영된 영상을 입력받는 단계(S1);(a) receiving an image captured by the image processor (S1); (b) 상기 영상처리부가 입력된 영상에 따라 그레이 레벨에 따른 빈도수를 측정하여 첫 번째 피크 점과 두 번째 피크 점 사이의 최소 값을 드레쉬홀드값으로 결정하는 단계(S3);(b) determining a minimum value between a first peak point and a second peak point as a threshold value by measuring a frequency according to a gray level according to the input image by the image processor (S3); (c) 상기 영상처리부가 상기 (b)단계에서 결정된 드레쉬홀드값을 이용하여 상기 드레쉬홀드값을 기준으로 입력된 상기 영상을 이진영상으로 만드는 단계(S5);(c) the image processing unit making a binary image of the image input based on the threshold value using the threshold value determined in step (b); (d) 상기 영상처리부가 겐트리에 취부된 카메라로 획득한 영상을 메디안필터(Median Filter)를 이용하여 전처리를 행하는 단계(S7);(d) performing image processing on the image acquired by the camera attached to the gantry using a median filter (S7); (e) 상기 영상처리부가 각 브롭에 라벨링을 한 후 상기 각 브롭의 센터 값을 구하고 취부 방향 벡터가 놓여진 사분면의 브롭을 제외한 나머지 브롭을 삭제하는 브롭 라벨링/필터링(Blob labeling/filtering)을 수행하여 상기 전처리된 영상상에 노이즈를 제거하는 단계(S8);(e) After the image processing unit has labeled each of the blobs, the blob labeling / filtering is performed to obtain the center value of each blob and to delete the other blobs except for the blob of the quadrant where the mounting direction vector is placed. Removing noise on the preprocessed image (S8); (f) 상기 영상처리부가 상기 노이즈 성분들이 제거된 이진영상으로부터 소벨 오퍼레이터(Sobel Operator)를 이용하여 에지들을 검출하는 단계(S9); (S9) the image processing unit detects edges from a binary image from which the noise components are removed using a Sobel Operator (S9); (g) 상기 영상처리부가 검출된 에지를 세선화하는 단계(S11);(g) thinning the detected edges of the image processor (S11); (h) 상기 영상처리부가 상기 세선화된 에지를 통해 허프 트랜스폼(Hough Transform)을 행하여 직선성분들을 검출하는 단계(S13); 및(h) detecting, by the image processing unit, linear components by performing a Hough Transform through the thinned edge (S13); And (i) 상기 영상처리부가 상기에 검출된 다수개의 직선 성분들을 브롭 센터 좌표값에서의 거리를 계산하여 계산된 거리별로 구분하여 그룹핑을 수행하고, 상기 브롭 센터 좌표값으로부터의 가장 거리가 먼 최외각 직선 그룹의 직선 중 기울기의 값이 상기 최외각 직선 그룹 영역 내의 직선들의 평균 기울기에 가장 가까운 두 중심 직선의 교점을 부재 꼭지점으로 인식하여 상기 부재 꼭지점의 위치를 측정하는 단계(S15); (i) the image processor performs grouping by dividing the plurality of linear components detected by the distance calculated from the blob center coordinate values by the distance calculated from the blob center coordinate values, and the outermost part farthest from the blob center coordinate values. Measuring a position of the member vertex by recognizing, as a member vertex, an intersection point of two center straight lines whose value of the slope among the straight lines of the straight line group is closest to the average slope of the straight lines in the outermost straight group region; 를 포함하는 것을 특징으로 하는 조선소 소조립 용접부재 위치 인식방법.Shipyard small assembly welding member position recognition method comprising a. 제 1항에 있어서, The method of claim 1, 상기 (h) 단계는, (H) step, 상기 영상처리부가 직선성분 중 기울기가 취부방향 벡터 기울기에서
Figure 112007093481152-pat00004
내의 직선만을 추출하는 것을 특징으로 하는 조선소 소조립 용접부재 위치 인식 방법.
The slope of the linear component of the image processing unit in the mounting direction vector slope
Figure 112007093481152-pat00004
Shipyard subassembly welding member position recognition method characterized in that it extracts only the straight line.
제 1항에 있어서, The method of claim 1, 상기 (i) 단계는, In step (i), 상기 영상처리부가 영상처리 부재의 외곽선을 판단하기 위하여 상기 최외곽 직선 그룹 영역의 직선들 중 상기 최외각 직선 그룹의 직선들의 평균 기울기에 가장 가까운 중심 직선을 선택하는 것을 특징으로 하는 조선소 소조립 용접부재 위치 인식 방법. In order to determine the outline of the image processing member, the image processor selects a center straight line that is closest to an average slope of the straight lines of the outermost straight group among the straight lines of the outermost straight group region. Location awareness method.
KR1020060098895A 2006-10-11 2006-10-11 Recognition method of welding line position in shipbuilding subassembly stage KR100823549B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060098895A KR100823549B1 (en) 2006-10-11 2006-10-11 Recognition method of welding line position in shipbuilding subassembly stage

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060098895A KR100823549B1 (en) 2006-10-11 2006-10-11 Recognition method of welding line position in shipbuilding subassembly stage

Publications (2)

Publication Number Publication Date
KR20080032856A KR20080032856A (en) 2008-04-16
KR100823549B1 true KR100823549B1 (en) 2008-04-21

Family

ID=39573219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060098895A KR100823549B1 (en) 2006-10-11 2006-10-11 Recognition method of welding line position in shipbuilding subassembly stage

Country Status (1)

Country Link
KR (1) KR100823549B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101110848B1 (en) 2009-06-19 2012-02-24 삼성중공업 주식회사 Method and apparatus for edge position measurement of a curved surface using Laser Vision System
KR20200078840A (en) 2018-12-24 2020-07-02 대우조선해양 주식회사 Method for welding members using 3D depth sensor
KR20220147443A (en) 2021-04-27 2022-11-03 대우조선해양 주식회사 Method for welding arbitrarily supported workpiece

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101254642B1 (en) * 2012-07-20 2013-04-23 에이큐 주식회사 Function displaying terminal according to transaction and method thereof
CN112734685B (en) * 2019-10-14 2024-03-26 中国石油天然气股份有限公司 Pipeline weld joint information identification method
CN110773842B (en) * 2019-10-21 2022-04-15 大族激光科技产业集团股份有限公司 Welding positioning method and device
CN111637835A (en) * 2020-05-25 2020-09-08 西咸新区大熊星座智能科技有限公司 Circular tube weld joint position positioning method and device
CN113588663B (en) * 2021-08-03 2024-01-23 上海圭目机器人有限公司 Pipeline defect identification and information extraction method
CN113610951B (en) * 2021-08-12 2022-05-17 深圳市方直科技股份有限公司 Automatic tracing method and device
KR20230052504A (en) 2021-10-13 2023-04-20 삼성중공업 주식회사 Welding line recognition apparatus and method
KR102613402B1 (en) * 2022-09-22 2023-12-14 주식회사 씨인사이드 Vision inspection system for battery cap
CN117444458B (en) * 2023-12-21 2024-03-19 深圳杩蚁科技有限公司 Automatic control method for welding robot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050043006A (en) * 2003-11-04 2005-05-11 현대자동차주식회사 Method of detecting lane
KR20060062154A (en) * 2004-12-03 2006-06-12 한국전자통신연구원 Building extraction apparatus and method using hough transformation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050043006A (en) * 2003-11-04 2005-05-11 현대자동차주식회사 Method of detecting lane
KR20060062154A (en) * 2004-12-03 2006-06-12 한국전자통신연구원 Building extraction apparatus and method using hough transformation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101110848B1 (en) 2009-06-19 2012-02-24 삼성중공업 주식회사 Method and apparatus for edge position measurement of a curved surface using Laser Vision System
KR20200078840A (en) 2018-12-24 2020-07-02 대우조선해양 주식회사 Method for welding members using 3D depth sensor
KR20220147443A (en) 2021-04-27 2022-11-03 대우조선해양 주식회사 Method for welding arbitrarily supported workpiece

Also Published As

Publication number Publication date
KR20080032856A (en) 2008-04-16

Similar Documents

Publication Publication Date Title
KR100823549B1 (en) Recognition method of welding line position in shipbuilding subassembly stage
CN106934803B (en) method and device for detecting surface defects of electronic device
CN110866903B (en) Ping-pong ball identification method based on Hough circle transformation technology
JP6125188B2 (en) Video processing method and apparatus
JP5699788B2 (en) Screen area detection method and system
US6614928B1 (en) Automatic parcel volume capture system and volume capture method using parcel image recognition
CN110926330B (en) Image processing apparatus, image processing method, and program
KR20130030220A (en) Fast obstacle detection
CN111627072A (en) Method and device for calibrating multiple sensors and storage medium
CN109815822B (en) Patrol diagram part target identification method based on generalized Hough transformation
CN107527368B (en) Three-dimensional space attitude positioning method and device based on two-dimensional code
CN116494253B (en) Target object grabbing pose acquisition method and robot grabbing system
CN115018846B (en) AI intelligent camera-based multi-target crack defect detection method and device
US9361695B2 (en) Method of recognizing a position of a workpiece from a photographed image
CN101383005A (en) Method for separating passenger target image and background by auxiliary regular veins
CN111932490A (en) Method for extracting grabbing information of visual system of industrial robot
CN109409181A (en) A kind of finger lower edges independent detection method referring to vein image for low quality
CN111476804A (en) Method, device and equipment for efficiently segmenting carrier roller image and storage medium
TWI543117B (en) Method for recognizing and locating object
CN111192326A (en) Method and system for visually identifying direct-current charging socket of electric automobile
CN109993046B (en) Self-shadow object edge identification method and device based on visual camera and vehicle
CN113034526B (en) Grabbing method, grabbing device and robot
KR101333459B1 (en) Lane detecting method and apparatus thereof
US20230009925A1 (en) Object detection method and object detection device
CN112991327A (en) Steel grid welding system and method based on machine vision and terminal equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment