KR101778724B1 - Device and method for reconition of road markings - Google Patents
Device and method for reconition of road markings Download PDFInfo
- Publication number
- KR101778724B1 KR101778724B1 KR1020160164627A KR20160164627A KR101778724B1 KR 101778724 B1 KR101778724 B1 KR 101778724B1 KR 1020160164627 A KR1020160164627 A KR 1020160164627A KR 20160164627 A KR20160164627 A KR 20160164627A KR 101778724 B1 KR101778724 B1 KR 101778724B1
- Authority
- KR
- South Korea
- Prior art keywords
- road
- image
- layer
- road sign
- neural network
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G06K9/00798—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 도로 표지 인식 기술에 관한 것으로서, 구체적으로는 회선 신경망 기술(CNN; Convolutional Neural Network)을 이용하여 도로 면의 도로 표지를 인식하는 장치 및 방법에 관한 것이다.BACKGROUND OF THE
최근 차량의 첨단 운전자 지원 시스템(Advanced Driver Assistance System) 발전으로 인해 운전자가 주행 중에 발생하는 정보들을 영상 및 센서 등을 사용해서 차량 사고의 발생들을 미리 경고해주는 시스템이 존재한다. 하지만, 도로 면의 도로 표지, 차선들은 상당히 노후가 된 상태이며, 실제로 이 훼손된 차선 또는 도로 표지를 칠하는 정부의 예산은 턱없이 부족한 상태이다. 여기서 훼손된 도로 표지의 의미는 부식된, 마모된, 변색된 것을 의미한다. 이러한 훼손이 되는 요인으로는 눈, 비 등과 같은 자연적인 요인과 자동차의 도로면 접촉에 의한 외부요인으로 발생한다. Recently, there has been a system for warning the occurrence of a vehicle accident by using images and sensors, etc., caused by the development of an advanced driver assistance system (advanced driver assistance system) of a vehicle. However, the road signs and lanes on the road are considerably old, and the budget of the government that paints this damaged lane or road mark is in short supply. Here, the meaning of the damaged road sign means that it is corroded, worn, discolored. These damages are caused by natural factors such as snow, rain, and external factors due to road surface contact of the vehicle.
본 발명의 배경기술은 대한민국 공개특허공보 제10-2016-0122452호(2016.10.24)에 개시되어 있다.The background art of the present invention is disclosed in Korean Patent Laid-Open Publication No. 10-2016-0122452 (October 26, 2014).
본 발명은 촬영된 도로 영상을 다양한 도로 표지들을 학습한 회선 신경망 기술 모델을 이용하여 인식하는 도로 표지 인식 장치 및 방법을 제공하기 위한 것이다.The present invention provides a road mark recognition apparatus and method for recognizing a photographed road image using a line neural network technology model in which various road signs are learned.
본 발명의 일 측면에 따르면, 도로 표지 인식 장치가 제공된다.According to an aspect of the present invention, a road sign recognition apparatus is provided.
본 발명의 일 실시 예에 따른 도로 표지 인식 장치는 촬영된 도로 영상이 입력되는 도로 표지 영상 입력부, 입력된 도로 영상에서 도로 표지 이미지를 추출하고, 추출한 도로 표지 이미지에 딥러닝 기반의 회선 신경망(Convolutional Neural Network) 모델을 적용하여 도로 표지를 인식하는 도로 표지 인식부 및 인식된 도로 표지를 출력하는 도로 표지 안내부를 포함할 수 있다.The road mark recognition apparatus according to an embodiment of the present invention includes a road sign image input unit to which a photographed road image is input, a road sign image extraction unit that extracts a road sign image from the input road image, A road sign recognition unit for recognizing the road sign by applying the Neural Network model, and a road sign information unit for outputting the recognized road sign.
본 발명의 다른 일 측면에 따르면, 도로 표지 인식 방법 및 이를 실행하는 컴퓨터 프로그램이 제공된다.According to another aspect of the present invention, a road mark recognition method and a computer program for executing the same are provided.
본 발명의 일 실시 예에 따른 도로 표지 인식 방법 및 이를 실행하는 컴퓨터 프로그램은 도로 영상을 입력하는 단계, 도로 영상에서 관심 영역을 지정하는 단계, 지정된 관심 영역 이미지에 대해 역원근 변환을 수행하여 사영 이미지를 생성하는 단계, 역원근 변환된 사영 이미지에서 도로 표지 이미지를 추출하는 단계 및 도로 표지 이미지에 대한 회선 신경망 기반 학습을 수행하고 검출된 도로 표지 이미지를 인식하여 출력하는 단계를 포함할 수 있다.A road mark recognition method and a computer program for executing the same according to an embodiment of the present invention include steps of inputting a road image, designating an area of interest in a road image, performing inverse perspective transformation on a designated area of interest, Extracting a road mark image from the inverse perspective transformed projected image, and performing line neural network based learning on the road mark image and recognizing and outputting the detected road mark image.
본 발명의 실시 예에 따르면, 딥러닝(Deep Learning) 기반으로 다양한 도로 표지들을 학습한 회선 신경망 모델을 이용하여 촬영된 도로 표지를 정확하게 인식할 수 있다.According to the embodiment of the present invention, it is possible to accurately recognize the photographed road mark using a line neural network model in which various road markings are learned based on Deep Learning.
또한, 본 발명의 실시 예에 따르면, 정확하게 도로 표지를 인식하여 운전자에게 안내하여 정확한 경로 판단 및 안전한 운전을 지원하고 교통 사고를 예방할 수 있다. Further, according to the embodiment of the present invention, it is possible to correctly recognize the road sign and guide the driver to the correct road, to support accurate driving and safe driving, and to prevent a traffic accident.
도 1은 본 발명의 일 실시 예에 따른 도로 표지 인식 시스템을 설명하기 위한 도면.
도 2 내지 5는 본 발명의 일 실시 예에 따른 도로 표지 인식 장치를 설명하기 위한 도면들.
도 6 내지 도 18은 본 발명의 일 실시 예에 따른 도로 표지 인식 방법을 설명하기 위한 도면들.1 is a view for explaining a road sign recognition system according to an embodiment of the present invention;
2 to 5 are views for explaining a road sign recognition apparatus according to an embodiment of the present invention.
6 to 18 are views for explaining a road mark recognition method according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, the singular phrases used in the present specification and claims should be interpreted generally to mean "one or more " unless otherwise stated.
이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout. .
도 1은 본 발명의 일 실시 예에 따른 도로 표지 인식 시스템을 설명하기 위한 도면이다.1 is a view for explaining a road sign recognition system according to an embodiment of the present invention.
도 1을 참조하면, 도로 표지 인식 시스템은 영상 촬영 장치(10), 도로 표지 인식 장치(20) 및 도로 표지(30)를 포함한다. Referring to FIG. 1, the road marking recognition system includes a
영상 촬영 장치(10)는 도로를 촬영한다. 영상 촬영 장치(10)는 예를 들면, CCD 또는 CMOS 디지털 카메라일 수 있으며, 블랙박스 카메라일 수 있다. The
도로 표지 인식 장치(20)는 촬영된 도로 영상에서 도로 표지를 인식한다. 도로 표지 인식 장치(20)는 촬영된 도로 영상에서 도로 표지 이미지를 검출하고, 딥러닝 기반의 회선 신경망 모델을 적용하여 도로 표지 이미지를 인식한다. 도로 표지 인식 장치(20)는 이하 도 2 내지 도 4에서 더욱 상세히 설명하기로 한다.The road
도로 표지(30)는 직진 표시(FA; Forward arrow), 직진 좌회전 표시(FLA; Forward-Left arrow), 직진 좌우회전 표시(FLRA; Forward-Left-Right arrow), 직진 우회전 표시(FRA; Forward-Right arrow), 좌회전 표시(LA; Left arrow) 및 우회전 표시(RA; Right arrow) 중 어느 하나일 수 있다.The
도 2 내지 5는 본 발명의 일 실시 예에 따른 도로 표지 인식 장치를 설명하기 위한 도면들이다. FIGS. 2 to 5 are views for explaining a road mark recognition apparatus according to an embodiment of the present invention.
도 2를 참조하면, 도로 표지 인식 장치(20)는 도로 표지 영상 입력부(100), 도로 표지 인식부(200) 및 도로 표지 안내부(300)를 포함한다.Referring to FIG. 2, the road
도로 표지 영상 입력부(100)는 촬영된 도로 영상이 입력된다. The road sign
도로 표지 인식부(200)는 입력된 도로 영상에서 도로 표지 이미지를 추출하고 추출한 도로 표지 이미지에 딥러닝 기반의 회선 신경망 모델을 적용하여 도로 표지를 인식한다. The road
도 3을 참조하면, 도로 표지 인식부(200)는 관심 영역 지정부(220), 역원근 변환부(240), 도로 표지 검출부(260) 및 회선 신경망 기반 인식부(280)를 포함한다.3, the road
관심 영역 지정부(220)는 입력된 도로 영상에서 도로면 정보를 관심 영역으로 지정하고, 지정되지 않은 다른 불필요한 영역들을 제거한다. The interest
역원근 변환부(240)는 지정된 도로면 정보를 역원근 변환(Inverse Perspective Transform)하여 변환 도로면 정보를 생성한다. 역원근 변환부(220)는 입력 영상을 하늘에서 밑을 내려 보듯이(Bird's eye view) 사영시킨다. 역원근 변환부(220)는 카메라의 틸트(Tilt) 각도, 초점 길이(Focus length) 등 카메라의 파라미터를 사용하여 차선들이 직선이 되면 최종적으로 사영(Bird's eye view)이 잘되었다고 판단할 수 있다.The inverse perspective transform
도로 표지 검출부(260)는 변환 도로면 정보에서 도로 표지 이미지를 검출한다. 도로 표지 검출부(230)는 라벨링(Labeling), 모폴로지(Morphology), 캐니 에지 감지(Canny Edge Detection) 및 소벨 에지(Sobel Edge) 중 적어도 하나의 알고리즘을 적용하여 도로 표지를 검출할 수 있다.The road
회선 신경망 기반 인식부(280)는 회선 신경망(CNN; Convolutional Neural Network) 기반 인식 방법을 적용하여 검출한 도로 표지 이미지를 인식한다. The circuit neural network based
도 4 및 도 5를 참조하면, 회선 신경망 기반 인식부(280)는 이미지 입력 레이어(282), 특징 추출 레이어(284) 및 분류 레이어(286)을 포함한다.4 and 5, the circuit-based neural network based
이미지 입력 레이어(282)는 미리 설정한 스케일의 도로 표지 이미지를 입력한다. 이미지 입력 레이어(282)는 그레이-스케일(gray-scale)의 이미지를 이용할 수 있으며 265×137 픽셀의 크기일 수 있다. The
특징 추출 레이어(284)는 입력한 도로 표지 이미지에 회선 신경망 모델을 적용하여 특징을 추출한다. 특징 추출 레이어(284)는 (1) 3개의 콘벌루션 레이어들을 포함할 수 있고, (2) 각각의 콘벌루션 레이어들은 교정 선형 유닛(Rectified Linear Unit); 이하 'ReLU') 레이어와 함께 하고, (3) 채널 방식 로컬 반응 정규화(Channel-wise local response normalization) 레이어 및 (4) 최대 풀링(Max pooling) 레이어를 포함할 수 있다. The
여기서, 제1 콘벌루션 레이어는 265×137×1 픽셀의 이미지가 입력되며, 크기 5×5×1 크기의 180개의 필터를 이용하여 2 픽셀 간격으로 콘벌루션화될 수 있다. 이 경우 필터당 가중치 크기는 5×5×1=25이고, 제1 콘벌루션 레이어에서 전체 파라미터의 수는(25+1) ×180 = 4680이며, 여기서, 1은 바이어스(bias)를 나타낸다. 제1 콘벌루션 레이어에서 특징 맵의 크기는 131×67×180이고, 131 및 67은 출력 높이 및 너비이다. 출력 높이(또는 너비)는 입력 높이(또는 너비) - 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 +1 의 식을 이용하여 산출될 수 있다. 출력들은 ReLU 레이어 및 교차 채널 정규화 레이어를 거치며, 2 픽셀 간격으로 적용하는 3×3 크기의 필터들을 포함하는 제1 맥스 풀링 레이어에 의해 처리된 후 다운샘플링된다. 따라서, 제1 맥스 풀링 레이어에서의 출력은 출력 높이(또는 너비)= 입력 높이(또는 너비)- 필터 높이(또는 너비) + 2 × 패딩)/스트라이드 +1 등식에 의해 65(=((131 - 3 + 2×0)/2+1))×33(= ((67- 3+ 2×0)/2+1))×180로 계산된다. 깊이 차원은 맥스 풀링 적용 후에 180에서 변하지 않고 남아 있다. 제1 맥스 풀링 레이어 다음의 특징 맵의 크기는 65×33×180이다. 이후, 제2 콘벌루션 레이어에서 5×5×1 크기의 250개의 필터를 이용하여 콘벌루션화하고, 3×3 크기의 필터를 가지는 제2 맥스 풀링 레이어를 적용하고, 특징 맵의 크기를 줄이는 과정을 2 픽셀 간격으로 적용한다. 다음 제3 콘벌루션 레이어가 2 픽셀 간격에서 3×3 크기의 필터를 250개 포함하고, 연속된 2 픽셀에서 3×3 크기의 필터를 가지는 제3 맥스 풀링 레이어를 적용한 후에 출력은 750 (=3×250)으로 나타내어지고, 이것은 제1 완전 연결 레이어의 입력으로 이용될 수 있다.Here, the first convolution layer receives an image of 265 x 137 x 1 pixels, and can be convoluted at intervals of two pixels using 180 filters of size 5x5x1. In this case, the weight per filter size is 5 x 5 x 1 = 25, and the total number of parameters in the first convolution layer is (25 + 1) x 180 = 4680, where 1 represents a bias. The size of the feature map in the first convolution layer is 131 x 67 x 180, and 131 and 67 are the output height and width. The output height (or width) can be computed using the input height (or width) - filter height (or width) + 2 × padding) / stride +1. The outputs pass through the ReLU layer and the cross-channel normalization layer and are processed and downsampled by a first Max-Pulling layer that includes 3x3 filters applied at 2-pixel intervals. Thus, the output from the first max-pulling layer is 65 (= ((131 -)) by the output height (or width) = input height (or width) - filter height (or width) + 2 x padding) / stride + 3 + 2 × 0) / 2 + 1)) × 33 (= ((67-3 + 2 × 0) / 2 + 1)) × 180. The depth dimension remains unchanged at 180 after the application of Max Pooling. The size of the feature map following the first max-pulling layer is 65 x 33 x 180. Thereafter, in the second convolution layer, convolution is performed using 250 filters of 5 × 5 × 1, a second max-pulling layer having a filter of 3 × 3 is applied, and a process of reducing the size of the feature map Is applied at intervals of two pixels. After the third convolution layer has 250 3 × 3 filters at 2 pixel intervals and a third max-pooling layer with 3 × 3 filters at 2 consecutive pixels, the output is 750 (= 3 X250), which can be used as the input of the first fully connected layer.
또한, 특징 추출 레이어(284)는 콘벌루션 레이어들 다음으로 4개의 완전 연결(Fully connected) 레이어 집합들을 더 포함할 수 있다. 처음 3개의 완전 연결 레이어 집합들에는 완전 연결 레이어 및 ReLU 레이어를 포함할 수 있고 4번째 완전 연결 레이어 전에 드롭아웃(Drop out) 레이어가 삽입될 수 있고 4번째 완전 연결 레이어 뒤에 소프트맥스(Softmax) 레이어를 포함할 수 있다.In addition, the
여기서, 제1 완전 연결 레이어는 750 및 1920 노드들을 입력 및 출력으로 각각 가질 수 있다. 제2 완전 연결 레이어는 1920 및 1024 노드들을 입력 및 출력으로 각각 가질 수 있다. 제3 완전 연결 레이어는 1024 및 512 노드들을 입력 및 출력으로 각각 가질 수 있다. 제4 완전 연결 레이어 전에는 드롭아웃 기술이 적용되며, 이는 무작위로 미리 설정된 확률에 기초하여 각각의 숨겨진 노드의 출력을 0으로 설정할 수 있다. 여기서, 미리 설정된 확률은 0.65일 수 있다. 다음 제4 완전 연결 레이어는 512 및 6 노드들을 입력 및 출력으로 가질 수 있으며, 이는 소프트맥스 함수를 통하여 최종적으로 얻어질 수 있다.Here, the first complete connection layer may have 750 and 1920 nodes as inputs and outputs, respectively. The second fully connected layer may have 1920 and 1024 nodes as inputs and outputs, respectively. The third fully connected layer may have 1024 and 512 nodes respectively as inputs and outputs. Prior to the fourth complete connection layer, a dropout technique is applied, which can set the output of each hidden node to zero based on a randomly predetermined probability. Here, the preset probability may be 0.65. The next fourth full connection layer may have 512 and 6 nodes as inputs and outputs, which may ultimately be obtained through a soft max function.
분류 레이어(286)는 회선 신경망 모델을 적용하여 추출한 특징에 의해 미리 설정된 수의 도로 표지로 분류한다. 여기서, 미리 설정된 수는 6개 일 수 있으며, 직진 표시(FA; Forward arrow), 직진 좌회전 표시(FLA; Forward-Left arrow), 직진 좌우회전 표시(FLRA; Forward-Left-Right arrow), 직진 우회전 표시(FRA; Forward-Right arrow), 좌회전 표시(LA; Left arrow) 및 우회전 표시(RA; Right arrow) 중 적어도 하나를 포함할 수 있다. The
아래의 표 1은 본 발명의 일 실시 예에 따른 회선 신경망 모델의 파라미터를 설정한 것이다.Table 1 below sets parameters of a circuit neural network model according to an embodiment of the present invention.
of filtersof filters
feature mapFeature Map
kernelkernel
of strideof stride
다시 도 2를 참조하면, 도로 표지 안내부(300)는 인식된 도로 표지를 출력하여 운전자에게 안내한다. Referring again to FIG. 2, the
도 6 내지 도 18은 본 발명의 일 실시 예에 따른 도로 표지 인식 방법을 설명하기 위한 도면들이다.6 to 18 are views for explaining a road mark recognition method according to an embodiment of the present invention.
도 6을 참조하면, 단계 S610에서 도로 표지 인식 장치(20)는 도로 영상을 입력한다. 도로 표지 인식 장치(20)를 예를 들면, 도 7의 (a)와 같은 도로 영상을 입력할 수 있다. Referring to FIG. 6, in step S610, the road
단계 S620에서 도로 표지 인식 장치(20)는 도로 영상에서 관심 영역을 지정한다.In step S620, the road
단계 S630에서 도로 표지 인식 장치(20)는 지정된 관심 영역 이미지에 대해 역원근 변환을 수행하여 사영 이미지를 생성한다. 도로 표지 인식 장치(20)는 입력된 도로 영상이 다양한 방향 및 각도에서 촬영될 수 있으므로 이를 역원근 매핑(Inverse perspective mapping)를 통하여 도 7의 (b)과 같은 사영 이미지로 변환할 수 있다. 여기서, 역원근 매핑은 원근 변환 매트릭스가 계산되어 이용될 수 있다.In step S630, the road
단계 S640에서 도로 표지 인식 장치(20)는 역원근 변환된 사영 이미지에서 도로 표지 이미지를 추출한다. 도로 표지 인식 장치(20)는 도 7의 (c)의 점선 안에 위치한 도로 표지 이미지를 추출할 수 있다. 도로 표지 인식 장치(20)는 라벨링(Labeling), 모폴로지(Morphology), 캐니 에지 감지(Canny Edge Detection) 및 소벨 에지(Sobel Edge) 중 적어도 하나의 알고리즘을 적용하여 도로 표지를 추출할 수 있다.In step S640, the road
단계 S650에서 도로 표지 인식 장치(20)는 도로 표지 이미지에 대한 회선 신경망 기반 학습을 수행하고 검출된 도로 표지 이미지를 인식하여 출력한다. In step S650, the road
도로 표지 인식 장치(20)는 다양한 조명의 변화, 그림자 및 심한 훼손을 포함하는 6개의 데이터 세트로부터 도 8에 도시된 일반 도로 표지, 훼손된 도로 표지 및 그림자를 포함한 도로 표지를 포함한 10가지의 도로 표지를 학습 및 검증을 위하여 이용하였다. 여기서, 6개의 데이터 세트는 도 9에 도시된 로드 마킹 데이터 세트, 도 10에 도시된 KITTI 데이터 세트, 도 11에 도시된 맬라가 데이터 세트, 도 12에 도시된 맬라가 도시 데이터 세트, 도 13에 도시된 네이버 거리 뷰 데이터 세트 및 도 14에 도시된 데이터로드 데이터 세트이다. 6개의 데이터 세트의 데이터들은 직진 표시(FA; Forward arrow), 직진 좌회전 표시(FLA; Forward-Left arrow), 직진 좌우회전 표시(FLRA; Forward-Left-Right arrow), 직진 우회전 표시(FRA; Forward-Right arrow), 좌회전 표시(LA; Left arrow) 및 우회전 표시(RA; Right arrow) 등 6개의 도로 표지 범주로 분류되었다. 도로 표지 인식 장치(20)는 회선 신경망을 학습하기 위하여 서로 다른 크기의 데이터들을 크기 정규화 및 바이리니어(bi-linear) 보간법에 의해 모든 도로 표지 이미지를 우선 194×94 픽셀 크기로 변형하였다. 도로 표지 인식 장치(20)는 6개의 데이터 세트에서 아래 표 2와 같이 총 163,809개의 데이터들을 이용하여 학습 및 검증을 수행하였다. The road
학습 및 검증은 Intel® Core™ i7-6700 CPU @ 3.40 GHz (4 CPUs), 64 GB 메모리 및 12 GB의 메모리를 가진 그래픽 카드 NVIDIA GeForce GTX TITAN X (3,072 CUDA cores) 컴퓨팅 장치가 이용되었다.The learning and validation was done using a NVIDIA GeForce GTX TITAN X (3,072 CUDA cores) computing device with an Intel® Core ™ i7-6700 CPU @ 3.40 GHz (4 CPUs), 64 GB memory and 12 GB of memory.
도로 표지 인식 장치(20)는 회선 신경망 모델을 학습시켰으며, 194×94 픽셀 크기 이미지를 바이리니어 보간법에 의해 8비트 그레이의 265×137 픽셀 크기로 최종적으로 변경하여 학습 및 검증에 이용하였다. 여기서, 회선 신경망 모델의 학습은 앞 서 도 4 및 도 5를 참조하여 설명한 방법과 같다. The road
도 15 내지 도 18는 본 발명의 일 실시 예에 따른 회선 신경망 기반의 학습을 통한 도로 표지 인식 방법의 도로 표지 분류 결과를 나타낸 도면들이다.15 to 18 are diagrams showing road sign classification results of a road mark recognition method through learning based on a circuit neural network according to an embodiment of the present invention.
도 15 내지 도 18에서 그래프 y 축은 도로 표지 분류 학습 정확도를 나타내며, x 축은 학습 에폭(Training epoch)을 나타낸다. 여기서, 학습 에폭(Training epoch)은 학습할 데이터가 1만장이라 가정하면, 10 에폭은 10만장을 학습하는 것을 의미한다. 15 to 18, the y axis of the graph represents the road mark classification learning accuracy, and the x axis represents a training epoch. Here, a training epoch means that 10 epochs are learning 100,000, assuming that the data to be learned is 10,000.
검증은 데이터들을 13 그룹으로 나누어 13 회의 교차 검증(cross validation)를 수행하였으며, 163,809 이미지 전체의 데이터 세트 중에 92.7% (151,809 이미지) 및 7.3% (12,000 이미지)가 무작위로 선택되어 학습 및 검증에 이용되었다. 이러한 결과를 기초로 도로 표지 인식의 평균 정확도를 아래 수식 1 내지 4를 이용하여 계산하였다.Verification performed 13 cross validations by dividing the data into 13 groups and 92.7% (151,809 images) and 7.3% (12,000 images) were randomly selected among the data sets of the entire 163,809 images for use in learning and verification . Based on these results, the average accuracy of the road sign recognition was calculated using the following equations (1) - (4).
(1)(One)
(2)(2)
(3)(3)
(4)(4)
여기서, #TN, #TP, #FN 및 #FP 는 각각 true negatives (TN's), true positives (TP's), false negatives (FN's) 및 false positives (FP's)의 개수를 나타낸다. Here, #TN, #TP, #FN, and #FP represent the number of true negatives (TN's), true positives (TP's), false negatives (FN's), and false positives (FP's).
아래 표 3을 참조하면, 본 발명에 따른 도로 표지 인식 정확도는 6개의 데이터 세트를 이용한 학습에 의해 99.8%보다 높은 것으로 확인되었다.Referring to Table 3 below, the accuracy of the road marking recognition according to the present invention was confirmed to be higher than 99.8% by learning using six data sets.
본 발명의 실시 예에 따른 도로 표지 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The road mark recognition method according to an exemplary embodiment of the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a computer-readable medium may be those specially designed and constructed for the present invention or may be available to those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. The above-mentioned medium may also be a transmission medium such as a light or metal wire, wave guide, etc., including a carrier wave for transmitting a signal designating a program command, a data structure and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
10: 영상 촬영 장치
20: 도로 표지 인식 장치
30: 도로 표지10: Video shooting device
20: Road sign recognition device
30: Road sign
Claims (10)
촬영된 도로 영상이 입력되는 도로 표지 영상 입력부;
상기 입력된 도로 영상에서 도로 표지 이미지를 추출하고, 추출한 도로 표지 이미지에 딥러닝 기반의 회선 신경망(Convolutional Neural Network) 모델을 적용하여 도로 표지를 인식하는 도로 표지 인식부; 및
인식된 도로 표지를 출력하는 도로 표지 안내부를 포함하되,
상기 도로 표지 인식부는
상기 입력된 도로 영상에서 도로면 정보를 관심 영역으로 지정하고, 지정되지 않은 다른 불필요한 영역들을 제거하는 관심 영역 지정부;
상기 지정된 도로면 정보를 역원근 변환하여 변환 도로면 정보를 생성하는 역원근 변환부;
상기 변환 도로면 정보에서 도로 표지 이미지를 검출하는 도로 표지 검출부; 및
상기 회선 신경망 모델 기반 인식 방법을 적용하여 검출한 도로 표지 이미지를 인식하는 회선 신경망 기반 인식부를 포함하는 도로 표지 인식 장치.
A road mark recognition apparatus comprising:
A road sign image input unit to which the photographed road image is input;
A road sign recognition unit for extracting a road sign image from the input road image and recognizing a road sign by applying a deep learning based convolutional neural network model to the extracted road sign image; And
And a road sign information unit for outputting the recognized road sign,
The road sign recognition unit
An interest area designation unit for designating road surface information as an area of interest in the input road image and removing unnecessary areas that are not designated;
An inverse perspective transform unit for performing inverse perspective transformation on the designated road surface information to generate transformed road surface information;
A road sign detector for detecting a road sign image from the converted road surface information; And
And a circuit-based neural network-based recognition unit for recognizing the road mark image detected by applying the line-by-line neural network model-based recognition method.
상기 회선 신경망 기반 인식부는
미리 설정한 스케일의 도로 표지 이미지를 입력하는 이미지 입력 레이어;
입력한 도로 표지 이미지에 회선 신경망 모델을 적용하여 특징을 추출하는 특징 추출 레이어; 및
상기 추출한 특징에 의해 미리 설정된 수의 도로 표지로 분류하는 분류 레이어를 포함하는 도로 표지 인식 장치.
3. The method of claim 2,
The circuit-based neural network-based recognition unit
An image input layer for inputting a road cover image of a preset scale;
A feature extraction layer for extracting features by applying a line neural network model to the inputted road mark image; And
And a classification layer that classifies the road sign into a predetermined number of road signs according to the extracted feature.
상기 특징 추출 레이어는
3개의 콘벌루션 레이어 집합 및 4개의 완전 연결 레이어 집합을 포함하는 도로 표지 인식 장치.
The method of claim 3,
The feature extraction layer
A road sign recognition apparatus comprising three convolution layer sets and four fully connected layer sets.
상기 3개의 콘벌루션 레이어 집합은
265×137×1 픽셀의 이미지가 입력되며, 크기 5×5×1 크기의 180개의 필터를 이용하여 콘벌루션화하는 제1 콘벌루션 레이어;
3×3 크기의 필터를 적용하여 65×33×180 픽셀을 출력하는 제1 맥스 풀링 레이어;
상기 65×33×180 픽셀을 크기 5×5×1 크기의 250개의 필터를 이용하여 콘벌루션화하는 제2 콘벌루션 레이어;
3×3 크기의 필터를 적용하여 15×7×250 픽셀을 출력하는 제2 맥스 풀링 레이어;
상기 15×7×250 픽셀을 크기 3×3×1 크기의 250개의 필터를 이용하여 콘벌루션화하는 제3 콘벌루션 레이어; 및
3×3 크기의 필터를 적용하여 3×1×250 픽셀을 출력하는 제3 맥스 풀링 레이어를 포함하는 도로 표지 인식 장치.
5. The method of claim 4,
The three convolution layer sets
A first convolution layer for inputting an image of 265 x 137 x 1 pixels and convoluting using 180 filters of size 5 x 5 x 1 size;
A first max-pulling layer for applying a 3x3 filter to output 65x33x180 pixels;
A second convolution layer for convoluting the 65 × 33 × 180 pixels using 250 filters of size 5 × 5 × 1;
A second max-pulling layer for applying a 3x3 filter to output 15x7x250 pixels;
A third convolution layer for convoluting the 15 × 7 × 250 pixels using 250 filters of size 3 × 3 × 1; And
And a third maximum pulling layer for applying 3 × 3 size filters to output 3 × 1 × 250 pixels.
상기 4개의 완전 연결 레이어 집합은
750 및 1920 노드들을 각각 입력 및 출력으로 하는 제1 완전 연결 레이어;
1920 및 1024 노드들을 각각 입력 및 출력으로 하는 제2 완전 연결 레이어;
1024 및 512 노드들을 각각 입력 및 출력으로 하는 제3 완전 연결 레이어; 및
512 및 6 노드들을 각각 입력 및 출력으로 하는 제4 완전 연결 레이어를 포함하는 도로 표지 인식 장치.
5. The method of claim 4,
The four fully connected layer sets
A first full connection layer having 750 and 1920 nodes as inputs and outputs, respectively;
A second complete connection layer having 1920 and 1024 nodes as inputs and outputs, respectively;
A third full connection layer having 1024 and 512 nodes as inputs and outputs, respectively; And
512, and 6 nodes as inputs and outputs, respectively.
도로 영상을 입력하는 단계;
상기 도로 영상에서 관심 영역을 지정하는 단계;
상기 지정된 관심 영역 이미지에 대해 역원근 변환을 수행하여 사영 이미지를 생성하는 단계;
상기 역원근 변환된 사영 이미지에서 도로 표지 이미지를 추출하는 단계; 및
상기 도로 표지 이미지에 대한 회선 신경망 기반 학습을 수행하고 검출된 도로 표지 이미지를 인식하여 출력하는 단계를 포함하는 도로 표지 인식 방법.
In a road mark recognition method,
Inputting a road image;
Designating a region of interest in the road image;
Performing inverse perspective transformation on the designated ROI image to generate a projected image;
Extracting a road mark image from the inverted perspective transformed projected image; And
Performing line-by-line neural network-based learning on the road mark image, and recognizing and outputting the detected road mark image.
상기 역원근 변환된 사영 이미지에서 도로 표지 이미지를 추출하는 단계는
상기 역원근 변환된 사영 이미지에서 라벨링(Labeling), 모폴로지(Morphology), 캐니 에지 감지(Canny Edge Detection) 및 소벨 에지(Sobel Edge) 중 적어도 하나의 알고리즘을 적용하여 도로 표지를 추출하는 도로 표지 인식 방법.
8. The method of claim 7,
The step of extracting the road mark image from the inverse perspective transformed projected image
A road sign recognition method for extracting a road sign by applying at least one algorithm among Labeling, Morphology, Canny Edge Detection and Sobel Edge in the inverse perspective transformed projected image .
상기 도로 표지 이미지에 대한 회선 신경망 기반 학습을 수행하고 검출된 도로 표지 이미지를 인식하여 출력하는 단계는
데이터 세트에 포함된 도로 이미지를 미리 설정된 수의 도로 표지 범주로 분류하는 단계;
상기 데이터 세트에 포함된 도로 이미지를 크기를 정규화하고 보간법에 의해 미리 설정된 크기로 변형하는 단계;
변형한 도로 이미지를 이용하여 회선 신경망 모델을 학습시키는 단계; 및
상기 학습된 회선 신경망 모델을 검출된 도로 표지 이미지에 적용하여 도로 표지를 인식하는 단계를 포함하는 도로 표지 인식 방법.
8. The method of claim 7,
Performing line neural network based learning on the road sign image, and recognizing and outputting the detected road sign image,
Classifying the road images included in the data set into a predetermined number of road marking categories;
Normalizing the road image included in the data set and transforming the road image into a predetermined size by an interpolation method;
Learning a line neural network model using a modified road image; And
And recognizing the road mark by applying the learned line neural network model to the detected road mark image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160164627A KR101778724B1 (en) | 2016-12-05 | 2016-12-05 | Device and method for reconition of road markings |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160164627A KR101778724B1 (en) | 2016-12-05 | 2016-12-05 | Device and method for reconition of road markings |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101778724B1 true KR101778724B1 (en) | 2017-09-14 |
Family
ID=59926611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160164627A KR101778724B1 (en) | 2016-12-05 | 2016-12-05 | Device and method for reconition of road markings |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101778724B1 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066933A (en) * | 2017-01-25 | 2017-08-18 | 武汉极目智能技术有限公司 | A kind of road sign recognition methods and system |
CN108806003A (en) * | 2018-05-25 | 2018-11-13 | 西南交通大学 | A kind of green detection method that is open to traffic of the turn pike based on machine learning |
KR101942219B1 (en) * | 2018-07-05 | 2019-01-24 | 고재성 | Apparatus and method for waste image identification using convolution neural network |
KR101969842B1 (en) * | 2017-12-18 | 2019-04-17 | 한국건설기술연구원 | System for classifying dangerous road surface information based on deep running and method thereof |
KR20190072074A (en) * | 2017-12-15 | 2019-06-25 | 서강대학교산학협력단 | Malware detection system and method thereof |
KR20190095606A (en) * | 2018-01-25 | 2019-08-16 | 상명대학교산학협력단 | System and Method for recognizing art objects in video combining deep learning technology and image feature extraction technology |
KR20190100982A (en) * | 2018-02-05 | 2019-08-30 | 동국대학교 산학협력단 | Deep learning based gaze detection system and method for automobile drivers |
CN110348396A (en) * | 2019-07-15 | 2019-10-18 | 南京信息工程大学 | A kind of road top text traffic sign and device based on deep learning |
KR20190124113A (en) * | 2018-04-25 | 2019-11-04 | 연세대학교 산학협력단 | Deep Learning-based road area estimation apparatus and method using self-supervised learning |
KR102087889B1 (en) * | 2019-11-11 | 2020-03-11 | 손동우 | A deep-learning eduacation system using arrow images |
CN111126185A (en) * | 2019-12-09 | 2020-05-08 | 南京莱斯电子设备有限公司 | Deep learning vehicle target identification method for road intersection scene |
US10719720B2 (en) | 2017-12-18 | 2020-07-21 | Korea Institute Of Civil Engineering And Building Technology | Artificial intelligence system for providing road surface risk information and method thereof |
CN113393027A (en) * | 2021-06-10 | 2021-09-14 | 大连海事大学 | Navigation mark drift intelligent prediction method based on deep learning |
-
2016
- 2016-12-05 KR KR1020160164627A patent/KR101778724B1/en active IP Right Grant
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066933B (en) * | 2017-01-25 | 2020-06-05 | 武汉极目智能技术有限公司 | Road sign identification method and system |
CN107066933A (en) * | 2017-01-25 | 2017-08-18 | 武汉极目智能技术有限公司 | A kind of road sign recognition methods and system |
KR102030132B1 (en) | 2017-12-15 | 2019-10-08 | 서강대학교산학협력단 | Malware detection system and method thereof |
KR20190072074A (en) * | 2017-12-15 | 2019-06-25 | 서강대학교산학협력단 | Malware detection system and method thereof |
US10719720B2 (en) | 2017-12-18 | 2020-07-21 | Korea Institute Of Civil Engineering And Building Technology | Artificial intelligence system for providing road surface risk information and method thereof |
KR101969842B1 (en) * | 2017-12-18 | 2019-04-17 | 한국건설기술연구원 | System for classifying dangerous road surface information based on deep running and method thereof |
WO2019124668A1 (en) * | 2017-12-18 | 2019-06-27 | 한국건설기술연구원 | Artificial intelligence system for providing road surface danger information and method therefor |
KR20190095606A (en) * | 2018-01-25 | 2019-08-16 | 상명대학교산학협력단 | System and Method for recognizing art objects in video combining deep learning technology and image feature extraction technology |
KR102027878B1 (en) * | 2018-01-25 | 2019-10-02 | 상명대학교산학협력단 | Method for recognizing art objects in video combining deep learning technology and image feature extraction technology |
KR102017766B1 (en) * | 2018-02-05 | 2019-10-15 | 동국대학교 산학협력단 | Deep learning based gaze detection system and method for automobile drivers |
KR20190100982A (en) * | 2018-02-05 | 2019-08-30 | 동국대학교 산학협력단 | Deep learning based gaze detection system and method for automobile drivers |
KR20190124113A (en) * | 2018-04-25 | 2019-11-04 | 연세대학교 산학협력단 | Deep Learning-based road area estimation apparatus and method using self-supervised learning |
KR102097869B1 (en) | 2018-04-25 | 2020-04-06 | 연세대학교 산학협력단 | Deep Learning-based road area estimation apparatus and method using self-supervised learning |
CN108806003A (en) * | 2018-05-25 | 2018-11-13 | 西南交通大学 | A kind of green detection method that is open to traffic of the turn pike based on machine learning |
KR101942219B1 (en) * | 2018-07-05 | 2019-01-24 | 고재성 | Apparatus and method for waste image identification using convolution neural network |
CN110348396A (en) * | 2019-07-15 | 2019-10-18 | 南京信息工程大学 | A kind of road top text traffic sign and device based on deep learning |
CN110348396B (en) * | 2019-07-15 | 2022-02-11 | 南京信息工程大学 | Deep learning-based method and device for recognizing character traffic signs above roads |
KR102087889B1 (en) * | 2019-11-11 | 2020-03-11 | 손동우 | A deep-learning eduacation system using arrow images |
CN111126185A (en) * | 2019-12-09 | 2020-05-08 | 南京莱斯电子设备有限公司 | Deep learning vehicle target identification method for road intersection scene |
CN111126185B (en) * | 2019-12-09 | 2023-09-05 | 南京莱斯电子设备有限公司 | Deep learning vehicle target recognition method for road gate scene |
CN113393027A (en) * | 2021-06-10 | 2021-09-14 | 大连海事大学 | Navigation mark drift intelligent prediction method based on deep learning |
CN113393027B (en) * | 2021-06-10 | 2023-11-07 | 大连海事大学 | Navigation mark drift intelligent prediction method based on deep learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101778724B1 (en) | Device and method for reconition of road markings | |
JP6853560B2 (en) | A method for auto-labeling a training image to be used for learning a deep learning network that analyzes a high-precision image, and an auto-labeling device using this {METHOD FOR AUTO-LABELING TRAINING IMAGES FOR USE IN DEEP LEARNING NETWORK TOAL IMAGES WITH HIGH PRECISION, AND AUTO-LABELING DEVICE USING THE SAMEM} | |
Song et al. | Lane detection and classification for forward collision warning system based on stereo vision | |
CN112528878B (en) | Method and device for detecting lane line, terminal equipment and readable storage medium | |
Anand et al. | Crack-pot: Autonomous road crack and pothole detection | |
Greenhalgh et al. | Recognizing text-based traffic signs | |
US9031282B2 (en) | Method of image processing and device therefore | |
Alam et al. | Indian traffic sign detection and recognition | |
CN112967283B (en) | Target identification method, system, equipment and storage medium based on binocular camera | |
KR102206834B1 (en) | Method and system for detecting changes in road-layout information | |
US9165204B2 (en) | Methods and systems for semantic label propagation | |
CN111738032B (en) | Vehicle driving information determination method and device and vehicle-mounted terminal | |
CN110826415A (en) | Method and device for re-identifying vehicles in scene image | |
Arora et al. | Automatic vehicle detection system in Day and Night Mode: challenges, applications and panoramic review | |
CN114220087A (en) | License plate detection method, license plate detector and related equipment | |
CN113158954A (en) | Automatic traffic off-site zebra crossing area detection method based on AI technology | |
CN112528944A (en) | Image identification method and device, electronic equipment and storage medium | |
CN116434156A (en) | Target detection method, storage medium, road side equipment and automatic driving system | |
US20220292806A1 (en) | Methods and Systems for Object Detection | |
KR101910256B1 (en) | Lane Detection Method and System for Camera-based Road Curvature Estimation | |
CN116052120A (en) | Excavator night object detection method based on image enhancement and multi-sensor fusion | |
CN114140773A (en) | Ground identification category confirmation method and device and vehicle | |
Burlacu et al. | Stereo vision based environment analysis and perception for autonomous driving applications | |
Merugu et al. | Multi lane detection, curve fitting and lane type classification | |
KR102045026B1 (en) | Apparatus and method for detecting lane |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |