KR102466004B1 - Lane Painting System using Deep Learning Technology - Google Patents
Lane Painting System using Deep Learning Technology Download PDFInfo
- Publication number
- KR102466004B1 KR102466004B1 KR1020220057659A KR20220057659A KR102466004B1 KR 102466004 B1 KR102466004 B1 KR 102466004B1 KR 1020220057659 A KR1020220057659 A KR 1020220057659A KR 20220057659 A KR20220057659 A KR 20220057659A KR 102466004 B1 KR102466004 B1 KR 102466004B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- unit
- painting
- nozzle
- vehicle
- Prior art date
Links
- 238000010422 painting Methods 0.000 title claims abstract description 81
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 238000005516 engineering process Methods 0.000 title claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 22
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 239000003973 paint Substances 0.000 claims description 13
- 239000007921 spray Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 claims 2
- 230000007613 environmental effect Effects 0.000 abstract description 3
- 238000000926 separation method Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E01—CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
- E01C—CONSTRUCTION OF, OR SURFACES FOR, ROADS, SPORTS GROUNDS, OR THE LIKE; MACHINES OR AUXILIARY TOOLS FOR CONSTRUCTION OR REPAIR
- E01C23/00—Auxiliary devices or arrangements for constructing, repairing, reconditioning, or taking-up road or like surfaces
- E01C23/16—Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings
- E01C23/20—Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings for forming markings in situ
- E01C23/22—Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings for forming markings in situ by spraying
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B05—SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
- B05B—SPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
- B05B12/00—Arrangements for controlling delivery; Arrangements for controlling the spray area
- B05B12/08—Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
- B05B12/081—Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to the weight of a reservoir or container for liquid or other fluent material; responsive to level or volume of liquid or other fluent material in a reservoir or container
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B05—SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
- B05B—SPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
- B05B12/00—Arrangements for controlling delivery; Arrangements for controlling the spray area
- B05B12/08—Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
- B05B12/12—Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus
- B05B12/126—Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus responsive to target velocity, e.g. to relative velocity between spray apparatus and target
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B05—SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
- B05B—SPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
- B05B13/00—Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
- B05B13/005—Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00 mounted on vehicles or designed to apply a liquid on a very large surface, e.g. on the road, on the surface of large containers
-
- E—FIXED CONSTRUCTIONS
- E01—CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
- E01C—CONSTRUCTION OF, OR SURFACES FOR, ROADS, SPORTS GROUNDS, OR THE LIKE; MACHINES OR AUXILIARY TOOLS FOR CONSTRUCTION OR REPAIR
- E01C23/00—Auxiliary devices or arrangements for constructing, repairing, reconditioning, or taking-up road or like surfaces
- E01C23/16—Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings
- E01C23/163—Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings for marking-out the location of the markings; Guiding or steering devices for marking apparatus, e.g. sights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T5/002—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Structural Engineering (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Civil Engineering (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Architecture (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 딥러닝 기술을 이용한 차선 도색 시스템에 관한 것으로, 더욱 상세하게는 도로에 도색된 기존 차선을 따라 정확하게 차선을 재도색하기 위해 도색차량의 주행과 도료를 분사하는 노즐을 자동 제어하는 딥러닝 기술을 이용한 차선 도색 시스템에 관한 것이다.The present invention relates to a lane painting system using deep learning technology, and more particularly, deep learning that automatically controls the driving of a painted vehicle and nozzles for spraying paint in order to accurately repaint the lane along the existing lanes painted on the road. It is about a lane painting system using technology.
일반적으로 도로에는 차량의 주행 방향과 간격을 안내하기 위한 차선이 도색되는데, 이러한 차선은 장기간 외부에 노출되게 됨에 따라 시인성이 떨어져 본래의 기능을 유지하기가 어렵게 되고, 따라서 시인성이 떨어진 차선을 재도색하여 본래의 기능이 유지될 수 있도록 하고 있다.In general, lanes are painted on roads to guide the driving direction and spacing of vehicles. As these lanes are exposed to the outside for a long time, visibility deteriorates, making it difficult to maintain their original functions. This is to ensure that the original function is maintained.
상기와 같은 목적의 종래 기술로는 등록특허공보 제2143641호의 비전센서를 이용한 자동 차선 도색장치(이하 '특허문헌'이라 한다)가 개시되어 있다.As a prior art for the above purpose, an automatic lane painting device using a vision sensor of Patent Registration No. 2143641 (hereinafter referred to as 'Patent Document') is disclosed.
상기 특허문헌에 개시된 차선 도색장치는, 차량의 전방 쪽에 설치되면서 상기 차선을 촬영하여 실시간 영상을 획득하는 전방카메라; 상기 차량의 하부 또는 일측에 위치되면서 상기 차선의 위치에 맞추어 도색하는 차선도색유닛; 상기 차량에 설치되면서 상기 전방카메라를 통해 획득되는 실시간 영상을 수신 후 데이터로 변환해 상기 차선도색유닛의 동작을 제어하는 제어부; 및 상기 전방카메라를 통해 촬영되는 실시간 영상이 출력되는 디스플레이부를 포함하고, 상기 차선도색유닛에는, 상기 차선을 인식하여 위치 정보를 획득하는 후방카메라가 구비되며, 상기 제어부에는, 상기 차량의 주행 방향과 상기 차선을 감지하는 복수 개의 센서가 설치되고, 상기 복수 개의 센서를 통해 상기 차량의 주행 방향과 상기 차선의 인식률이 보정되며, 상기 복수 개의 센서는, 상기 차량의 주행 방향을 감지함과 동시에 상기 차선의 위치를 검출하는 IMU 센서; 상기 도로 상의 상기 차선을 인식하는 조도 센서; 및 선택된 범위의 파장을 이용하여 상기 도로상에 도색된 상기 차선의 특정 재료를 인식하는 다중스펙트럼센서를 포함하고, 상기 제어부는, 상기 조도 센서 및 상기 다중스펙트럼센서를 통해 인식되는 차선의 정보를 병합하여 훼손된 상기 차선의 정보를 보정하고, 상기 전방카메라를 통해 촬영된 상기 도로 및 상기 차선의 영상을 상기 전방카메라가 설치된 각도에 기초하여 영상을 상기 도로와 수직이 되는 방향이 되도록 소정 각도를 적용하여 버드아이뷰 영상을 생성하며, 상기 후방카메라에서 검출된 영상에 이진화 알고리즘을 적용하여 도로 영역과 차선 영역을 구분하고, 구분된 차선 영역의 특징점을 추출한 다음, 추출된 특징점에 기초하여 라인을 추적하여 상기 차선의 훼손 부분을 보완하며, 상기 후방카메라는, 상기 전방카메라의 후방 쪽으로 소정 거리 이격되어 상기 차선을 상기 도로와 수직이 되는 방향에서 촬영하도록 설치되고, 상기 제어부는, 상기 전방카메라를 통해 촬영된 영상에 가상의 차선가이드를 병합하여 상기 디스플레이부를 통해 출력하고, 상기 차선가이드는, 상기 차선을 따라 소정의 직선 길이를 가지도록 형성되는 제1 측면바 일단이 상기 제1 측면바의 일측면에 연결되면서 타단이 상기 제1 측면바와 직교하도록 소정 길이를 가지는 연결바; 및 일단이 상기 연결바의 타단에 연결되면서 타단이 상기 제1 측면바와 평행하도록 소정의 직선 길이를 가지는 제2 측면바를 포함하며, 상기 제1 측면바와 상기 제2 측면바 사이의 폭은, 상기 차선의 폭 보다 소정 폭 넓게 형성되어, 상기 제1 측면바와 상기 차선의 좌측면 사이에는 좌측 이격거리가 형성되고, 상기 제2 측면바와 상기 차선의 우측면 사이에는 우측 이격거리가 형성되며, 상기 제어부는, 상기 좌, 우측 이격거리가 동일하면 상기 차선을 따라 정확하게 주행하고 있는 것으로 판단하고, 상기 좌, 우측 이격거리가 서로 다르면 상대적으로 값이 작은 방향으로 상기 차량이 치우쳐 주행하고 있는 것으로 판단하여 상기 좌, 우측 이격거리가 서로 같게 유지되도록 상기 차량의 주행 방향을 제어하는 것으로 이루어진다.The lane painting device disclosed in the patent document includes a front camera installed at the front side of a vehicle and acquiring a real-time image by photographing the lane; a lane painting unit located at the lower part or one side of the vehicle and painting the lane according to the position of the lane; a controller installed in the vehicle and receiving real-time images acquired through the front camera and then converting them into data to control the operation of the lane painting unit; and a display unit for outputting a real-time image captured by the front camera, wherein the lane painting unit includes a rear camera that recognizes the lane and obtains location information, and the controller includes a driving direction of the vehicle and A plurality of sensors for detecting the lane are installed, and a driving direction of the vehicle and a recognition rate of the lane are corrected through the plurality of sensors, and the plurality of sensors sense the driving direction of the vehicle and simultaneously recognize the lane IMU sensor for detecting the position of; an illuminance sensor for recognizing the lane on the road; and a multi-spectrum sensor recognizing a specific material of the lane painted on the road using a wavelength of a selected range, wherein the control unit merges information of the lane recognized through the illuminance sensor and the multi-spectrum sensor. to correct the information of the damaged lane, and apply a predetermined angle so that the image of the road and the lane photographed through the front camera is perpendicular to the road based on the angle at which the front camera is installed. A bird's-eye view image is generated, a binarization algorithm is applied to the image detected by the rear camera to divide the road area and the lane area, extract feature points of the divided lane area, and then track the line based on the extracted feature points. The damaged part of the lane is compensated for, and the rear camera is spaced apart from the rear of the front camera by a predetermined distance and is installed to photograph the lane in a direction perpendicular to the road, and the control unit takes pictures through the front camera. A virtual lane guide is merged with the generated image and output through the display unit, and the lane guide has one end of a first side bar formed to have a predetermined straight length along the lane on one side of the first side bar. A connection bar having a predetermined length so that the other end is orthogonal to the first side bar while being connected; And a second side bar having one end connected to the other end of the connecting bar and having a predetermined straight length such that the other end is parallel to the first side bar, and the width between the first side bar and the second side bar is is formed with a predetermined width wider than the width of, a left separation distance is formed between the first side bar and the left side of the lane, and a right separation distance is formed between the second side bar and the right side of the lane, and the control unit, If the left and right separation distances are the same, it is determined that the vehicle is traveling accurately along the lane, and if the left and right separation distances are different from each other, it is determined that the vehicle is driving in a direction with a relatively small value, It consists in controlling the running direction of the vehicle so that the right separation distance is kept equal to each other.
상기 특허문헌에 개시된 차선 도색장치는 카메라와 센서를 통해 감지되는 정보에 기초하여 기존차량의 위치와 폭이 감지되고, 이에 기초하여 차량의 주행방향을 제어하여 차선을 자동 도색하는 것이나, 이 경우 실시간으로 촬영된 영상과 감지신호에 따라 차량의 주향 방향을 신속하게 제어하기가 어렵고, 차량의 주행 방향 제어에 지연이 발생하면 기존차선의 위치와 새로 도색되는 차선 간에 위치오차가 발생하며, 도색 차량이 차선을 따라 정확하게 주행하더라도 차량의 주행 방향과 노즐의 방향이 연동되어 움직이기 때문에 커브와 같이 곡선 차선인 경우 차량과 기존차선 간의 간격이 달라지면서 노즐의 위치가 기존차선의 위치를 쉽게 벗어나게 되고, 이에 의해 곡선 차선의 재도색 정확성이 떨어지는 문제가 있다.The lane painting device disclosed in the patent document detects the position and width of an existing vehicle based on information detected through a camera and a sensor, and based on this, controls the driving direction of the vehicle to automatically paint the lane, but in this case, real-time It is difficult to quickly control the driving direction of the vehicle according to the captured images and detection signals, and if a delay occurs in controlling the driving direction of the vehicle, a positional error occurs between the position of the existing lane and the newly painted lane, and the painted vehicle Even if you drive accurately along the lane, the direction of the vehicle and the direction of the nozzle move in conjunction with each other, so in the case of a curved lane like a curve, the distance between the vehicle and the existing lane changes and the position of the nozzle easily deviate from the position of the existing lane. There is a problem that the accuracy of repainting of curved lanes is lowered due to
따라서 차선 도색의 자동화를 위해 차선을 정확하게 검출할 수 있고, 검출된 차선을 따라 도색 차량과 노즐을 제어하여 정확하게 차선을 재도색할 수 있도록 개선된 차선 도색 시스템의 개발이 요구된다.Therefore, it is required to develop an improved lane painting system capable of accurately detecting lanes for automation of lane painting and repainting lanes accurately by controlling a painting vehicle and nozzles along the detected lanes.
본 발명은 상기와 같은 종래의 차선 자동 도색장치가 가지는 문제점을 해결하기 위해 안출된 것으로, 본 발명이 해결하고자 하는 과제는 딥러닝 기술을 이용하여 환경 요인의 영향을 받지 않고 기존 차선을 정밀하고 정확하게 검출할 수 있고, 차선 도색 차량과 노즐을 자동으로 제어하여 기존 차선의 직선과 곡선을 구분하여 부드럽게 재도색할 수 있는 딥러닝 기술을 이용한 차선 도색 시스템을 제공하는 것이다.The present invention was made to solve the problems of the conventional automatic lane painting apparatus as described above, and the problem to be solved by the present invention is to accurately and accurately paint existing lanes without being affected by environmental factors by using deep learning technology. To provide a lane painting system using deep learning technology that can detect and automatically control the lane painting vehicle and nozzle to distinguish straight lines and curves of existing lanes and smoothly repaint them.
상기의 과제를 해결하기 위한 본 발명에 따른 딥러닝 기술을 이용한 차선 도색 시스템은, 도로의 차선을 실시간으로 촬영하는 차선촬영부; 상기 차선촬영부에서 촬영된 영상을 처리하여 차선 인식률을 높이는 전처리부; 상기 전처리부에서 전처리된 이미지데이터의 차선 유형을 반복 학습하여 차선 학습모델을 생성하는 학습모델 생성부; 차선 상황별 도색차량 제어데이터, 노즐 제어데이터 및 도색 결과에 따른 교정데이터를 통해 차선도색 제어값을 학습하는 도색차량 및 노즐 제어학습부; 및 상기 학습모델 생성부에서 생성된 차선 학습모델과 상기 도색차량 및 노즐 제어학습부에서 학습된 차선도색 제어값에 기초하여 실시간 차선 영상에 따른 차선을 인식하고, 인식된 차선의 상황에 맞추어 차선도색 제어값을 추출하여 도색차량과 노즐을 제어하는 도색차량 및 노즐 제어부를 포함하는 것을 특징으로 한다.A lane painting system using deep learning technology according to the present invention for solving the above problems includes a lane photographing unit for photographing a lane of a road in real time; a pre-processing unit to increase a lane recognition rate by processing the image captured by the lane capturing unit; a learning model generation unit that generates a next best learning model by iteratively learning the next best type of the image data preprocessed by the preprocessing unit; a painting vehicle and nozzle control learning unit that learns a lane painting control value through painting vehicle control data for each lane situation, nozzle control data, and correction data according to a painting result; and based on the lane learning model generated by the learning model generation unit and the lane painting control value learned by the painting vehicle and nozzle control learning unit, the lane is recognized according to the real-time lane image, and the lane is painted according to the situation of the recognized lane. It is characterized in that it includes a painting vehicle and nozzle controller for controlling the painting vehicle and the nozzle by extracting a control value.
그리고 본 발명은 상기 차선촬영부가 서로 1열로 배열되는 제1, 2, 3 카메라를 포함하고, 상기 제1 카메라는, 상기 노즐과 근접된 위치의 차선이 원근감 없이 촬영되도록 도로와 수직이 되도록 설치되며, 상기 제2 카메라는, 상기 제1 카메라에서 촬영되는 일부의 차선과 상기 노즐의 전방 쪽 일부의 차선이 포함되어 촬영되도록 설치되며, 상기 제3 카메라는, 상기 제2 카메라에서 촬영되는 일정 길이의 차선과 상기 제2 카메라의 촬영 영역 전방 쪽 소정 길이의 차선이 포함되어 촬영되도록 설치되는 것을 또 다른 특징으로 한다.And, the present invention includes first, second, and third cameras arranged in a row by the lane photographing unit, and the first camera is installed perpendicular to the road so that the lane at a position close to the nozzle is photographed without perspective, , The second camera is installed so that a part of the lane photographed by the first camera and a part of the lane in front of the nozzle are included and photographed, and the third camera has a predetermined length photographed by the second camera. Another feature is that the lane and the lane of a predetermined length toward the front of the shooting area of the second camera are included and photographed.
또한, 본 발명은 상기 전처리부가 상기 차선촬영부에서 촬영된 영상의 이미지데이터 해상도를 조정하는 해상도 조정부; 상기 해상도 조정부에서 조정된 이미지데이터의 컬러데이터를 변환하는 데이터 변환부; 상기 데이터 변환부에서 컬러데이터가 변환된 이미지데이터를 가우시안 처리하여 노이즈를 제거하는 노이즈 제거부; 상기 노이즈 제거부를 통해 노이즈가 제거된 이미지데이터를 이진화 처리하는 이진화 처리부; 및 상기 이진화 처리부에서 이진화된 이미지데이터의 원근요소를 재배열하여 제거하는 원근 변환부를 포함하는 것을 또 다른 특징으로 한다.In addition, the present invention includes a resolution adjusting unit for adjusting the image data resolution of the image taken by the lane photographing unit in the pre-processing unit; a data conversion unit for converting color data of the image data adjusted by the resolution adjustment unit; a noise removal unit which removes noise by performing Gaussian processing on the image data obtained by converting the color data in the data conversion unit; a binarization processing unit which binarizes the image data from which the noise has been removed through the noise removal unit; and a perspective conversion unit rearranging and removing perspective elements of the image data binarized by the binarization processing unit.
이에 더해 본 발명은 상기 학습모델 생성부가 상기 전치리부에서 전처리된 이미지데이터로부터 차선을 인식하고, 인식된 차선의 비틀림과 곡률에 맞추어 도색차량 및 노즐의 제어값을 설정하며, 설정된 도색차량 및 노즐의 제어값을 포함하여 차선 학습모델을 생성하는 것을 또 다른 특징으로 한다.In addition, in the present invention, the learning model generation unit recognizes lanes from the image data preprocessed in the preprocessing unit, sets control values of the painting vehicle and nozzles according to the twist and curvature of the recognized lane, and sets the painting vehicle and nozzles. Another feature is to generate a suboptimal learning model including a control value of .
그리고 본 발명은 상기 도색차량 및 노즐의 제어값이 도색차량의 속도, 조향, 차선의 중심라인, 차선의 폭, 비틀림 및 곡률에 맞추어 노즐의 위치, 노즐의 높이, 분사량 및 분사속도 값을 포함하는 것을 또 다른 특징으로 한다.And in the present invention, the control value of the painting vehicle and the nozzle includes the position of the nozzle, the height of the nozzle, the spray amount and the spray speed value according to the speed, steering, center line of the lane, width of the lane, twist and curvature of the paint vehicle has another feature.
본 발명에 따르면, 햇빛이나 그림자 및 차선의 결손 등의 영향에도 차선을 인공지능 딥러닝 기술에 의한 반복 학습을 통해 정확하게 검출할 수 있고, 이를 통해 차선 재도색을 위한 도색차량 및 노즐을 정확하게 제어할 수 있는 장점이 있다.According to the present invention, lanes can be accurately detected through repetitive learning by artificial intelligence deep learning technology even under the influence of sunlight, shadows, and lane defects, and through this, it is possible to accurately control a painting vehicle and nozzles for repainting lanes. There are advantages to being able to
또한, 차선의 직선과 곡선을 구분하여 도색차량 및 노즐을 최적 제어할 수 있고, 이를 통해 재도색되는 차선이 기존 차선을 벗어나는 것을 확실하게 줄일 수 있으며, 차선 도색의 자동화로 인해 차선을 재도색하는 인력과 비용을 줄일 수 있는 장점이 있다.In addition, it is possible to optimally control the painting vehicle and nozzle by distinguishing the straight line and the curve of the lane, and through this, it is possible to reliably reduce the re-painting lane deviating from the existing lane. It has the advantage of reducing manpower and cost.
도 1은 본 발명에 따른 딥러닝 기술을 이용한 차선 도색 시스템의 예를 보인 도면.
도 2 내지 도 4는 본 발명에 따른 차선촬영부의 예를 보인 도면.
도 5는 본 발명에 따른 전처리부의 예를 보인 도면.
도 6a 내지 도 6h는 본 발명에 따른 전처리부를 통해 이미지데이터가 전처리되는 예를 보인 도면.
도 7 및 도 8은 본 발명에 따른 도색차량 및 노즐 제어부를 통해 차선이 재도색되는 예를 보인 도면.1 is a diagram showing an example of a lane painting system using deep learning technology according to the present invention.
2 to 4 are views showing an example of a lane capturing unit according to the present invention.
5 is a view showing an example of a pre-processing unit according to the present invention.
6A to 6H are diagrams showing examples of pre-processing image data through a pre-processing unit according to the present invention;
7 and 8 are views showing an example of repainting a lane through a painting vehicle and a nozzle control unit according to the present invention.
이하에서는 본 발명의 바람직한 실시예를 도시한 첨부도면에 따라 상세하게 설명한다.Hereinafter, it will be described in detail according to the accompanying drawings showing a preferred embodiment of the present invention.
본 발명은 딥러닝 기술을 이용하여 환경 요인의 영향을 받지 않고 기존 차선을 정밀하고 정확하게 검출할 수 있고, 차선 도색 차량과 노즐을 자동으로 제어하여 기존 차선의 직선과 곡선을 구분하여 부드럽게 재도색할 수 있는 딥러닝 기술을 이용한 차선 도색 시스템을 제공하고자 하는 것으로, 이를 위한 본 발명은 도 1 및 도 2에 도시된 바와 같이 차선촬영부(10), 전처리부(20), 학습모델 생성부(30), 도색차량 및 노즐 제어학습부(40) 및 도색차량 및 노즐 제어부(50)를 포함한다.The present invention uses deep learning technology to precisely and accurately detect existing lanes without being affected by environmental factors, and automatically controls the lane painting vehicle and nozzle to distinguish straight lines and curves of existing lanes and smoothly repaint them. It is intended to provide a lane painting system using deep learning technology that can be used, and the present invention for this purpose includes a
차선촬영부(10)는 도색차량(1)의 일측에 설치되어 도로 위의 차선(3)을 실시간으로 촬영하고, 촬영된 영상을 후술되는 전처리부(20)로 전송하는 구성이다.The
이러한 차선촬영부(10)는 차선(3)을 따라 서로 다른 영역(Z1, Z2, Z3)을 촬영하도록 복수 개의 카메라가 서로 다른 각도로 설치되고, 이를 통해 후술되는 학습모델 생성부(30)에서 서로 다른 각도의 영상을 학습모델로 생성하게 된다.In the
더욱 상세하게는 도 2 내지 도 4에 도시된 바와 같이 서로 1열로 배열되는 제1, 2, 3 카메라(11, 12, 13)로 구성되되, 제1 카메라(11)는 노즐(2)과 근접된 위치의 차선(3)이 원근감 없이 촬영되도록 도로와 수직이 되도록 설치되고, 제2 카메라(12)는 제1 카메라(11)에서 촬영되는 일부의 차선과 노즐(2)의 전방 쪽 일정 길이의 차선(3)이 포함되어 촬영되도록 설치되며, 제3 카메라(13)는 제2 카메라(12)에서 촬영되는 일부의 차선과 상기 제2 카메라(12)의 촬영 영역 전방 쪽 소정 길이의 차선이 포함되어 촬영되도록 설치될 수 있다.More specifically, as shown in FIGS. 2 to 4, it is composed of first, second, and
이때 제1, 2, 3 카메라(11, 12, 13)는 각도 조절이 가능하도록 구성되고, 이러한 제1, 2, 3 카메라(11, 12, 13)의 설치 각도는 필요에 따라 후술되는 도색차량 및 노즐 제어부(50)의 제어에 의해 자동으로 조절되도록 구성될 수 있다.At this time, the first, second, and
이를 위해 제1, 2, 3 카메라(11, 12, 13)에는 소정 길이의 회전축(도시하지 않음)이 설치되고, 상기 회전축에는 기어 또는 풀리 등의 동력전달부재(도시하지 않음)가 설치되며, 상기 동력전달부재와 모터 등의 회전동력발생장치(도시하지 않음)를 통해 회전력이 전달되도록 구성될 수 있다.To this end, a rotation shaft (not shown) having a predetermined length is installed in the first, second, and
이에 더해 제1, 2, 3 카메라(11, 12, 13)는 도로와 이격된 높이를 조절할 수 있도록 구성될 수 있는데, 이를 위해 제1, 2, 3 카메라(11, 12, 13)는 수직으로 소정 길이를 가지는 리니어가이드(도시하지 않음)에 설치된 다음, 리니어모터의 동작에 의해 상하로 승강되면서 높이가 조절되도록 구성될 수 있다.In addition, the first, second, and
한편, 제1, 2, 3 카메라(11, 12, 13)를 통해 소정 폭 서로 중첩되어 촬영되게 되고, 이렇게 제1, 2, 3 카메라(11, 12, 13)에서 촬영된 제1, 2, 3 영역(Z1, Z2, Z3)의 영상은 하나의 세트로 묶여 후술되는 전처리부(20)에서 이미지 처리되게 된다.On the other hand, through the first, second, and
이를 통해 동일한 차선의 색상, 모양, 각도 및 결손 등의 상태에 따른 다양한 각도의 이미지가 동시에 취득되어 학습모델로 생성될 수 있고, 그 결과 차선 도색 환경에 따라 차선을 촬영하는 카메라의 각도가 달라지더라도 학습모델로부터 유사한 조건의 과거 데이터를 빠르게 추출하여 이에 맞는 최적의 제어값(도색차량, 노즐)을 획득할 수 있게 된다.Through this, images of various angles according to the condition of the same lane, such as color, shape, angle, and defect, can be simultaneously acquired and created as a learning model. Even if it is, it is possible to quickly extract past data of similar conditions from the learning model and obtain the optimal control value (painting vehicle, nozzle) suitable for it.
전처리부(20)는 차선촬영부(10)에서 촬영된 영상을 이미지 처리하여 차선의 인식률을 높이는 구성이다.The
이러한 전처리부(20)는 도 5에 도시된 바와 같이 차선촬영부(10)에서 촬영된 영상의 이미지데이터 해상도를 조정하는 해상도 조정부(21)와, 상기 해상도 조정부(21)에서 조정된 이미지데이터의 컬러데이터를 변환하는 데이터 변환부(22)와, 상기 데이터 변환부(22)에서 컬러데이터가 변환된 이미지데이터에 가우시안 처리하여 노이즈를 제거하는 노이즈 제거부(23)와, 상기 노이즈 제거부(23)를 통해 노이즈가 제거된 이미지데이터를 이진화 처리하는 이진화 처리부(24) 및 상기 이진화 처리부(24)에서 이진화된 이미지데이터의 원근요소를 재배열하여 제거하는 원근 변환부(25)를 포함한다.As shown in FIG. 5, the
이러한 전처리부(20)의 예로서, 도 6a 및 도 6b에 도시된 바와 같이 차선촬영부(10)에서 촬영된 영상이 해상도 조정부(21)를 통해 640x360 해상도의 이미지로 변환된 다음, 데이터 변환부(22)를 통해 차선의 검출이 쉽도록 색공간(color space)이 변경된다. 이때 일반적으로 흰색은 RGB 색공간을 사용하고, 노란색은 HSV 색공간계를 사용하므로 데이터 변환부(22)에서는 흰색 차선의 검출이 쉽도록 RGB 색공간으로 변경하게 된다.As an example of such a
이후 노이즈 제거부(23)를 통해 도 6c에 도시된 바와 같이 이미지 내의 특정 색을 컬러 마스킹하여 구분된 다음 그 외의 색이 제거되고, 도 6d에 도시된 바와 같이 차선이 아닌 노이즈를 제거하기 위해 가우시안 블러가 적용된다.Thereafter, as shown in FIG. 6C through the
이때 가우시안 블러의 적용 적도에 따라 차선의 경계가 무뎌져 정확한 차선 경계를 추출하는 데에 어려움이 있을 수 있고, 따라서 가우시안 블러의 적용 값은 사용자에 의해 미리 설정된 값이 적용될 수 있다.At this time, it may be difficult to extract an accurate lane boundary because the boundary of the lane becomes dull according to the applied equator of the Gaussian blur. Therefore, a value previously set by the user may be applied as the applied value of the Gaussian blur.
이후 도 6e에 도시된 바와 같이 모폴로지 연산을 통해 이미지데이터 내의 흰색 노이즈가 제거된 다음, 도 6f에 도시된 바와 같이 추가 모폴로지 연산을 통해 흰색 오브젝트 내의 검은색 노이즈가 제거되게 된다.Thereafter, as shown in FIG. 6E, white noise in the image data is removed through morphological calculation, and then black noise in the white object is removed through additional morphological calculation as shown in FIG. 6F.
그리고 이진화 처리부(24)를 통해 도 6g에 도시된 바와 같이 이미지데이터 내의 경계를 명확하게 하기 위해 흑백 사이의 중간색이 없도록 이진화 처리되게 된다.And, as shown in FIG. 6G through the
그런 다음, 원근 변환부(25)를 통해 도 6h에 도시된 바와 같이 이진화 처리된 이미지데이터 내의 차선의 원근값을 조정하고, 차선 유효영역이 지정된다.Then, through the
이때 차선 유효영역이 넓으면 다른 차선과 혼동되거나 또는 원근값 조정에 따른 오차가 발생할 수 있으므로 노즐(2)을 기준(원점)으로 2~3M 길이의 차선이 유효영역으로 지정되는 것이 바람직하다.At this time, if the effective area of the lane is wide, confusion with other lanes or errors due to perspective adjustment may occur. Therefore, it is preferable to designate a lane with a length of 2 to 3M based on the nozzle 2 (origin) as the effective area.
이렇게 전처리된 이미지데이터는 후술되는 학습모델 생성부(30)로 전달되게 된다.The preprocessed image data is transmitted to the learning
상기와 같은 구성을 통해 차선촬영부(10)에서 촬영된 영상에 포함되는 그림자, 햇빛 및 결손(차선의 오염, 차선의 도색 손실, 도로의 균열, 도로의 파손 등) 등의 영향에 의한 차선의 오인식률을 줄일 수 있게 된다.Through the configuration as described above, the effect of shadows, sunlight, and defects (contamination of lanes, loss of paint of lanes, cracks in roads, damage to roads, etc.) included in the image captured by the
학습모델 생성부(30)는 전처리부(20)에서 전처리된 이미지데이터의 차선 유형을 반복 학습하여 차선 학습모델을 생성하는 구성이다.The learning
이러한 학습모델 생성부(30)는 전치리부(20)에서 전처리된 이미지데이터로부터 차선을 인식하고, 인식된 차선의 비틀림과 곡률에 맞추어 도색차량 및 노즐의 제어값을 설정하며, 설정된 도색차량 및 노즐의 제어값을 포함하여 차선 학습모델을 생성하게 된다.The learning
이때 도색차량 및 노즐의 제어값에는 도색차량의 속도, 조향, 차선의 중심라인, 차선의 폭, 비틀림 및 곡률에 맞추어 노즐의 위치, 노즐의 높이, 분사량 및 분사속도 값이 포함될 수 있다.At this time, the control values of the painting vehicle and the nozzle may include the location of the nozzle, the height of the nozzle, the amount of injection, and the value of the injection speed according to the speed of the painting vehicle, steering, center line of the lane, width of the lane, twist and curvature of the lane.
이하에서는 본 발명에 다른 학습모델 생성부(30)에서 차선을 인식하는 예에 대하여 설명한다.Hereinafter, an example of recognizing a lane in the learning
도 7에 도시된 바와 같이 전처리된 이미지데이터 중에서 도형(차선)의 윤곽선이 추출되고 경계선을 연결하게 된다.As shown in FIG. 7, the outline of a figure (lane) is extracted from the preprocessed image data and the boundary is connected.
그런 다음, 윤곽선의 경계선 중에서 좌우측으로 최외곽에 위치한 선을 연결하여 가상의 좌측차선라인(IL)과 가상의 우측차선라인(IR)이 생성된다.Then, a virtual left lane line IL and a virtual right lane line IR are generated by connecting the left and right outermost lines among the boundary lines of the outline.
그리고 가상의 좌측차선라인(IL)과 가상의 우측차선라인(IR)을 연결하는 상, 하부 차선의 폭(W1, W2)이 측정되고, 상, 하부 차선의 폭(W1, W2)이 서로 동일한 폭이 되도록 간격이 조정된다.Further, the widths W1 and W2 of the upper and lower lanes connecting the imaginary left lane line IL and the imaginary right lane line IR are measured, and the widths W1 and W2 of the upper and lower lanes are the same as each other. Spacing is adjusted so that it is wide.
이후 상, 하부 차선의 폭(W1, W2)의 1/2 지점을 연결하는 차선의 중심라인(CL)이 생성되고, 상기 차선의 중심라인(CL)을 따라 노즐(2)의 위치가 추종되도록 노즐 위치값이 설정된다.Thereafter, a center line CL of the lane connecting the 1/2 point of the widths W1 and W2 of the upper and lower lanes is created, and the position of the
상기와 같이 노즐 위치값이 설정되고 나면, 차선 상황별 도색차량 제어데이터, 노즐 제어데이터가 미리 설정된 도로규정에 맞추어 자동으로 설정되게 된다.After the nozzle position value is set as described above, the paint vehicle control data and nozzle control data for each lane condition are automatically set according to the preset road regulations.
도색차량 및 노즐 제어학습부(40)는 차선 상황별 도색차량 제어데이터, 노즐 제어데이터를 통해 과거의 차선 재도색 결과의 교정데이터를 생성하고, 이러한 차선 상황별 도색차량 제어데이터, 노즐 제어데이터 및 교정데이터를 반복 학습하여 차선의 중심라인(CL)을 따라 차선이 재도색되었을 때 발생하는 차선 폭, 비틀림 등에 따른 차선의 이탈 등의 오차가 발생하지 않는 최적 차선도색 제어값을 생성하는 구성이다.The painting vehicle and nozzle
도색차량 및 노즐 제어부(50)는 학습모델 생성부(30)에서 생성된 차선 학습모델과 도색차량 및 노즐 제어학습부(40)에서 학습된 차선도색 제어값에 기초하여 실시간 차선 영상에 따른 차선을 인식하고, 인식된 차선의 상황에 맞추어 차선도색 제어값을 추출하여 도색차량과 노즐을 제어하는 구성이다.The painting vehicle and
이때 도색차량 및 노즐 제어부(50)에서 생성된 차선도색 제어값에 기초하여 소정의 오차값(M)이 차선의 중심라인(CL)을 기준으로 가상의 좌측차선라인(IL)과 가상의 우측차선라인(IR)에 분할 적용되어 차선의 재도색이 진행되게 된다.At this time, based on the lane painting control value generated by the painting vehicle and
이상 설명한 바와 같이 본 발명은 햇빛이나 그림자 및 차선의 결손 등의 영향에도 차선을 인공지능 딥러닝 기술에 의한 반복 학습을 통해 정확하게 검출할 수 있고, 이를 통해 차선 재도색을 위한 도색차량 및 노즐을 정확하게 제어할 수 있게 된다.As described above, the present invention can accurately detect lanes through repetitive learning by artificial intelligence deep learning technology even under the influence of sunlight, shadows, and lane defects, and through this, paint vehicles and nozzles for lane repainting can be accurately be able to control
또한, 차선의 직선과 곡선을 구분하여 도색차량 및 노즐을 최적 제어할 수 있고, 이를 통해 재도색되는 차선이 기존 차선을 벗어나는 것을 줄일 수 있으며, 차선 도색의 자동화로 인해 차선을 재도색하는 인력과 비용을 줄일 수 있게 된다.In addition, it is possible to optimally control the painting vehicle and nozzle by distinguishing the straight line and the curve of the lane, and through this, it is possible to reduce the re-painting lane deviating from the existing lane. will be able to reduce costs.
위에서는 설명의 편의를 위해 바람직한 실시예를 도시한 도면과 도면에 나타난 구성에 도면부호와 명칭을 부여하여 설명하였으나, 이는 본 발명에 따른 하나의 실시예로서 도면상에 나타난 형상과 부여된 명칭에 국한되어 그 권리범위가 해석되어서는 안 될 것이며, 발명의 설명으로부터 예측 가능한 다양한 형상으로의 변경과 동일한 작용을 하는 구성으로의 단순 치환은 통상의 기술자가 용이하게 실시하기 위해 변경 가능한 범위 내에 있음은 지극히 자명하다고 볼 것이다.In the above, reference numerals and names have been given to the drawings showing preferred embodiments and the components shown in the drawings for convenience of explanation, but this is an embodiment according to the present invention, which corresponds to the shape shown on the drawings and the given name. The scope of the right should not be construed as being limited, and the change to various shapes predictable from the description of the invention and the simple substitution with a configuration that has the same action are within the range of change to be easily performed by those skilled in the art. You will find it extremely self-evident.
1: 도색차량 2: 노즐
3: 차선 10: 차선촬영부
11: 제1 카메라 12: 제2 카메라
13: 제3 카메라 20: 전처리부
21: 해상도 조정부 22: 데이터 변환부
23: 노이즈 제거부 24: 이진화 처리부
25: 원근 변환부 30: 학습모델 생성부
40: 도색차량 및 노즐 제어학습부 50: 도색차량 및 노즐 제어부
CL: 차선의 중심라인 IL: 가상의 좌측차선라인
IR: 가상의 우측차선라인 M: 오차값
W: 차선의 폭 W': 차선폭의 1/2
W1: 상부 차선의 폭 W2: 하부 차선의 폭1: Paint vehicle 2: Nozzle
3: lane 10: lane shooting department
11: first camera 12: second camera
13: third camera 20: pre-processing unit
21: resolution adjustment unit 22: data conversion unit
23: noise removal unit 24: binarization processing unit
25: perspective conversion unit 30: learning model generation unit
40: painting vehicle and nozzle control learning unit 50: painting vehicle and nozzle control unit
CL: the center line of the lane IL: the imaginary left lane line
IR: imaginary right lane line M: error value
W: the width of the lane W': 1/2 of the lane width
W1: Width of the upper lane W2: Width of the lower lane
Claims (5)
상기 차선촬영부(10)에서 촬영된 영상을 처리하여 차선 인식률을 높이는 전처리부(20);
상기 전처리부(20)에서 전처리된 이미지데이터의 차선 유형을 반복 학습하여 차선 학습모델을 생성하는 학습모델 생성부(30);
차선 상황별 도색차량 제어데이터, 노즐 제어데이터 및 도색 결과에 따른 교정데이터를 통해 차선도색 제어값을 학습하는 도색차량 및 노즐 제어학습부(40); 및
상기 학습모델 생성부(30)에서 생성된 차선 학습모델과 상기 도색차량 및 노즐 제어학습부(40)에서 학습된 차선도색 제어값에 기초하여 실시간 차선 영상에 따른 차선을 인식하고, 인식된 차선의 상황에 맞추어 차선도색 제어값을 추출하여 도색차량과 노즐을 제어하는 도색차량 및 노즐 제어부(50);
를 포함하고,
상기 차선촬영부(10)는,
서로 1열로 배열되는 제1, 2, 3 카메라(11, 12, 13)를 포함하고,
상기 제1 카메라(11)는,
상기 노즐과 근접된 위치의 차선이 원근감 없이 촬영되도록 도로와 수직이 되도록 설치되며,
상기 제2 카메라(12)는,
상기 제1 카메라(11)에서 촬영되는 일부의 차선과 상기 노즐의 전방 쪽 일정 길이의 차선이 포함되어 촬영되도록 설치되며,
상기 제3 카메라(13)는,
상기 제2 카메라(12)에서 촬영되는 일부의 차선과 상기 제2 카메라(12)의 촬영 영역 전방 쪽 소정 길이의 차선이 포함되어 촬영되도록 설치되며,
상기 학습모델 생성부(30)는,
상기 전처리부(20)에서 전처리된 이미지데이터로부터 차선을 인식하고, 인식된 차선의 비틀림과 곡률에 맞추어 도색차량 및 노즐의 제어값을 설정하며, 설정된 도색차량 및 노즐의 제어값을 포함하여 차선 학습모델을 생성하는 것을 특징으로 하는 것을 특징으로 하는 딥러닝 기술을 이용한 차선 도색 시스템.
Lane photographing unit 10 for photographing lanes of the road in real time;
a pre-processing unit 20 to increase a lane recognition rate by processing the image captured by the lane capturing unit 10;
a learning model generation unit 30 that generates a next best learning model by iteratively learning the next best type of the image data preprocessed by the preprocessing unit 20;
a painting vehicle and nozzle control learning unit 40 that learns a lane painting control value through the painting vehicle control data for each lane situation, the nozzle control data, and the correction data according to the painting result; and
Based on the lane learning model generated by the learning model generation unit 30 and the lane painting control values learned by the painting vehicle and nozzle control learning unit 40, the lane is recognized according to the real-time lane image, and the recognized lane a paint vehicle and nozzle controller 50 that controls the paint vehicle and the nozzle by extracting a lane painting control value according to circumstances;
including,
The lane photographing unit 10,
Including first, second, and third cameras 11, 12, and 13 arranged in one row with each other,
The first camera 11,
It is installed to be perpendicular to the road so that a lane in a position close to the nozzle is photographed without perspective,
The second camera 12,
It is installed so that a part of the lane photographed by the first camera 11 and a lane of a certain length in front of the nozzle are included and photographed,
The third camera 13,
It is installed so that a part of the lane photographed by the second camera 12 and a lane of a predetermined length in front of the photographing area of the second camera 12 are included and photographed,
The learning model generator 30,
The lane is recognized from the image data preprocessed by the pre-processing unit 20, the paint vehicle and nozzle control values are set according to the twist and curvature of the recognized lane, and lane learning is included including the set paint vehicle and nozzle control values. Lane painting system using deep learning technology, characterized in that for generating a model.
상기 전처리부(20)는,
상기 차선촬영부(10)에서 촬영된 영상의 이미지데이터 해상도를 조정하는 해상도 조정부(21);
상기 해상도 조정부(21)에서 조정된 이미지데이터의 컬러데이터를 변환하는 데이터 변환부(22);
상기 데이터 변환부(22)에서 컬러데이터가 변환된 이미지데이터를 가우시안 처리하여 노이즈를 제거하는 노이즈 제거부(23);
상기 노이즈 제거부(23)를 통해 노이즈가 제거된 이미지데이터를 이진화 처리하는 이진화 처리부(24); 및
상기 이진화 처리부(24)에서 이진화된 이미지데이터의 원근요소를 재배열하여 제거하는 원근 변환부(25);
를 포함하는 것을 특징으로 하는 딥러닝 기술을 이용한 차선 도색 시스템.
The method of claim 1,
The pre-processing unit 20,
a resolution adjusting unit 21 for adjusting the resolution of image data of the image captured by the lane capturing unit 10;
a data conversion unit 22 for converting color data of the image data adjusted by the resolution adjustment unit 21;
a noise removal unit 23 which removes noise by performing Gaussian processing on the image data whose color data has been converted by the data conversion unit 22;
a binarization processing unit 24 for binarizing the image data from which noise has been removed by the noise removal unit 23; and
a perspective conversion unit 25 rearranging and removing perspective elements of the image data binarized by the binarization processing unit 24;
Lane painting system using deep learning technology, characterized in that it comprises a.
상기 도색차량 및 노즐의 제어값은,
도색차량의 속도, 조향, 차선의 중심라인, 차선의 폭, 비틀림 및 곡률에 맞추어 노즐의 위치, 노즐의 높이, 분사량 및 분사속도 값을 포함하는 것을 특징으로 하는 딥러닝 기술을 이용한 차선 도색 시스템.The method of claim 1,
The control values of the painting vehicle and the nozzle are
Lane painting system using deep learning technology, characterized in that it includes the nozzle position, nozzle height, spray amount and spray speed values according to the speed, steering, center line of the lane, width of the lane, twist and curvature of the vehicle to be painted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220057659A KR102466004B1 (en) | 2022-05-11 | 2022-05-11 | Lane Painting System using Deep Learning Technology |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220057659A KR102466004B1 (en) | 2022-05-11 | 2022-05-11 | Lane Painting System using Deep Learning Technology |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102466004B1 true KR102466004B1 (en) | 2022-11-11 |
Family
ID=84042890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220057659A KR102466004B1 (en) | 2022-05-11 | 2022-05-11 | Lane Painting System using Deep Learning Technology |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102466004B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102599168B1 (en) | 2023-04-21 | 2023-11-09 | 주식회사 테크온 | Lane Painting Guidance System for Lane Painting Vehicles using HUD |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030038013A (en) * | 2001-11-08 | 2003-05-16 | 삼성전자주식회사 | Vehicle plate recognition method |
KR20090085704A (en) * | 2007-01-05 | 2009-08-07 | 퀄컴 인코포레이티드 | Rendering 3d video images on a stereo-enabled display |
KR20190054656A (en) | 2017-11-14 | 2019-05-22 | 현대모비스 주식회사 | Apparatus for detecting lane and method thereof |
KR20190088647A (en) * | 2018-01-19 | 2019-07-29 | 한국해양대학교 산학협력단 | Automatic Lane Painting System Using Unmanned Vehicles |
KR102143641B1 (en) | 2020-02-07 | 2020-08-11 | (주)라인테크 | Automatic Lane Painting Device Using Vision Sensors |
KR102257533B1 (en) | 2019-08-21 | 2021-05-31 | 주식회사 유승 | Auto marking apparatus of the road |
KR20210071724A (en) | 2019-12-07 | 2021-06-16 | 이창휘 | Lane redrawing machine through unmanned automatic control system |
KR102283833B1 (en) * | 2020-08-28 | 2021-08-03 | 이연수 | Auto disinfection injection apparatus |
-
2022
- 2022-05-11 KR KR1020220057659A patent/KR102466004B1/en active IP Right Grant
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030038013A (en) * | 2001-11-08 | 2003-05-16 | 삼성전자주식회사 | Vehicle plate recognition method |
KR20090085704A (en) * | 2007-01-05 | 2009-08-07 | 퀄컴 인코포레이티드 | Rendering 3d video images on a stereo-enabled display |
KR20190054656A (en) | 2017-11-14 | 2019-05-22 | 현대모비스 주식회사 | Apparatus for detecting lane and method thereof |
KR20190088647A (en) * | 2018-01-19 | 2019-07-29 | 한국해양대학교 산학협력단 | Automatic Lane Painting System Using Unmanned Vehicles |
KR102078908B1 (en) | 2018-01-19 | 2020-02-18 | 한국해양대학교 산학협력단 | Automatic Lane Painting System Using Unmanned Vehicles |
KR102257533B1 (en) | 2019-08-21 | 2021-05-31 | 주식회사 유승 | Auto marking apparatus of the road |
KR20210071724A (en) | 2019-12-07 | 2021-06-16 | 이창휘 | Lane redrawing machine through unmanned automatic control system |
KR102143641B1 (en) | 2020-02-07 | 2020-08-11 | (주)라인테크 | Automatic Lane Painting Device Using Vision Sensors |
KR102283833B1 (en) * | 2020-08-28 | 2021-08-03 | 이연수 | Auto disinfection injection apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102599168B1 (en) | 2023-04-21 | 2023-11-09 | 주식회사 테크온 | Lane Painting Guidance System for Lane Painting Vehicles using HUD |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11958197B2 (en) | Visual navigation inspection and obstacle avoidance method for line inspection robot | |
JP2917661B2 (en) | Traffic flow measurement processing method and device | |
EP2282295B1 (en) | Object recognizing device and object recognizing method | |
Lipski et al. | A fast and robust approach to lane marking detection and lane tracking | |
US7421094B2 (en) | Traffic lane marking line recognition system for vehicle | |
US7421095B2 (en) | Traffic lane marking line recognition system for vehicle | |
KR102143641B1 (en) | Automatic Lane Painting Device Using Vision Sensors | |
US20020031242A1 (en) | Local positioning appartus, and method therefor | |
EP2682896A2 (en) | In-vehicle apparatus | |
CN103714538B (en) | Road edge detection method and device and vehicle | |
KR102078908B1 (en) | Automatic Lane Painting System Using Unmanned Vehicles | |
KR102499258B1 (en) | Two-component (5 types) AI Lane Automatic Painting Device | |
WO2017038134A1 (en) | Landmark recognition device and recognition method | |
US7599050B2 (en) | Surface defect inspecting method and device | |
US20070253622A1 (en) | Traffic Lane Marking Line Recognition System for Vehicle | |
KR102466004B1 (en) | Lane Painting System using Deep Learning Technology | |
JP2005157731A (en) | Lane recognizing device and method | |
JP4906628B2 (en) | Surveillance camera correction device | |
KR20140103441A (en) | Vehicle lane recognition method and system using vision guidance device | |
JP2008160635A (en) | Camera state detection method | |
US20180012084A1 (en) | Apparatus and method of recognizing division lines on a road | |
JP2007310591A (en) | Image processor and parking space determination method | |
JP3915621B2 (en) | Lane mark detector | |
JP3366135B2 (en) | Travel direction control device | |
KR20140087622A (en) | Method of extracting traffic lanes from captured image using brightness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |