KR102466004B1 - Lane Painting System using Deep Learning Technology - Google Patents

Lane Painting System using Deep Learning Technology Download PDF

Info

Publication number
KR102466004B1
KR102466004B1 KR1020220057659A KR20220057659A KR102466004B1 KR 102466004 B1 KR102466004 B1 KR 102466004B1 KR 1020220057659 A KR1020220057659 A KR 1020220057659A KR 20220057659 A KR20220057659 A KR 20220057659A KR 102466004 B1 KR102466004 B1 KR 102466004B1
Authority
KR
South Korea
Prior art keywords
lane
unit
painting
nozzle
vehicle
Prior art date
Application number
KR1020220057659A
Other languages
Korean (ko)
Inventor
조형오
조현우
Original Assignee
(주)라인테크
조형오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)라인테크, 조형오 filed Critical (주)라인테크
Priority to KR1020220057659A priority Critical patent/KR102466004B1/en
Application granted granted Critical
Publication of KR102466004B1 publication Critical patent/KR102466004B1/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01CCONSTRUCTION OF, OR SURFACES FOR, ROADS, SPORTS GROUNDS, OR THE LIKE; MACHINES OR AUXILIARY TOOLS FOR CONSTRUCTION OR REPAIR
    • E01C23/00Auxiliary devices or arrangements for constructing, repairing, reconditioning, or taking-up road or like surfaces
    • E01C23/16Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings
    • E01C23/20Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings for forming markings in situ
    • E01C23/22Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings for forming markings in situ by spraying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • B05B12/08Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
    • B05B12/081Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to the weight of a reservoir or container for liquid or other fluent material; responsive to level or volume of liquid or other fluent material in a reservoir or container
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • B05B12/08Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
    • B05B12/12Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus
    • B05B12/126Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus responsive to target velocity, e.g. to relative velocity between spray apparatus and target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B13/00Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
    • B05B13/005Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00 mounted on vehicles or designed to apply a liquid on a very large surface, e.g. on the road, on the surface of large containers
    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01CCONSTRUCTION OF, OR SURFACES FOR, ROADS, SPORTS GROUNDS, OR THE LIKE; MACHINES OR AUXILIARY TOOLS FOR CONSTRUCTION OR REPAIR
    • E01C23/00Auxiliary devices or arrangements for constructing, repairing, reconditioning, or taking-up road or like surfaces
    • E01C23/16Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings
    • E01C23/163Devices for marking-out, applying, or forming traffic or like markings on finished paving; Protecting fresh markings for marking-out the location of the markings; Guiding or steering devices for marking apparatus, e.g. sights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Structural Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Civil Engineering (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a lane painting system using deep learning technology, which can precisely and accurately detect existing lanes without being affected by environmental factors by using deep learning technology, and can automatically control a lane painting vehicle and a nozzle so that the straight lines and curves of existing lanes can be distinguished and repainted smoothly. To solve the above problems, the lane painting system using deep learning technology comprises: a lane photographing unit for photographing the lanes of the road in real time; a preprocessing unit for increasing the lane recognition rate by processing images captured by the lane photographing unit; a learning model generation unit for generating a lane learning model by iteratively learning lane types of image data preprocessed by the preprocessing unit; a painting vehicle and nozzle control learning unit for learning lane painting control values through painting vehicle control data for each lane situation, nozzle control data, and correction data resulting from painting results; and a painting vehicle and nozzle control unit for recognizing lanes according to real-time lane images based on the lane learning model generated by the learning model generation unit and the lane painting control values learned by the painting vehicle and nozzle control learning unit, extracting the lane painting control values resulting from recognized lane situations, and controlling the lane painting vehicle and the nozzle.

Description

딥러닝 기술을 이용한 차선 도색시스템{Lane Painting System using Deep Learning Technology}Lane Painting System using Deep Learning Technology}

본 발명은 딥러닝 기술을 이용한 차선 도색 시스템에 관한 것으로, 더욱 상세하게는 도로에 도색된 기존 차선을 따라 정확하게 차선을 재도색하기 위해 도색차량의 주행과 도료를 분사하는 노즐을 자동 제어하는 딥러닝 기술을 이용한 차선 도색 시스템에 관한 것이다.The present invention relates to a lane painting system using deep learning technology, and more particularly, deep learning that automatically controls the driving of a painted vehicle and nozzles for spraying paint in order to accurately repaint the lane along the existing lanes painted on the road. It is about a lane painting system using technology.

일반적으로 도로에는 차량의 주행 방향과 간격을 안내하기 위한 차선이 도색되는데, 이러한 차선은 장기간 외부에 노출되게 됨에 따라 시인성이 떨어져 본래의 기능을 유지하기가 어렵게 되고, 따라서 시인성이 떨어진 차선을 재도색하여 본래의 기능이 유지될 수 있도록 하고 있다.In general, lanes are painted on roads to guide the driving direction and spacing of vehicles. As these lanes are exposed to the outside for a long time, visibility deteriorates, making it difficult to maintain their original functions. This is to ensure that the original function is maintained.

상기와 같은 목적의 종래 기술로는 등록특허공보 제2143641호의 비전센서를 이용한 자동 차선 도색장치(이하 '특허문헌'이라 한다)가 개시되어 있다.As a prior art for the above purpose, an automatic lane painting device using a vision sensor of Patent Registration No. 2143641 (hereinafter referred to as 'Patent Document') is disclosed.

상기 특허문헌에 개시된 차선 도색장치는, 차량의 전방 쪽에 설치되면서 상기 차선을 촬영하여 실시간 영상을 획득하는 전방카메라; 상기 차량의 하부 또는 일측에 위치되면서 상기 차선의 위치에 맞추어 도색하는 차선도색유닛; 상기 차량에 설치되면서 상기 전방카메라를 통해 획득되는 실시간 영상을 수신 후 데이터로 변환해 상기 차선도색유닛의 동작을 제어하는 제어부; 및 상기 전방카메라를 통해 촬영되는 실시간 영상이 출력되는 디스플레이부를 포함하고, 상기 차선도색유닛에는, 상기 차선을 인식하여 위치 정보를 획득하는 후방카메라가 구비되며, 상기 제어부에는, 상기 차량의 주행 방향과 상기 차선을 감지하는 복수 개의 센서가 설치되고, 상기 복수 개의 센서를 통해 상기 차량의 주행 방향과 상기 차선의 인식률이 보정되며, 상기 복수 개의 센서는, 상기 차량의 주행 방향을 감지함과 동시에 상기 차선의 위치를 검출하는 IMU 센서; 상기 도로 상의 상기 차선을 인식하는 조도 센서; 및 선택된 범위의 파장을 이용하여 상기 도로상에 도색된 상기 차선의 특정 재료를 인식하는 다중스펙트럼센서를 포함하고, 상기 제어부는, 상기 조도 센서 및 상기 다중스펙트럼센서를 통해 인식되는 차선의 정보를 병합하여 훼손된 상기 차선의 정보를 보정하고, 상기 전방카메라를 통해 촬영된 상기 도로 및 상기 차선의 영상을 상기 전방카메라가 설치된 각도에 기초하여 영상을 상기 도로와 수직이 되는 방향이 되도록 소정 각도를 적용하여 버드아이뷰 영상을 생성하며, 상기 후방카메라에서 검출된 영상에 이진화 알고리즘을 적용하여 도로 영역과 차선 영역을 구분하고, 구분된 차선 영역의 특징점을 추출한 다음, 추출된 특징점에 기초하여 라인을 추적하여 상기 차선의 훼손 부분을 보완하며, 상기 후방카메라는, 상기 전방카메라의 후방 쪽으로 소정 거리 이격되어 상기 차선을 상기 도로와 수직이 되는 방향에서 촬영하도록 설치되고, 상기 제어부는, 상기 전방카메라를 통해 촬영된 영상에 가상의 차선가이드를 병합하여 상기 디스플레이부를 통해 출력하고, 상기 차선가이드는, 상기 차선을 따라 소정의 직선 길이를 가지도록 형성되는 제1 측면바 일단이 상기 제1 측면바의 일측면에 연결되면서 타단이 상기 제1 측면바와 직교하도록 소정 길이를 가지는 연결바; 및 일단이 상기 연결바의 타단에 연결되면서 타단이 상기 제1 측면바와 평행하도록 소정의 직선 길이를 가지는 제2 측면바를 포함하며, 상기 제1 측면바와 상기 제2 측면바 사이의 폭은, 상기 차선의 폭 보다 소정 폭 넓게 형성되어, 상기 제1 측면바와 상기 차선의 좌측면 사이에는 좌측 이격거리가 형성되고, 상기 제2 측면바와 상기 차선의 우측면 사이에는 우측 이격거리가 형성되며, 상기 제어부는, 상기 좌, 우측 이격거리가 동일하면 상기 차선을 따라 정확하게 주행하고 있는 것으로 판단하고, 상기 좌, 우측 이격거리가 서로 다르면 상대적으로 값이 작은 방향으로 상기 차량이 치우쳐 주행하고 있는 것으로 판단하여 상기 좌, 우측 이격거리가 서로 같게 유지되도록 상기 차량의 주행 방향을 제어하는 것으로 이루어진다.The lane painting device disclosed in the patent document includes a front camera installed at the front side of a vehicle and acquiring a real-time image by photographing the lane; a lane painting unit located at the lower part or one side of the vehicle and painting the lane according to the position of the lane; a controller installed in the vehicle and receiving real-time images acquired through the front camera and then converting them into data to control the operation of the lane painting unit; and a display unit for outputting a real-time image captured by the front camera, wherein the lane painting unit includes a rear camera that recognizes the lane and obtains location information, and the controller includes a driving direction of the vehicle and A plurality of sensors for detecting the lane are installed, and a driving direction of the vehicle and a recognition rate of the lane are corrected through the plurality of sensors, and the plurality of sensors sense the driving direction of the vehicle and simultaneously recognize the lane IMU sensor for detecting the position of; an illuminance sensor for recognizing the lane on the road; and a multi-spectrum sensor recognizing a specific material of the lane painted on the road using a wavelength of a selected range, wherein the control unit merges information of the lane recognized through the illuminance sensor and the multi-spectrum sensor. to correct the information of the damaged lane, and apply a predetermined angle so that the image of the road and the lane photographed through the front camera is perpendicular to the road based on the angle at which the front camera is installed. A bird's-eye view image is generated, a binarization algorithm is applied to the image detected by the rear camera to divide the road area and the lane area, extract feature points of the divided lane area, and then track the line based on the extracted feature points. The damaged part of the lane is compensated for, and the rear camera is spaced apart from the rear of the front camera by a predetermined distance and is installed to photograph the lane in a direction perpendicular to the road, and the control unit takes pictures through the front camera. A virtual lane guide is merged with the generated image and output through the display unit, and the lane guide has one end of a first side bar formed to have a predetermined straight length along the lane on one side of the first side bar. A connection bar having a predetermined length so that the other end is orthogonal to the first side bar while being connected; And a second side bar having one end connected to the other end of the connecting bar and having a predetermined straight length such that the other end is parallel to the first side bar, and the width between the first side bar and the second side bar is is formed with a predetermined width wider than the width of, a left separation distance is formed between the first side bar and the left side of the lane, and a right separation distance is formed between the second side bar and the right side of the lane, and the control unit, If the left and right separation distances are the same, it is determined that the vehicle is traveling accurately along the lane, and if the left and right separation distances are different from each other, it is determined that the vehicle is driving in a direction with a relatively small value, It consists in controlling the running direction of the vehicle so that the right separation distance is kept equal to each other.

상기 특허문헌에 개시된 차선 도색장치는 카메라와 센서를 통해 감지되는 정보에 기초하여 기존차량의 위치와 폭이 감지되고, 이에 기초하여 차량의 주행방향을 제어하여 차선을 자동 도색하는 것이나, 이 경우 실시간으로 촬영된 영상과 감지신호에 따라 차량의 주향 방향을 신속하게 제어하기가 어렵고, 차량의 주행 방향 제어에 지연이 발생하면 기존차선의 위치와 새로 도색되는 차선 간에 위치오차가 발생하며, 도색 차량이 차선을 따라 정확하게 주행하더라도 차량의 주행 방향과 노즐의 방향이 연동되어 움직이기 때문에 커브와 같이 곡선 차선인 경우 차량과 기존차선 간의 간격이 달라지면서 노즐의 위치가 기존차선의 위치를 쉽게 벗어나게 되고, 이에 의해 곡선 차선의 재도색 정확성이 떨어지는 문제가 있다.The lane painting device disclosed in the patent document detects the position and width of an existing vehicle based on information detected through a camera and a sensor, and based on this, controls the driving direction of the vehicle to automatically paint the lane, but in this case, real-time It is difficult to quickly control the driving direction of the vehicle according to the captured images and detection signals, and if a delay occurs in controlling the driving direction of the vehicle, a positional error occurs between the position of the existing lane and the newly painted lane, and the painted vehicle Even if you drive accurately along the lane, the direction of the vehicle and the direction of the nozzle move in conjunction with each other, so in the case of a curved lane like a curve, the distance between the vehicle and the existing lane changes and the position of the nozzle easily deviate from the position of the existing lane. There is a problem that the accuracy of repainting of curved lanes is lowered due to

따라서 차선 도색의 자동화를 위해 차선을 정확하게 검출할 수 있고, 검출된 차선을 따라 도색 차량과 노즐을 제어하여 정확하게 차선을 재도색할 수 있도록 개선된 차선 도색 시스템의 개발이 요구된다.Therefore, it is required to develop an improved lane painting system capable of accurately detecting lanes for automation of lane painting and repainting lanes accurately by controlling a painting vehicle and nozzles along the detected lanes.

KR 10-2143641 B1 (2020. 08. 05.)KR 10-2143641 B1 (2020. 08. 05.) KR 10-2021-0071724 A (2021. 06. 16.)KR 10-2021-0071724 A (2021. 06. 16.) KR 10-2257533 B1 (2021. 05. 24.)KR 10-2257533 B1 (2021. 05. 24.) KR 10-2078908 B1 (2020. 02. 12.)KR 10-2078908 B1 (2020. 02. 12.) KR 10-2019-0054656 A (2019. 05. 22.)KR 10-2019-0054656 A (2019. 05. 22.)

본 발명은 상기와 같은 종래의 차선 자동 도색장치가 가지는 문제점을 해결하기 위해 안출된 것으로, 본 발명이 해결하고자 하는 과제는 딥러닝 기술을 이용하여 환경 요인의 영향을 받지 않고 기존 차선을 정밀하고 정확하게 검출할 수 있고, 차선 도색 차량과 노즐을 자동으로 제어하여 기존 차선의 직선과 곡선을 구분하여 부드럽게 재도색할 수 있는 딥러닝 기술을 이용한 차선 도색 시스템을 제공하는 것이다.The present invention was made to solve the problems of the conventional automatic lane painting apparatus as described above, and the problem to be solved by the present invention is to accurately and accurately paint existing lanes without being affected by environmental factors by using deep learning technology. To provide a lane painting system using deep learning technology that can detect and automatically control the lane painting vehicle and nozzle to distinguish straight lines and curves of existing lanes and smoothly repaint them.

상기의 과제를 해결하기 위한 본 발명에 따른 딥러닝 기술을 이용한 차선 도색 시스템은, 도로의 차선을 실시간으로 촬영하는 차선촬영부; 상기 차선촬영부에서 촬영된 영상을 처리하여 차선 인식률을 높이는 전처리부; 상기 전처리부에서 전처리된 이미지데이터의 차선 유형을 반복 학습하여 차선 학습모델을 생성하는 학습모델 생성부; 차선 상황별 도색차량 제어데이터, 노즐 제어데이터 및 도색 결과에 따른 교정데이터를 통해 차선도색 제어값을 학습하는 도색차량 및 노즐 제어학습부; 및 상기 학습모델 생성부에서 생성된 차선 학습모델과 상기 도색차량 및 노즐 제어학습부에서 학습된 차선도색 제어값에 기초하여 실시간 차선 영상에 따른 차선을 인식하고, 인식된 차선의 상황에 맞추어 차선도색 제어값을 추출하여 도색차량과 노즐을 제어하는 도색차량 및 노즐 제어부를 포함하는 것을 특징으로 한다.A lane painting system using deep learning technology according to the present invention for solving the above problems includes a lane photographing unit for photographing a lane of a road in real time; a pre-processing unit to increase a lane recognition rate by processing the image captured by the lane capturing unit; a learning model generation unit that generates a next best learning model by iteratively learning the next best type of the image data preprocessed by the preprocessing unit; a painting vehicle and nozzle control learning unit that learns a lane painting control value through painting vehicle control data for each lane situation, nozzle control data, and correction data according to a painting result; and based on the lane learning model generated by the learning model generation unit and the lane painting control value learned by the painting vehicle and nozzle control learning unit, the lane is recognized according to the real-time lane image, and the lane is painted according to the situation of the recognized lane. It is characterized in that it includes a painting vehicle and nozzle controller for controlling the painting vehicle and the nozzle by extracting a control value.

그리고 본 발명은 상기 차선촬영부가 서로 1열로 배열되는 제1, 2, 3 카메라를 포함하고, 상기 제1 카메라는, 상기 노즐과 근접된 위치의 차선이 원근감 없이 촬영되도록 도로와 수직이 되도록 설치되며, 상기 제2 카메라는, 상기 제1 카메라에서 촬영되는 일부의 차선과 상기 노즐의 전방 쪽 일부의 차선이 포함되어 촬영되도록 설치되며, 상기 제3 카메라는, 상기 제2 카메라에서 촬영되는 일정 길이의 차선과 상기 제2 카메라의 촬영 영역 전방 쪽 소정 길이의 차선이 포함되어 촬영되도록 설치되는 것을 또 다른 특징으로 한다.And, the present invention includes first, second, and third cameras arranged in a row by the lane photographing unit, and the first camera is installed perpendicular to the road so that the lane at a position close to the nozzle is photographed without perspective, , The second camera is installed so that a part of the lane photographed by the first camera and a part of the lane in front of the nozzle are included and photographed, and the third camera has a predetermined length photographed by the second camera. Another feature is that the lane and the lane of a predetermined length toward the front of the shooting area of the second camera are included and photographed.

또한, 본 발명은 상기 전처리부가 상기 차선촬영부에서 촬영된 영상의 이미지데이터 해상도를 조정하는 해상도 조정부; 상기 해상도 조정부에서 조정된 이미지데이터의 컬러데이터를 변환하는 데이터 변환부; 상기 데이터 변환부에서 컬러데이터가 변환된 이미지데이터를 가우시안 처리하여 노이즈를 제거하는 노이즈 제거부; 상기 노이즈 제거부를 통해 노이즈가 제거된 이미지데이터를 이진화 처리하는 이진화 처리부; 및 상기 이진화 처리부에서 이진화된 이미지데이터의 원근요소를 재배열하여 제거하는 원근 변환부를 포함하는 것을 또 다른 특징으로 한다.In addition, the present invention includes a resolution adjusting unit for adjusting the image data resolution of the image taken by the lane photographing unit in the pre-processing unit; a data conversion unit for converting color data of the image data adjusted by the resolution adjustment unit; a noise removal unit which removes noise by performing Gaussian processing on the image data obtained by converting the color data in the data conversion unit; a binarization processing unit which binarizes the image data from which the noise has been removed through the noise removal unit; and a perspective conversion unit rearranging and removing perspective elements of the image data binarized by the binarization processing unit.

이에 더해 본 발명은 상기 학습모델 생성부가 상기 전치리부에서 전처리된 이미지데이터로부터 차선을 인식하고, 인식된 차선의 비틀림과 곡률에 맞추어 도색차량 및 노즐의 제어값을 설정하며, 설정된 도색차량 및 노즐의 제어값을 포함하여 차선 학습모델을 생성하는 것을 또 다른 특징으로 한다.In addition, in the present invention, the learning model generation unit recognizes lanes from the image data preprocessed in the preprocessing unit, sets control values of the painting vehicle and nozzles according to the twist and curvature of the recognized lane, and sets the painting vehicle and nozzles. Another feature is to generate a suboptimal learning model including a control value of .

그리고 본 발명은 상기 도색차량 및 노즐의 제어값이 도색차량의 속도, 조향, 차선의 중심라인, 차선의 폭, 비틀림 및 곡률에 맞추어 노즐의 위치, 노즐의 높이, 분사량 및 분사속도 값을 포함하는 것을 또 다른 특징으로 한다.And in the present invention, the control value of the painting vehicle and the nozzle includes the position of the nozzle, the height of the nozzle, the spray amount and the spray speed value according to the speed, steering, center line of the lane, width of the lane, twist and curvature of the paint vehicle has another feature.

본 발명에 따르면, 햇빛이나 그림자 및 차선의 결손 등의 영향에도 차선을 인공지능 딥러닝 기술에 의한 반복 학습을 통해 정확하게 검출할 수 있고, 이를 통해 차선 재도색을 위한 도색차량 및 노즐을 정확하게 제어할 수 있는 장점이 있다.According to the present invention, lanes can be accurately detected through repetitive learning by artificial intelligence deep learning technology even under the influence of sunlight, shadows, and lane defects, and through this, it is possible to accurately control a painting vehicle and nozzles for repainting lanes. There are advantages to being able to

또한, 차선의 직선과 곡선을 구분하여 도색차량 및 노즐을 최적 제어할 수 있고, 이를 통해 재도색되는 차선이 기존 차선을 벗어나는 것을 확실하게 줄일 수 있으며, 차선 도색의 자동화로 인해 차선을 재도색하는 인력과 비용을 줄일 수 있는 장점이 있다.In addition, it is possible to optimally control the painting vehicle and nozzle by distinguishing the straight line and the curve of the lane, and through this, it is possible to reliably reduce the re-painting lane deviating from the existing lane. It has the advantage of reducing manpower and cost.

도 1은 본 발명에 따른 딥러닝 기술을 이용한 차선 도색 시스템의 예를 보인 도면.
도 2 내지 도 4는 본 발명에 따른 차선촬영부의 예를 보인 도면.
도 5는 본 발명에 따른 전처리부의 예를 보인 도면.
도 6a 내지 도 6h는 본 발명에 따른 전처리부를 통해 이미지데이터가 전처리되는 예를 보인 도면.
도 7 및 도 8은 본 발명에 따른 도색차량 및 노즐 제어부를 통해 차선이 재도색되는 예를 보인 도면.
1 is a diagram showing an example of a lane painting system using deep learning technology according to the present invention.
2 to 4 are views showing an example of a lane capturing unit according to the present invention.
5 is a view showing an example of a pre-processing unit according to the present invention.
6A to 6H are diagrams showing examples of pre-processing image data through a pre-processing unit according to the present invention;
7 and 8 are views showing an example of repainting a lane through a painting vehicle and a nozzle control unit according to the present invention.

이하에서는 본 발명의 바람직한 실시예를 도시한 첨부도면에 따라 상세하게 설명한다.Hereinafter, it will be described in detail according to the accompanying drawings showing a preferred embodiment of the present invention.

본 발명은 딥러닝 기술을 이용하여 환경 요인의 영향을 받지 않고 기존 차선을 정밀하고 정확하게 검출할 수 있고, 차선 도색 차량과 노즐을 자동으로 제어하여 기존 차선의 직선과 곡선을 구분하여 부드럽게 재도색할 수 있는 딥러닝 기술을 이용한 차선 도색 시스템을 제공하고자 하는 것으로, 이를 위한 본 발명은 도 1 및 도 2에 도시된 바와 같이 차선촬영부(10), 전처리부(20), 학습모델 생성부(30), 도색차량 및 노즐 제어학습부(40) 및 도색차량 및 노즐 제어부(50)를 포함한다.The present invention uses deep learning technology to precisely and accurately detect existing lanes without being affected by environmental factors, and automatically controls the lane painting vehicle and nozzle to distinguish straight lines and curves of existing lanes and smoothly repaint them. It is intended to provide a lane painting system using deep learning technology that can be used, and the present invention for this purpose includes a lane photographing unit 10, a preprocessing unit 20, and a learning model generating unit 30 as shown in FIGS. 1 and 2. ), a painting vehicle and nozzle control learning unit 40 and a painting vehicle and nozzle control unit 50.

차선촬영부(10)는 도색차량(1)의 일측에 설치되어 도로 위의 차선(3)을 실시간으로 촬영하고, 촬영된 영상을 후술되는 전처리부(20)로 전송하는 구성이다.The lane photographing unit 10 is installed on one side of the painting vehicle 1 to photograph the lane 3 on the road in real time and transmits the photographed image to a pre-processing unit 20 to be described later.

이러한 차선촬영부(10)는 차선(3)을 따라 서로 다른 영역(Z1, Z2, Z3)을 촬영하도록 복수 개의 카메라가 서로 다른 각도로 설치되고, 이를 통해 후술되는 학습모델 생성부(30)에서 서로 다른 각도의 영상을 학습모델로 생성하게 된다.In the lane photographing unit 10, a plurality of cameras are installed at different angles to photograph different areas Z1, Z2, and Z3 along the lane 3, and through this, in the learning model generation unit 30 to be described later Images of different angles are created as learning models.

더욱 상세하게는 도 2 내지 도 4에 도시된 바와 같이 서로 1열로 배열되는 제1, 2, 3 카메라(11, 12, 13)로 구성되되, 제1 카메라(11)는 노즐(2)과 근접된 위치의 차선(3)이 원근감 없이 촬영되도록 도로와 수직이 되도록 설치되고, 제2 카메라(12)는 제1 카메라(11)에서 촬영되는 일부의 차선과 노즐(2)의 전방 쪽 일정 길이의 차선(3)이 포함되어 촬영되도록 설치되며, 제3 카메라(13)는 제2 카메라(12)에서 촬영되는 일부의 차선과 상기 제2 카메라(12)의 촬영 영역 전방 쪽 소정 길이의 차선이 포함되어 촬영되도록 설치될 수 있다.More specifically, as shown in FIGS. 2 to 4, it is composed of first, second, and third cameras 11, 12, and 13 arranged in a row with each other, and the first camera 11 is close to the nozzle 2. The lane 3 at the position is installed so that it is perpendicular to the road so that it is photographed without perspective, and the second camera 12 is a certain length of the front side of the nozzle 2 and some of the lanes photographed by the first camera 11 The third camera 13 includes a part of the lane captured by the second camera 12 and a lane of a predetermined length toward the front of the shooting area of the second camera 12. It can be installed to be filmed.

이때 제1, 2, 3 카메라(11, 12, 13)는 각도 조절이 가능하도록 구성되고, 이러한 제1, 2, 3 카메라(11, 12, 13)의 설치 각도는 필요에 따라 후술되는 도색차량 및 노즐 제어부(50)의 제어에 의해 자동으로 조절되도록 구성될 수 있다.At this time, the first, second, and third cameras 11, 12, and 13 are configured to be able to adjust the angle, and the installation angle of the first, second, and third cameras 11, 12, and 13 will be described later as needed for a painting vehicle. And it may be configured to be automatically adjusted by the control of the nozzle control unit 50.

이를 위해 제1, 2, 3 카메라(11, 12, 13)에는 소정 길이의 회전축(도시하지 않음)이 설치되고, 상기 회전축에는 기어 또는 풀리 등의 동력전달부재(도시하지 않음)가 설치되며, 상기 동력전달부재와 모터 등의 회전동력발생장치(도시하지 않음)를 통해 회전력이 전달되도록 구성될 수 있다.To this end, a rotation shaft (not shown) having a predetermined length is installed in the first, second, and third cameras 11, 12, and 13, and a power transmission member (not shown) such as a gear or a pulley is installed on the rotation shaft, Rotational force may be transmitted through the power transmission member and a rotational power generating device (not shown) such as a motor.

이에 더해 제1, 2, 3 카메라(11, 12, 13)는 도로와 이격된 높이를 조절할 수 있도록 구성될 수 있는데, 이를 위해 제1, 2, 3 카메라(11, 12, 13)는 수직으로 소정 길이를 가지는 리니어가이드(도시하지 않음)에 설치된 다음, 리니어모터의 동작에 의해 상하로 승강되면서 높이가 조절되도록 구성될 수 있다.In addition, the first, second, and third cameras 11, 12, and 13 may be configured to adjust the height of the distance from the road. For this purpose, the first, second, and third cameras 11, 12, and 13 are vertically After being installed on a linear guide (not shown) having a predetermined length, the height may be adjusted while moving up and down by the operation of a linear motor.

한편, 제1, 2, 3 카메라(11, 12, 13)를 통해 소정 폭 서로 중첩되어 촬영되게 되고, 이렇게 제1, 2, 3 카메라(11, 12, 13)에서 촬영된 제1, 2, 3 영역(Z1, Z2, Z3)의 영상은 하나의 세트로 묶여 후술되는 전처리부(20)에서 이미지 처리되게 된다.On the other hand, through the first, second, and third cameras 11, 12, and 13, a predetermined width is overlapped and photographed. The images of the three regions Z1, Z2, and Z3 are grouped into one set and subjected to image processing in the pre-processing unit 20 to be described later.

이를 통해 동일한 차선의 색상, 모양, 각도 및 결손 등의 상태에 따른 다양한 각도의 이미지가 동시에 취득되어 학습모델로 생성될 수 있고, 그 결과 차선 도색 환경에 따라 차선을 촬영하는 카메라의 각도가 달라지더라도 학습모델로부터 유사한 조건의 과거 데이터를 빠르게 추출하여 이에 맞는 최적의 제어값(도색차량, 노즐)을 획득할 수 있게 된다.Through this, images of various angles according to the condition of the same lane, such as color, shape, angle, and defect, can be simultaneously acquired and created as a learning model. Even if it is, it is possible to quickly extract past data of similar conditions from the learning model and obtain the optimal control value (painting vehicle, nozzle) suitable for it.

전처리부(20)는 차선촬영부(10)에서 촬영된 영상을 이미지 처리하여 차선의 인식률을 높이는 구성이다.The pre-processing unit 20 is a component that increases the recognition rate of lanes by processing images captured by the lane capturing unit 10 .

이러한 전처리부(20)는 도 5에 도시된 바와 같이 차선촬영부(10)에서 촬영된 영상의 이미지데이터 해상도를 조정하는 해상도 조정부(21)와, 상기 해상도 조정부(21)에서 조정된 이미지데이터의 컬러데이터를 변환하는 데이터 변환부(22)와, 상기 데이터 변환부(22)에서 컬러데이터가 변환된 이미지데이터에 가우시안 처리하여 노이즈를 제거하는 노이즈 제거부(23)와, 상기 노이즈 제거부(23)를 통해 노이즈가 제거된 이미지데이터를 이진화 처리하는 이진화 처리부(24) 및 상기 이진화 처리부(24)에서 이진화된 이미지데이터의 원근요소를 재배열하여 제거하는 원근 변환부(25)를 포함한다.As shown in FIG. 5, the pre-processing unit 20 includes a resolution adjusting unit 21 for adjusting the resolution of image data of an image captured by the lane capturing unit 10, and image data adjusted by the resolution adjusting unit 21. A data conversion unit 22 for converting color data, a noise removal unit 23 for removing noise by performing Gaussian processing on the image data converted from color data in the data conversion unit 22, and the noise removal unit 23 ) and a binarization processing unit 24 that binarizes the image data from which noise has been removed through and a perspective conversion unit 25 that rearranges and removes perspective elements of the image data binarized by the binarization processing unit 24.

이러한 전처리부(20)의 예로서, 도 6a 및 도 6b에 도시된 바와 같이 차선촬영부(10)에서 촬영된 영상이 해상도 조정부(21)를 통해 640x360 해상도의 이미지로 변환된 다음, 데이터 변환부(22)를 통해 차선의 검출이 쉽도록 색공간(color space)이 변경된다. 이때 일반적으로 흰색은 RGB 색공간을 사용하고, 노란색은 HSV 색공간계를 사용하므로 데이터 변환부(22)에서는 흰색 차선의 검출이 쉽도록 RGB 색공간으로 변경하게 된다.As an example of such a pre-processing unit 20, as shown in FIGS. 6A and 6B, the image taken by the lane capturing unit 10 is converted into an image of 640x360 resolution through the resolution adjusting unit 21, and then the data conversion unit Through (22), the color space is changed so that the lane detection is easy. At this time, in general, since white uses RGB color space and yellow uses HSV color space, the data converter 22 changes to RGB color space so that the white line can be easily detected.

이후 노이즈 제거부(23)를 통해 도 6c에 도시된 바와 같이 이미지 내의 특정 색을 컬러 마스킹하여 구분된 다음 그 외의 색이 제거되고, 도 6d에 도시된 바와 같이 차선이 아닌 노이즈를 제거하기 위해 가우시안 블러가 적용된다.Thereafter, as shown in FIG. 6C through the noise removal unit 23, a specific color in the image is color-masked and then other colors are removed, and as shown in FIG. 6D, Gaussian Blur is applied.

이때 가우시안 블러의 적용 적도에 따라 차선의 경계가 무뎌져 정확한 차선 경계를 추출하는 데에 어려움이 있을 수 있고, 따라서 가우시안 블러의 적용 값은 사용자에 의해 미리 설정된 값이 적용될 수 있다.At this time, it may be difficult to extract an accurate lane boundary because the boundary of the lane becomes dull according to the applied equator of the Gaussian blur. Therefore, a value previously set by the user may be applied as the applied value of the Gaussian blur.

이후 도 6e에 도시된 바와 같이 모폴로지 연산을 통해 이미지데이터 내의 흰색 노이즈가 제거된 다음, 도 6f에 도시된 바와 같이 추가 모폴로지 연산을 통해 흰색 오브젝트 내의 검은색 노이즈가 제거되게 된다.Thereafter, as shown in FIG. 6E, white noise in the image data is removed through morphological calculation, and then black noise in the white object is removed through additional morphological calculation as shown in FIG. 6F.

그리고 이진화 처리부(24)를 통해 도 6g에 도시된 바와 같이 이미지데이터 내의 경계를 명확하게 하기 위해 흑백 사이의 중간색이 없도록 이진화 처리되게 된다.And, as shown in FIG. 6G through the binarization processing unit 24, in order to clarify the boundary in the image data, it is binarized so that there is no intermediate color between black and white.

그런 다음, 원근 변환부(25)를 통해 도 6h에 도시된 바와 같이 이진화 처리된 이미지데이터 내의 차선의 원근값을 조정하고, 차선 유효영역이 지정된다.Then, through the perspective conversion unit 25, as shown in FIG. 6H, the perspective value of the lane in the binarized image data is adjusted, and the effective region of the lane is designated.

이때 차선 유효영역이 넓으면 다른 차선과 혼동되거나 또는 원근값 조정에 따른 오차가 발생할 수 있으므로 노즐(2)을 기준(원점)으로 2~3M 길이의 차선이 유효영역으로 지정되는 것이 바람직하다.At this time, if the effective area of the lane is wide, confusion with other lanes or errors due to perspective adjustment may occur. Therefore, it is preferable to designate a lane with a length of 2 to 3M based on the nozzle 2 (origin) as the effective area.

이렇게 전처리된 이미지데이터는 후술되는 학습모델 생성부(30)로 전달되게 된다.The preprocessed image data is transmitted to the learning model generation unit 30 to be described later.

상기와 같은 구성을 통해 차선촬영부(10)에서 촬영된 영상에 포함되는 그림자, 햇빛 및 결손(차선의 오염, 차선의 도색 손실, 도로의 균열, 도로의 파손 등) 등의 영향에 의한 차선의 오인식률을 줄일 수 있게 된다.Through the configuration as described above, the effect of shadows, sunlight, and defects (contamination of lanes, loss of paint of lanes, cracks in roads, damage to roads, etc.) included in the image captured by the lane photographing unit 10 The false recognition rate can be reduced.

학습모델 생성부(30)는 전처리부(20)에서 전처리된 이미지데이터의 차선 유형을 반복 학습하여 차선 학습모델을 생성하는 구성이다.The learning model generating unit 30 is a component that repeatedly learns the next best type of the image data preprocessed by the preprocessing unit 20 to generate a next best learning model.

이러한 학습모델 생성부(30)는 전치리부(20)에서 전처리된 이미지데이터로부터 차선을 인식하고, 인식된 차선의 비틀림과 곡률에 맞추어 도색차량 및 노즐의 제어값을 설정하며, 설정된 도색차량 및 노즐의 제어값을 포함하여 차선 학습모델을 생성하게 된다.The learning model generation unit 30 recognizes lanes from the image data preprocessed by the preprocessing unit 20, sets the control values of the painting vehicle and nozzles according to the twist and curvature of the recognized lane, and sets the painting vehicle and A second best learning model is created including the control value of the nozzle.

이때 도색차량 및 노즐의 제어값에는 도색차량의 속도, 조향, 차선의 중심라인, 차선의 폭, 비틀림 및 곡률에 맞추어 노즐의 위치, 노즐의 높이, 분사량 및 분사속도 값이 포함될 수 있다.At this time, the control values of the painting vehicle and the nozzle may include the location of the nozzle, the height of the nozzle, the amount of injection, and the value of the injection speed according to the speed of the painting vehicle, steering, center line of the lane, width of the lane, twist and curvature of the lane.

이하에서는 본 발명에 다른 학습모델 생성부(30)에서 차선을 인식하는 예에 대하여 설명한다.Hereinafter, an example of recognizing a lane in the learning model generation unit 30 according to the present invention will be described.

도 7에 도시된 바와 같이 전처리된 이미지데이터 중에서 도형(차선)의 윤곽선이 추출되고 경계선을 연결하게 된다.As shown in FIG. 7, the outline of a figure (lane) is extracted from the preprocessed image data and the boundary is connected.

그런 다음, 윤곽선의 경계선 중에서 좌우측으로 최외곽에 위치한 선을 연결하여 가상의 좌측차선라인(IL)과 가상의 우측차선라인(IR)이 생성된다.Then, a virtual left lane line IL and a virtual right lane line IR are generated by connecting the left and right outermost lines among the boundary lines of the outline.

그리고 가상의 좌측차선라인(IL)과 가상의 우측차선라인(IR)을 연결하는 상, 하부 차선의 폭(W1, W2)이 측정되고, 상, 하부 차선의 폭(W1, W2)이 서로 동일한 폭이 되도록 간격이 조정된다.Further, the widths W1 and W2 of the upper and lower lanes connecting the imaginary left lane line IL and the imaginary right lane line IR are measured, and the widths W1 and W2 of the upper and lower lanes are the same as each other. Spacing is adjusted so that it is wide.

이후 상, 하부 차선의 폭(W1, W2)의 1/2 지점을 연결하는 차선의 중심라인(CL)이 생성되고, 상기 차선의 중심라인(CL)을 따라 노즐(2)의 위치가 추종되도록 노즐 위치값이 설정된다.Thereafter, a center line CL of the lane connecting the 1/2 point of the widths W1 and W2 of the upper and lower lanes is created, and the position of the nozzle 2 is followed along the center line CL of the lane. The nozzle position value is set.

상기와 같이 노즐 위치값이 설정되고 나면, 차선 상황별 도색차량 제어데이터, 노즐 제어데이터가 미리 설정된 도로규정에 맞추어 자동으로 설정되게 된다.After the nozzle position value is set as described above, the paint vehicle control data and nozzle control data for each lane condition are automatically set according to the preset road regulations.

도색차량 및 노즐 제어학습부(40)는 차선 상황별 도색차량 제어데이터, 노즐 제어데이터를 통해 과거의 차선 재도색 결과의 교정데이터를 생성하고, 이러한 차선 상황별 도색차량 제어데이터, 노즐 제어데이터 및 교정데이터를 반복 학습하여 차선의 중심라인(CL)을 따라 차선이 재도색되었을 때 발생하는 차선 폭, 비틀림 등에 따른 차선의 이탈 등의 오차가 발생하지 않는 최적 차선도색 제어값을 생성하는 구성이다.The painting vehicle and nozzle control learning unit 40 generates correction data of past lane repainting results through the painting vehicle control data and nozzle control data for each lane situation, and the painting vehicle control data for each lane situation, nozzle control data and It is a configuration that repeatedly learns the correction data to generate an optimal lane painting control value that does not cause errors such as lane departure due to lane width and twist, which occur when the lane is repainted along the center line (CL) of the lane.

도색차량 및 노즐 제어부(50)는 학습모델 생성부(30)에서 생성된 차선 학습모델과 도색차량 및 노즐 제어학습부(40)에서 학습된 차선도색 제어값에 기초하여 실시간 차선 영상에 따른 차선을 인식하고, 인식된 차선의 상황에 맞추어 차선도색 제어값을 추출하여 도색차량과 노즐을 제어하는 구성이다.The painting vehicle and nozzle control unit 50 generates a lane according to the real-time lane image based on the lane learning model generated by the learning model generator 30 and the lane painting control value learned by the painting vehicle and nozzle control learning unit 40. It is a configuration that controls the paint vehicle and nozzle by recognizing and extracting the lane painting control value according to the recognized lane situation.

이때 도색차량 및 노즐 제어부(50)에서 생성된 차선도색 제어값에 기초하여 소정의 오차값(M)이 차선의 중심라인(CL)을 기준으로 가상의 좌측차선라인(IL)과 가상의 우측차선라인(IR)에 분할 적용되어 차선의 재도색이 진행되게 된다.At this time, based on the lane painting control value generated by the painting vehicle and nozzle control unit 50, a predetermined error value M is a virtual left lane line IL and a virtual right lane based on the center line CL of the lane. It is applied separately to the line IR, so that the repainting of the lane proceeds.

이상 설명한 바와 같이 본 발명은 햇빛이나 그림자 및 차선의 결손 등의 영향에도 차선을 인공지능 딥러닝 기술에 의한 반복 학습을 통해 정확하게 검출할 수 있고, 이를 통해 차선 재도색을 위한 도색차량 및 노즐을 정확하게 제어할 수 있게 된다.As described above, the present invention can accurately detect lanes through repetitive learning by artificial intelligence deep learning technology even under the influence of sunlight, shadows, and lane defects, and through this, paint vehicles and nozzles for lane repainting can be accurately be able to control

또한, 차선의 직선과 곡선을 구분하여 도색차량 및 노즐을 최적 제어할 수 있고, 이를 통해 재도색되는 차선이 기존 차선을 벗어나는 것을 줄일 수 있으며, 차선 도색의 자동화로 인해 차선을 재도색하는 인력과 비용을 줄일 수 있게 된다.In addition, it is possible to optimally control the painting vehicle and nozzle by distinguishing the straight line and the curve of the lane, and through this, it is possible to reduce the re-painting lane deviating from the existing lane. will be able to reduce costs.

위에서는 설명의 편의를 위해 바람직한 실시예를 도시한 도면과 도면에 나타난 구성에 도면부호와 명칭을 부여하여 설명하였으나, 이는 본 발명에 따른 하나의 실시예로서 도면상에 나타난 형상과 부여된 명칭에 국한되어 그 권리범위가 해석되어서는 안 될 것이며, 발명의 설명으로부터 예측 가능한 다양한 형상으로의 변경과 동일한 작용을 하는 구성으로의 단순 치환은 통상의 기술자가 용이하게 실시하기 위해 변경 가능한 범위 내에 있음은 지극히 자명하다고 볼 것이다.In the above, reference numerals and names have been given to the drawings showing preferred embodiments and the components shown in the drawings for convenience of explanation, but this is an embodiment according to the present invention, which corresponds to the shape shown on the drawings and the given name. The scope of the right should not be construed as being limited, and the change to various shapes predictable from the description of the invention and the simple substitution with a configuration that has the same action are within the range of change to be easily performed by those skilled in the art. You will find it extremely self-evident.

1: 도색차량 2: 노즐
3: 차선 10: 차선촬영부
11: 제1 카메라 12: 제2 카메라
13: 제3 카메라 20: 전처리부
21: 해상도 조정부 22: 데이터 변환부
23: 노이즈 제거부 24: 이진화 처리부
25: 원근 변환부 30: 학습모델 생성부
40: 도색차량 및 노즐 제어학습부 50: 도색차량 및 노즐 제어부
CL: 차선의 중심라인 IL: 가상의 좌측차선라인
IR: 가상의 우측차선라인 M: 오차값
W: 차선의 폭 W': 차선폭의 1/2
W1: 상부 차선의 폭 W2: 하부 차선의 폭
1: Paint vehicle 2: Nozzle
3: lane 10: lane shooting department
11: first camera 12: second camera
13: third camera 20: pre-processing unit
21: resolution adjustment unit 22: data conversion unit
23: noise removal unit 24: binarization processing unit
25: perspective conversion unit 30: learning model generation unit
40: painting vehicle and nozzle control learning unit 50: painting vehicle and nozzle control unit
CL: the center line of the lane IL: the imaginary left lane line
IR: imaginary right lane line M: error value
W: the width of the lane W': 1/2 of the lane width
W1: Width of the upper lane W2: Width of the lower lane

Claims (5)

도로의 차선을 실시간으로 촬영하는 차선촬영부(10);
상기 차선촬영부(10)에서 촬영된 영상을 처리하여 차선 인식률을 높이는 전처리부(20);
상기 전처리부(20)에서 전처리된 이미지데이터의 차선 유형을 반복 학습하여 차선 학습모델을 생성하는 학습모델 생성부(30);
차선 상황별 도색차량 제어데이터, 노즐 제어데이터 및 도색 결과에 따른 교정데이터를 통해 차선도색 제어값을 학습하는 도색차량 및 노즐 제어학습부(40); 및
상기 학습모델 생성부(30)에서 생성된 차선 학습모델과 상기 도색차량 및 노즐 제어학습부(40)에서 학습된 차선도색 제어값에 기초하여 실시간 차선 영상에 따른 차선을 인식하고, 인식된 차선의 상황에 맞추어 차선도색 제어값을 추출하여 도색차량과 노즐을 제어하는 도색차량 및 노즐 제어부(50);
를 포함하고,
상기 차선촬영부(10)는,
서로 1열로 배열되는 제1, 2, 3 카메라(11, 12, 13)를 포함하고,
상기 제1 카메라(11)는,
상기 노즐과 근접된 위치의 차선이 원근감 없이 촬영되도록 도로와 수직이 되도록 설치되며,
상기 제2 카메라(12)는,
상기 제1 카메라(11)에서 촬영되는 일부의 차선과 상기 노즐의 전방 쪽 일정 길이의 차선이 포함되어 촬영되도록 설치되며,
상기 제3 카메라(13)는,
상기 제2 카메라(12)에서 촬영되는 일부의 차선과 상기 제2 카메라(12)의 촬영 영역 전방 쪽 소정 길이의 차선이 포함되어 촬영되도록 설치되며,
상기 학습모델 생성부(30)는,
상기 전처리부(20)에서 전처리된 이미지데이터로부터 차선을 인식하고, 인식된 차선의 비틀림과 곡률에 맞추어 도색차량 및 노즐의 제어값을 설정하며, 설정된 도색차량 및 노즐의 제어값을 포함하여 차선 학습모델을 생성하는 것을 특징으로 하는 것을 특징으로 하는 딥러닝 기술을 이용한 차선 도색 시스템.
Lane photographing unit 10 for photographing lanes of the road in real time;
a pre-processing unit 20 to increase a lane recognition rate by processing the image captured by the lane capturing unit 10;
a learning model generation unit 30 that generates a next best learning model by iteratively learning the next best type of the image data preprocessed by the preprocessing unit 20;
a painting vehicle and nozzle control learning unit 40 that learns a lane painting control value through the painting vehicle control data for each lane situation, the nozzle control data, and the correction data according to the painting result; and
Based on the lane learning model generated by the learning model generation unit 30 and the lane painting control values learned by the painting vehicle and nozzle control learning unit 40, the lane is recognized according to the real-time lane image, and the recognized lane a paint vehicle and nozzle controller 50 that controls the paint vehicle and the nozzle by extracting a lane painting control value according to circumstances;
including,
The lane photographing unit 10,
Including first, second, and third cameras 11, 12, and 13 arranged in one row with each other,
The first camera 11,
It is installed to be perpendicular to the road so that a lane in a position close to the nozzle is photographed without perspective,
The second camera 12,
It is installed so that a part of the lane photographed by the first camera 11 and a lane of a certain length in front of the nozzle are included and photographed,
The third camera 13,
It is installed so that a part of the lane photographed by the second camera 12 and a lane of a predetermined length in front of the photographing area of the second camera 12 are included and photographed,
The learning model generator 30,
The lane is recognized from the image data preprocessed by the pre-processing unit 20, the paint vehicle and nozzle control values are set according to the twist and curvature of the recognized lane, and lane learning is included including the set paint vehicle and nozzle control values. Lane painting system using deep learning technology, characterized in that for generating a model.
삭제delete 청구항 1에 있어서,
상기 전처리부(20)는,
상기 차선촬영부(10)에서 촬영된 영상의 이미지데이터 해상도를 조정하는 해상도 조정부(21);
상기 해상도 조정부(21)에서 조정된 이미지데이터의 컬러데이터를 변환하는 데이터 변환부(22);
상기 데이터 변환부(22)에서 컬러데이터가 변환된 이미지데이터를 가우시안 처리하여 노이즈를 제거하는 노이즈 제거부(23);
상기 노이즈 제거부(23)를 통해 노이즈가 제거된 이미지데이터를 이진화 처리하는 이진화 처리부(24); 및
상기 이진화 처리부(24)에서 이진화된 이미지데이터의 원근요소를 재배열하여 제거하는 원근 변환부(25);
를 포함하는 것을 특징으로 하는 딥러닝 기술을 이용한 차선 도색 시스템.
The method of claim 1,
The pre-processing unit 20,
a resolution adjusting unit 21 for adjusting the resolution of image data of the image captured by the lane capturing unit 10;
a data conversion unit 22 for converting color data of the image data adjusted by the resolution adjustment unit 21;
a noise removal unit 23 which removes noise by performing Gaussian processing on the image data whose color data has been converted by the data conversion unit 22;
a binarization processing unit 24 for binarizing the image data from which noise has been removed by the noise removal unit 23; and
a perspective conversion unit 25 rearranging and removing perspective elements of the image data binarized by the binarization processing unit 24;
Lane painting system using deep learning technology, characterized in that it comprises a.
삭제delete 청구항 1에 있어서,
상기 도색차량 및 노즐의 제어값은,
도색차량의 속도, 조향, 차선의 중심라인, 차선의 폭, 비틀림 및 곡률에 맞추어 노즐의 위치, 노즐의 높이, 분사량 및 분사속도 값을 포함하는 것을 특징으로 하는 딥러닝 기술을 이용한 차선 도색 시스템.
The method of claim 1,
The control values of the painting vehicle and the nozzle are
Lane painting system using deep learning technology, characterized in that it includes the nozzle position, nozzle height, spray amount and spray speed values according to the speed, steering, center line of the lane, width of the lane, twist and curvature of the vehicle to be painted.
KR1020220057659A 2022-05-11 2022-05-11 Lane Painting System using Deep Learning Technology KR102466004B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220057659A KR102466004B1 (en) 2022-05-11 2022-05-11 Lane Painting System using Deep Learning Technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220057659A KR102466004B1 (en) 2022-05-11 2022-05-11 Lane Painting System using Deep Learning Technology

Publications (1)

Publication Number Publication Date
KR102466004B1 true KR102466004B1 (en) 2022-11-11

Family

ID=84042890

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220057659A KR102466004B1 (en) 2022-05-11 2022-05-11 Lane Painting System using Deep Learning Technology

Country Status (1)

Country Link
KR (1) KR102466004B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102599168B1 (en) 2023-04-21 2023-11-09 주식회사 테크온 Lane Painting Guidance System for Lane Painting Vehicles using HUD

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030038013A (en) * 2001-11-08 2003-05-16 삼성전자주식회사 Vehicle plate recognition method
KR20090085704A (en) * 2007-01-05 2009-08-07 퀄컴 인코포레이티드 Rendering 3d video images on a stereo-enabled display
KR20190054656A (en) 2017-11-14 2019-05-22 현대모비스 주식회사 Apparatus for detecting lane and method thereof
KR20190088647A (en) * 2018-01-19 2019-07-29 한국해양대학교 산학협력단 Automatic Lane Painting System Using Unmanned Vehicles
KR102143641B1 (en) 2020-02-07 2020-08-11 (주)라인테크 Automatic Lane Painting Device Using Vision Sensors
KR102257533B1 (en) 2019-08-21 2021-05-31 주식회사 유승 Auto marking apparatus of the road
KR20210071724A (en) 2019-12-07 2021-06-16 이창휘 Lane redrawing machine through unmanned automatic control system
KR102283833B1 (en) * 2020-08-28 2021-08-03 이연수 Auto disinfection injection apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030038013A (en) * 2001-11-08 2003-05-16 삼성전자주식회사 Vehicle plate recognition method
KR20090085704A (en) * 2007-01-05 2009-08-07 퀄컴 인코포레이티드 Rendering 3d video images on a stereo-enabled display
KR20190054656A (en) 2017-11-14 2019-05-22 현대모비스 주식회사 Apparatus for detecting lane and method thereof
KR20190088647A (en) * 2018-01-19 2019-07-29 한국해양대학교 산학협력단 Automatic Lane Painting System Using Unmanned Vehicles
KR102078908B1 (en) 2018-01-19 2020-02-18 한국해양대학교 산학협력단 Automatic Lane Painting System Using Unmanned Vehicles
KR102257533B1 (en) 2019-08-21 2021-05-31 주식회사 유승 Auto marking apparatus of the road
KR20210071724A (en) 2019-12-07 2021-06-16 이창휘 Lane redrawing machine through unmanned automatic control system
KR102143641B1 (en) 2020-02-07 2020-08-11 (주)라인테크 Automatic Lane Painting Device Using Vision Sensors
KR102283833B1 (en) * 2020-08-28 2021-08-03 이연수 Auto disinfection injection apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102599168B1 (en) 2023-04-21 2023-11-09 주식회사 테크온 Lane Painting Guidance System for Lane Painting Vehicles using HUD

Similar Documents

Publication Publication Date Title
US11958197B2 (en) Visual navigation inspection and obstacle avoidance method for line inspection robot
JP2917661B2 (en) Traffic flow measurement processing method and device
EP2282295B1 (en) Object recognizing device and object recognizing method
Lipski et al. A fast and robust approach to lane marking detection and lane tracking
US7421094B2 (en) Traffic lane marking line recognition system for vehicle
US7421095B2 (en) Traffic lane marking line recognition system for vehicle
KR102143641B1 (en) Automatic Lane Painting Device Using Vision Sensors
US20020031242A1 (en) Local positioning appartus, and method therefor
EP2682896A2 (en) In-vehicle apparatus
CN103714538B (en) Road edge detection method and device and vehicle
KR102078908B1 (en) Automatic Lane Painting System Using Unmanned Vehicles
KR102499258B1 (en) Two-component (5 types) AI Lane Automatic Painting Device
WO2017038134A1 (en) Landmark recognition device and recognition method
US7599050B2 (en) Surface defect inspecting method and device
US20070253622A1 (en) Traffic Lane Marking Line Recognition System for Vehicle
KR102466004B1 (en) Lane Painting System using Deep Learning Technology
JP2005157731A (en) Lane recognizing device and method
JP4906628B2 (en) Surveillance camera correction device
KR20140103441A (en) Vehicle lane recognition method and system using vision guidance device
JP2008160635A (en) Camera state detection method
US20180012084A1 (en) Apparatus and method of recognizing division lines on a road
JP2007310591A (en) Image processor and parking space determination method
JP3915621B2 (en) Lane mark detector
JP3366135B2 (en) Travel direction control device
KR20140087622A (en) Method of extracting traffic lanes from captured image using brightness

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant