KR102119033B1 - Apparatus and method for providing road marking information using image data and vibration - Google Patents

Apparatus and method for providing road marking information using image data and vibration Download PDF

Info

Publication number
KR102119033B1
KR102119033B1 KR1020190119276A KR20190119276A KR102119033B1 KR 102119033 B1 KR102119033 B1 KR 102119033B1 KR 1020190119276 A KR1020190119276 A KR 1020190119276A KR 20190119276 A KR20190119276 A KR 20190119276A KR 102119033 B1 KR102119033 B1 KR 102119033B1
Authority
KR
South Korea
Prior art keywords
road surface
road
image
damage
area
Prior art date
Application number
KR1020190119276A
Other languages
Korean (ko)
Inventor
류승기
전찬준
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020190119276A priority Critical patent/KR102119033B1/en
Application granted granted Critical
Publication of KR102119033B1 publication Critical patent/KR102119033B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • G06K9/00791
    • G06K9/4661
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

Provided are an apparatus for providing road surface marking damage information of a road using an image and a method thereof. The apparatus for providing road surface marking damage information of a road using an image comprises: a camera unit mounted on a vehicle and photographing a road on which the vehicle is driving to output a road surface image; a location sensing unit providing location information of the vehicle; and a device processor determining whether the visibility of a road marking marked on the road is damaged based on the road surface image, and the degree of damage, and providing the road surface image in which the degree of damage is determined and information on a location in which a road surface image.

Description

영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법{Apparatus and method for providing road marking information using image data and vibration}Apparatus and method for providing road marking information using image data and vibration}

본 발명은 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법에 관한 것으로서, 보다 상세하게는, 도로를 촬영한 영상으로부터 도로 노면 표시를 추출 및 훼손 상태를 판단하여 제공할 수 있는 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for providing road surface damage information using an image, and more specifically, a road using an image that can be provided by extracting a road surface mark from an image of a road and determining a damaged state It relates to an apparatus and method for providing information indicating damage to the road surface.

노면 표시는 도로교통의 안전을 위하여 각종 주의, 규제, 지시, 등의 내용을 노면에 기호, 문자 또는 선으로 도로의 이용자에게 알리는 표시를 말한다. Road marking refers to a sign that informs the road's users with signs, letters, or lines on the road surface for the purpose of road traffic safety.

노면 표시는 크게 색과 형태에 따라 구분된다.Road markings are largely divided according to color and shape.

먼저, 색의 경우, 황색은 중앙선, 노상장애물 중 도로중앙장애물, 주차금지, 주ㆍ정차 금지, 안전지대를 표시하고, 청색은 버스전용차로 및 다인승 차량 전용차선을 표시한다. 적색은 어린이보호구역 또는 주거지역 안에 설치하는 속도제한 표시의 테두리선으로 표시하고, 일반적인 백색은 위 기준 외 길 가장자리 구역선, 유턴구역선, 차로경계선(도로에 있는 차선, 길 가장자리에 있으면 주ㆍ정차 허용)으로 표시한다.First, in the case of color, yellow indicates a central line, road central obstacle among road obstacles, no parking, prohibition of parking, safety zone, and blue indicates a lane for exclusive use of buses and lanes for multi-passenger vehicles. Red is indicated by the border of the speed limit sign installed in the child protection area or residential area, and the normal white color is outside the above standard. Stop).

형태의 경우, 실선은 차선을 변경할 수 없음을 의미하고, 두 개의 실선(복선)은 절대 차선을 변경할 수 없음을 의미하고, 점선은 차선 변경이 가능함을 의미한다. In the case of the shape, the solid line means that the lane cannot be changed, the two solid lines (double line) mean that the absolute lane cannot be changed, and the dotted line means that the lane can be changed.

자율주행차의 경우, 전방 센서를 이용하여 노면 표시 중 주행 차로의 차선을 자동으로 인식하여 자동 주행을 하는 핵심적인 도로 인프라이므로, 자율주행차가 차선을 잘 인식하도록 차선의 적정 휘도, 재귀반사 성능을 갖도록 유지하는 것이 가장 중요하다.In the case of an autonomous vehicle, it is a key road infrastructure that automatically recognizes the lane of the driving lane during road marking by using a front sensor, so that the autonomous vehicle recognizes the lane well and provides adequate luminance and retroreflective performance. It is most important to keep it.

또한, 시간대나 기상 여건에 관계없이 차선의 시인성을 유지하여, 운전자 또는 자율주행차가 차선을 잘 인지할 수 있도록 차선을 적정하게 관리해야 한다. 훼손 차선으로 인해 발생하는 교통 사고, 특히, 자율주행차 시대를 위해서는 차선 관리의 선제적 대응이 필요하다. In addition, regardless of the time of day or weather conditions, the visibility of the lane must be maintained, and the lane must be properly managed so that the driver or autonomous vehicle can recognize the lane well. Traffic accidents caused by damaged lanes, especially in the era of self-driving cars, require preemptive response to lane management.

현재 차선 관리의 책임은 법적인 권한을 갖는 도로 관리자에게 있고, 도로 관리기관은 차선의 적정 상태를 유지하도록 휘도 등의 성능을 유지해야 하나, 현실적으로는 넓은 도로에 비해 소수의 관리 인력으로 수많은 노면표시 특히, 선형적인 차선에 대한 훼손 여부를 수시로 점검하는 것은 어려운 일이며, 차선 점검은 인력에 의한 육안관찰 또는 계측기에 의한 수동 측정 방식으로 관리하는 것이 일반적이다. Currently, the responsibility of managing lanes lies with road managers who have legal powers, and road management agencies must maintain the performance of luminance, etc., to maintain the proper state of lanes, but in reality, compared to wide roads, a small number of manpower is required to display numerous roads. In general, it is difficult to check for damage to the linear lane from time to time, and it is common to manage the lane inspection by visual observation by manpower or manual measurement by a measuring instrument.

따라서, 보다 정확하면서 자동으로 도로 노면 표시의 상태를 수집 및 판단할 수 있는 기술이 필요하다.Accordingly, there is a need for a technique capable of more accurately and automatically collecting and determining the state of the road surface marking.

국내 등록특허 제10-1543342호(2015.08.04. 등록)Domestic registered patent No. 10-1543342 (2015.08.04. registered)

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 주행 중인 차량을 통해 실시간으로 도로 노면 영상을 획득하여 시인성이 불량한 노면 표시, 즉, 훼손 노면 표시를 판단하고, 훼손 노면 표시가 판단된 지역의 위치정보와 노면 표시의 정보를 제공할 수 있는 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법을 제시하는 데 있다.The technical problem to be achieved by the present invention in order to solve the above-described problem is to obtain a road surface image in real time through a driving vehicle to determine a road surface display having poor visibility, that is, a damaged road surface display, and a damaged road surface display is determined. The present invention is to provide an apparatus and method for providing road marking damage information using an image capable of providing local location information and road marking information.

본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem of the present invention is not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따르면, 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치는, 차량에 장착되어 주행 중인 도로를 촬영하여 도로 노면 영상을 출력하는 카메라부; 상기 차량의 위치 정보를 제공하는 위치 센싱부; 및 상기 도로 노면 영상을 기초로 도로에 표시된 노면 표시의 시인성 훼손 여부 및 훼손 정도를 판단하고, 노면 표시의 훼손 여부와 훼손 정도가 판단된 도로 노면 영상과 상기 도로 노면 영상이 촬영된 위치 정보를 제공하는 장치 프로세서;를 포함한다.As a means for solving the above-described technical problem, according to an embodiment of the present invention, an apparatus for providing road surface damage information using an image is a camera unit mounted on a vehicle and photographing a driving road to output a road surface image ; A location sensing unit providing location information of the vehicle; And based on the road surface image, determine whether the visibility of the road surface displayed on the road is damaged and the degree of damage, and provide the road surface image and the location information on which the road surface image was taken. It includes a device processor.

상기 장치 프로세서는, 상기 카메라부로부터 실시간으로 입력되는 도로 노면 영상을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 노면 표시를 추출하고, 상기 추출된 노면 표시의 휘도를 이용하여 노면 표시의 훼손 여부 및 훼손 정도를 판단한다.The device processor extracts a road surface display by inputting a road surface image input in real time from the camera unit to a road surface extraction model previously learned based on artificial intelligence, and displays a road surface using luminance of the extracted road surface display It judges whether it is damaged or not.

상기 장치 프로세서는, 상기 도로 노면 영상에 상기 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시를 추출하고, 상기 추출된 노면 표시의 내부 훼손 영역을 추출하는 노면 표시 추출부; 상기 외곽으로 둘러싸인 노면 표시 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균을 산출하는 휘도 산출부; 및 상기 산출된 노면 표시 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균의 차이로부터 상기 노면 표시의 훼손 여부 및 훼손 정도를 판단하는 판단부;를 포함한다.The apparatus processor may include a road surface display extraction unit that extracts a road surface display surrounded by an outer surface by applying the road surface extraction model to the road surface image, and extracts an internal damaged area of the extracted road surface display; A luminance calculator configured to calculate a luminance average of the entire road surface display surrounded by the outline and a luminance average of the internal damaged area; It includes; and a determination unit for determining whether the road surface display is damaged and the degree of damage from the difference between the calculated average luminance of the entire road surface display and the average luminance of the internal damaged area.

상기 도로 노면 영상을 휘도 정보를 포함하는 그레이 영상으로 변환하고, 상기 변환된 그레이 영상에서 노면 표시를 포함하는 관심 영역을 설정하며, 상기 설정된 관심 영역을 상기 노면 표시 추출 모델의 입력데이터로서 상기 프로세서로 전달하는 영상 처리부;를 더 포함한다.The road surface image is converted into a gray image including luminance information, an interest region including a road surface display is set in the converted gray image, and the set region of interest is input to the processor as input data of the road surface extraction model. It further includes an image processing unit to transmit.

상기 영상 처리부는, 상기 카메라부로부터 입력되는 도로 노면 영상을 가로선으로 3등분한 후 아래 1/3 영역에 해당하는 분석 영역을 추출하고, 상기 분석 영역 중 정해진 위치에 해당하는 관심 영역을 추출하고, 상기 카메라는, 상기 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 상기 도로 노면 영상의 2/3 영역 내에 위치하도록 설치된다.The image processing unit, after dividing the road surface image input from the camera unit into three horizontal lines, extracts an analysis area corresponding to the lower 1/3 area, and extracts an area of interest corresponding to a predetermined position among the analysis areas, The camera is installed to photograph along the driving direction from the road surface of the road closest to the front surface of the vehicle, but is installed so that the vanishing point of the road surface horizontal line in the captured image is located within 2/3 of the road surface image.

한편, 본 발명의 다른 실시 예에 따르면, 전자장치의 영상을 이용한 도로의 노면 표시 훼손 정보 제공 방법은, (A) 전자장치가, 차량에 장착된 카메라로 도로를 촬영하여 도로 노면 영상을 출력하는 단계; (B) 상기 전자장치가, GPS 모듈을 이용하여 상기 차량의 위치 정보를 센싱하는 단계; 및 (C) 상기 전자장치가, 상기 (A) 단계에서 출력되는 도로 노면 영상을 기초로 도로에 표시된 노면 표시의 시인성 훼손 여부 및 훼손 정도를 판단하고, 노면 표시의 훼손 여부와 훼손 정도가 판단된 도로 노면 영상과 상기 도로 노면 영상이 촬영된 위치 정보를 제공하는 단계;를 포함한다.Meanwhile, according to another embodiment of the present invention, a method of providing road surface damage information using an image of an electronic device includes: (A) the electronic device photographs the road with a camera mounted on a vehicle and outputs a road surface image. step; (B) the electronic device sensing the location information of the vehicle using a GPS module; And (C) the electronic device determines whether the visibility of the road surface displayed on the road is damaged and the degree of damage based on the road surface image output in step (A), and whether the road display is damaged and the degree of damage is determined. And providing a road surface image and location information on which the road surface image was captured.

상기 (C) 단계는, 상기 (A) 단계로부터 실시간으로 입력되는 도로 노면 영상을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 노면 표시를 추출하고, 상기 추출된 노면 표시의 휘도를 이용하여 노면 표시의 훼손 여부 및 훼손 정도를 판단한다.In the step (C), a road surface image input in real time from the step (A) is input to a road surface extraction model previously learned based on artificial intelligence to extract a road surface display, and the luminance of the extracted road surface display is extracted. Use to determine whether or not the road marking is damaged or not.

상기 (C) 단계는, (C1) 상기 전자장치가, 상기 도로 노면 영상에 상기 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시를 추출하고, 상기 추출된 노면 표시의 내부 훼손 영역을 추출하는 단계; (C2) 상기 전자장치가, 상기 외곽으로 둘러싸인 노면 표시 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균을 산출하는 단계; 및 (C3) 상기 전자장치가, 상기 산출된 노면 표시 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균의 차이로부터 상기 노면 표시의 훼손 여부 및 훼손 정도를 판단하는 단계;를 포함한다.In step (C), (C1) the electronic device applies the road surface extraction model to the road surface image, extracts a road surface display surrounded by the outer surface, and extracts an internal damaged area of the extracted road surface display. ; (C2) the electronic device calculating a luminance average of the entire road surface display surrounded by the outer edge and a luminance average of the internal damaged area; And (C3) determining, by the electronic device, whether the road surface is damaged or not, from the difference between the calculated average brightness of the entire road surface display and the average of the luminance of the internal damaged area.

상기 (C) 단계 이전에, (D) 상기 전자장치가, 상기 (A) 단계에서 출력되는 도로 노면 영상을 휘도 정보를 포함하는 그레이 영상으로 변환하고, 상기 변환된 그레이 영상에서 노면 표시를 포함하는 관심 영역을 설정하며, 상기 설정된 관심 영역을 상기 노면 표시 추출 모델의 입력데이터로서 상기 (C) 단계로 출력하는 단계;를 더 포함한다.Before the step (C), (D) the electronic device converts the road surface image output in the step (A) into a gray image including luminance information, and includes a road surface display in the converted gray image. And setting the region of interest, and outputting the set region of interest as the input data of the road surface extraction model in the step (C).

상기 (D) 단계는, 상기 카메라부로부터 입력되는 도로 노면 영상을 가로선으로 3등분한 후 아래 1/3 영역에 해당하는 분석 영역을 추출하고, 상기 분석 영역 중 정해진 위치에 해당하는 관심 영역을 설정하고, 상기 카메라는, 상기 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 상기 도로 노면 영상의 2/3 영역 내에 위치하도록 설치된다.In the step (D), after dividing the road surface image input from the camera unit into three horizontal lines, an analysis area corresponding to the lower 1/3 area is extracted, and a region of interest corresponding to a predetermined position in the analysis area is set. In addition, the camera is installed to photograph along the driving direction from the road surface of the road closest to the front surface of the vehicle, but the vanishing point of the road surface horizontal line in the captured image is installed to be located within 2/3 of the road surface image. .

본 발명에 따르면, 휘도 영상에서 노면표시 정보를 자동으로 수집하는 기술을 구현함으로써, 노면 표시의 훼손 상태를 쉽게 파악할 수 있고, 이때 수집한 다양한 원시 자료를 데이터베이스화하고 유관기관과 연계하여 도로 관리의 스마트한 서비스를 제공할 수 있다. According to the present invention, by implementing a technique for automatically collecting road marking information from a luminance image, it is possible to easily grasp the damaged state of the road marking, and at this time, the various raw data collected is databased and linked with related organizations to manage roads. Smart service can be provided.

본 발명에 따르면, 주행 중인 차량을 통해 실시간으로 도로 노면 영상을 획득하여 노면 표시의 형태 또는 휘도를 분석하고 시인성 불량 정도를 판단함으로써 노면 표시의 상태를 보다 정확히 판단하여 판단 결과의 신뢰도를 높일 수 있다.According to the present invention, by obtaining a road surface image in real time through a driving vehicle, the shape or luminance of the road surface display is analyzed and the degree of visibility is determined to determine the state of the road display more accurately, thereby increasing the reliability of the determination result. .

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시 예에 의한 노면 표시 추출 모델 생성 서버를 도시한 블록도,
도 2는 도로 노면 영상으로부터 분석 영역을 추출하는 동작을 설명하기 위하여 1프레임의 도로 노면 영상을 도시한 도면,
도 3은 노면 표시의 종류 중 일부를 보여주는 도면,
도 4a는 전처리부의 레이블링 동작을 설명하기 위한 예시도,
도 4b는 정상 노면 표시의 레이블링 이전과 이후, 훼손된 노면 표시의 레이블링 이전과 이후의 일 예를 도시한 도면
도 5는 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치를 도시한 블록도,
도 6은 본 발명의 다른 실시 예에 따른 도로 파손 정보 제공 시스템을 도시한 도면,
도 7은 본 발명의 실시 예에 따른 노면 표시 추출 모델 생성 서버의 노면 표시 추출 모델 생성 방법을 설명하기 위한 흐름도,
도 8은 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치의 도로 파손 정보 제공 방법을 설명하기 위한 흐름도, 그리고,
도 9는 도 1 내지 도 8을 참조하여 상술한 본 발명의 실시 예에 따른 노면 표시 훼손 정보를 위한 아키텍쳐를 도시한 도면이다.
1 is a block diagram showing a road surface extraction model generation server according to an embodiment of the present invention;
Figure 2 is a view showing a road surface image of one frame to explain the operation of extracting the analysis area from the road surface image,
3 is a view showing some of the types of road markings,
Figure 4a is an exemplary diagram for explaining the labeling operation of the pre-processing unit,
4B is a view showing an example before and after labeling of a normal road marking, and before and after labeling of a damaged road marking.
FIG. 5 is a block diagram showing an apparatus for providing damage to road surface information according to an embodiment of the present invention;
6 is a view showing a road damage information providing system according to another embodiment of the present invention,
7 is a flowchart illustrating a method for generating a road surface extraction model in the road surface extraction model generation server according to an embodiment of the present invention;
8 is a flowchart for explaining a method for providing road damage information in an apparatus for providing damaged road information according to an embodiment of the present invention;
9 is a diagram illustrating an architecture for road surface damage information according to an embodiment of the present invention described above with reference to FIGS. 1 to 8.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be readily understood through the following preferred embodiments related to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided to ensure that the disclosed contents are thorough and complete and that the spirit of the present invention is sufficiently conveyed to those skilled in the art.

본 명세서에서, 어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.In this specification, when an element, component, device, or system is mentioned to include a component consisting of a program or software, the element, component, device, or system, even if not explicitly stated, is the program or software. It should be understood that includes hardware (eg, memory, CPU, etc.) or other programs or software (eg, drivers required to run the operating system or hardware) necessary to execute or operate.

또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.Also, it should be understood that an element (or component) may be implemented in software, hardware, or in any form of software and hardware, unless specifically stated in the implementation of any element (or component).

또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, the terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein,'comprises' and/or'comprising' does not exclude the presence or addition of one or more other components.

이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.Hereinafter, with reference to the accompanying drawings, a specific technical content to be carried out in the present invention will be described in detail. It should be noted that, in some cases, parts that are commonly known in describing the invention and that are not significantly related to the invention are not described in order to prevent chaos from coming out for no reason in describing the invention.

도 1, 도 5 및 도 6에 도시된 서버(100, 500) 또는 장치(200, 400)의 각각의 구성은 기능 및/또는 논리적으로 분리될 수도 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 작성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다. Each configuration of the servers 100, 500, or devices 200, 400 shown in FIGS. 1, 5, and 6 indicates that they may be functionally and/or logically separated, and each configuration must be separately The average expert in the technical field of the present invention will be able to easily infer that it does not mean that it is classified as a physical device or written in a separate code.

또한, 본 발명의 실시 예에 따른 노면 표시 추출 모델 생성 서버(100), 노면 표시 훼손 정보 제공 장치(200), 서비스 제공 서버(300), 정보 수집 장치(400)), 및 노면 표시 훼손 정보 제공 서버(500)는 예를 들면, 데스크탑 PC(Personal Computer), 서버, 랩탑 PC(Laptop PC), 넷북 컴퓨터(Netbook Computer), 스마트폰 등 프로그램의 설치 및 실행이 가능한 모든 전자기기들 중 하나일 수도 있다.In addition, the road surface extraction model generation server 100, the road surface damage information providing device 200, the service providing server 300, the information collecting device 400 according to an embodiment of the present invention, and the road surface damage information provided The server 500 may be, for example, a desktop PC (Personal Computer), a server, a laptop PC (Laptop PC), a netbook computer (Netbook Computer), or one of all electronic devices capable of installing and executing a program such as a smartphone. have.

도 1은 본 발명의 실시 예에 따른 노면 표시 추출 모델 생성 서버(100)를 도시한 블록도이다.1 is a block diagram illustrating a road surface extraction model generation server 100 according to an embodiment of the present invention.

도 1에 도시된 노면 표시 추출 모델 생성 서버(100)는 다수의 도로 노면 영상을 학습(예를 들어, 딥러닝) 알고리즘에 적용하여 실제 도로상에서 시인성이 불량한, 즉, 훼손된 노면 표시를 추출할 수 있는 노면 표시 추출 모델을 학습 및 생성할 수 있다.The road surface extraction model generation server 100 illustrated in FIG. 1 applies a plurality of road surface images to a learning (for example, deep learning) algorithm to extract poor visibility, that is, a damaged road surface on an actual road. A road surface extraction model can be trained and generated.

이를 위해, 노면 표시 추출 모델 생성 서버(100)는 사용자 인터페이스부(110), 입력부(120), 데이터베이스(130), 전처리부(140), 서버 메모리(150) 및 서버 프로세서(160)를 포함할 수 있다.To this end, the road surface extraction model generation server 100 includes a user interface unit 110, an input unit 120, a database 130, a pre-processing unit 140, a server memory 150, and a server processor 160. Can be.

사용자 인터페이스부(110)는 사용자와 서버(100) 간의 인터페이싱을 위한 장치로서, 사용자 명령을 입력받아 서버 프로세서(160)에게 전달하거나, 서버 프로세서(160)에 의해 처리된 결과를 화면에 표시할 수 있다.The user interface 110 is a device for interfacing between the user and the server 100, and receives a user command and transmits it to the server processor 160, or displays a result processed by the server processor 160 on the screen. have.

입력부(120)는 다수의 차량용 장치들(미도시)로부터 도로 노면 동영상들을 유무선 통신 방식으로 수신하는 통신 회로를 포함하거나, 휴대용 메모리(미도시)에 저장된 다수의 도로 노면 동영상들을 입력받을 수 있다. 도로 노면 동영상은 다수의 도로 노면 영상들(즉, 프레임들)을 포함하고, 각 도로 노면 영상은 휘도 데이터와 RGB 데이터를 포함하는 RGB 영상일 수 있다. 또한, 하나의 도로 노면 영상은 도 2에 도시된 것처럼, 도로 표면의 수평선, 즉, 소실점이 2/3 영역 내에 위치하도록 촬영된 프레임일 수 있다. The input unit 120 may include a communication circuit that receives road road videos from a plurality of vehicle devices (not shown) in a wired or wireless communication method, or may receive a plurality of road road videos stored in a portable memory (not shown). The road surface video includes a plurality of road surface images (ie, frames), and each road road image may be an RGB image including luminance data and RGB data. In addition, one road surface image may be a frame photographed such that the horizontal line of the road surface, that is, the vanishing point is located in the 2/3 area, as shown in FIG. 2.

데이터베이스(130)는 입력부(120)를 통해 차량용 장치들 또는 휴대용 메모리로부터 획득된 다수의 도로 노면 동영상들 또는 프레임 단위의 도로 노면 영상을 수집 및 저장할 수 있다. The database 130 may collect and store a plurality of road surface videos or frame road surface images obtained from vehicle devices or a portable memory through the input unit 120.

또한, 데이터베이스(130)는 전처리부(140)에, 노면표시의 종류 또는 형태 별로 레이블링된 관심영역(ROI: Region Of Interest)을 저장하며 레이블링된 ROI는 정상 상태의 노면 표시 또는 훼손된 노면 표시를 포함할 수 있다. In addition, the database 130 stores the region of interest (ROI) labeled for each type or type of road marking in the pre-processing unit 140, and the labeled ROI includes normal road marking or damaged road marking. can do.

도로에 표시되는 노면 표시는 도 3에 도시된 것처럼 차선과 노면 표시 기호로 분류될 수 있다.Road markings displayed on the road may be classified into lane and road marking symbols as shown in FIG. 3.

도 3을 참조하면, 차선의 형태는 점선, 실선 및 이중 실선으로 구분되고, 차선의 색상은 백색, 황색, 청색, 적색으로 구분된다. 또한, 노면 표시 기호는 오르막 경사면, 양보, 횡단보도 예고 등 도로교통 안전을 위한 각종 정보를 제공한다. Referring to FIG. 3, the shape of the lane is divided into a dotted line, a solid line, and a double solid line, and the color of the lane is divided into white, yellow, blue, and red. In addition, the road marking symbol provides various information for road traffic safety such as uphill slope, concession, and pedestrian crossing notice.

데이터베이스(130)는 차선의 경우 차선의 형태(즉, 외부 윤곽 및 내부 윤곽) 별로 레이블링된 ROI들을 저장하고, 선택적으로 차선의 색상을 해당하는 ROI에 더 매핑저장할 수 있다. 또한, 데이터베이스(130)는 노면 표시 기호의 경우 노면 표시 기호의 형태(외부 윤곽 및 내부 윤곽) 별로 레이블링된 ROI들을 저장하여 DB를 구성할 수 있다.In the case of a lane, the database 130 may store ROIs labeled for each lane type (ie, an outer contour and an inner contour), and selectively map and store the color of the lane to a corresponding ROI. In addition, in the case of the road marking symbol, the database 130 may configure a DB by storing ROIs labeled for each type of road marking symbol (outer contour and inner contour).

전처리부(140)는 수집된 도로 노면 영상들로부터 추출되는 ROI를 영상처리한다. The pre-processing unit 140 image-processes the ROI extracted from the collected road surface images.

도 2는 도로 노면 영상으로부터 ROI를 추출하는 동작을 설명하기 위하여 1프레임의 도로 노면 영상을 도시한 도면이다.FIG. 2 is a diagram illustrating a road surface image of one frame to describe an operation of extracting an ROI from the road surface image.

도 2를 참조하면, 사용자가 사용자 인터페이스부(110)를 조작하여 도로 노면 동영상 중 노면 표시 추출 모델의 생성에 사용할 도로 노면 영상을 선택하면, 전처리부(140)는 선택된 도로 노면 영상을 RGB-Y 변환하여 휘도 데이터를 포함하는 그레이 영상을 생성하고, 그레이 영상에서 픽셀 별로 휘도값을 산출한다. 이 때, 전처리부(140)는 하나의 프레임의 그레이 영상을 가로선으로 동일하게 3등분한 후 아래의 1/3에 해당하는 영역(즉, 소실점 이하의 영역)을 ROI로서 추출하고, 추출된 ROI를 화면에 표시할 수 있다. 추출된 ROI에 포함된 노면표시의 위치, 선명도 등이 노면 표시 추출 모델을 생성하기 위해 학습하는데 부적절한 경우, 사용자는 그레이 영상에서 추출된 ROI의 크기를 재설정할 수 있다.Referring to FIG. 2, when a user selects a road surface image to be used to generate a road surface extraction model from a road surface video by operating the user interface unit 110, the preprocessor 140 RGB-Y the selected road surface image. By converting, a gray image including luminance data is generated, and a luminance value is calculated for each pixel in the gray image. At this time, the pre-processing unit 140 equally divides the gray image of one frame into horizontal lines, and then extracts the area corresponding to the lower third (that is, the area below the vanishing point) as an ROI, and extracts the ROI. Can be displayed on the screen. When the location, sharpness, etc. of the road marking included in the extracted ROI is inappropriate to learn to generate a road marking extraction model, the user may reset the size of the extracted ROI from the gray image.

도 4a는 전처리부(140)의 레이블링 동작을 설명하기 위한 예시도이다.4A is an exemplary diagram for explaining the labeling operation of the preprocessing unit 140.

도 4a를 참조하면, 휘도데이터를 포함하는 그레이 영상 중 사용자에 의해 소실점 이하의 ROI가 설정되면, 사용자는 사용자 인터페이스부(110)를 이용하여 화면에 표시된 ROI를 크로핑(cropping)하고, 전처리부(140)는 차선 등의 노면 표시만 크로핑된 ROI에 표시되도록 할 수 있다.Referring to FIG. 4A, when a ROI of a vanishing point or less is set by a user among gray images including luminance data, the user crops the ROI displayed on the screen using the user interface 110 and preprocesses In operation 140, only road surface markings such as lanes may be displayed on the cropped ROI.

전처리부(140)는 ROI에 존재하는 노면 표시에 해당하는 영역을 외곽선을 따라 추출하고, 추출된 외곽선 내부에 있는 내곽선을 추가로 추출할 수 있다. 그리고, 전처리부(140)는 추출된 외곽선과 내곽선으로 이루어진 형태로 ROI를 레이블링하여 노면 표시의 파손 위치와 크기를 표시할 수 있다. The pre-processing unit 140 may extract an area corresponding to the road marking existing in the ROI along the outline, and additionally extract an inner outline inside the extracted outline. In addition, the pre-processing unit 140 may label the ROI in the form of the extracted outline and inner outline to display the damage location and size of the road marking.

내곽선 또는 내곽선으로 둘러싸인 내곽영역이 추출되는 것은 노면 표시가 훼손된 것을 의미할 수 있다. 따라서, ROI 내의 노면 표시에 파손된 부분이 없는 경우, 전처리부(140)는 추출된 외곽선으로 이루어진 형태로 ROI를 레이블링할 수 있다.The extraction of the inner contour or the inner contour area surrounded by the inner contour may mean that the road marking is damaged. Therefore, when there is no damaged part on the road surface display in the ROI, the pre-processing unit 140 may label the ROI in the form of an extracted outline.

또한, ROI에 포함된 노면 표시에 훼손된 영역이 있는 경우, 전처리부(140)는 사용자로 하여금 노면 표시에 해당하는 영역을 노면표시의 종류, 크기, 형태 또는 색상 중 어느 하나에 따라 상이하게 표시하도록 하여 레이블링을 수행할 수도 있다. 또한, ROI에 포함된 노면 표시에 훼손된 영역이 없는 경우, 전처리부(140)는 정상 상태의 노면 표시로서, 노면 표시에 해당하는 영역을 종류, 크기, 형태 또는 색상 중 어느 하나에 따라 상이하게 표시하도록 하여 레이블링을 수행할 수 있다.In addition, if there is a damaged area in the road surface display included in the ROI, the pre-processing unit 140 allows the user to differently display the area corresponding to the road surface display according to any one of the type, size, shape, or color of the road surface display. You can also perform labeling. In addition, when there is no damaged area in the road surface display included in the ROI, the pre-processing unit 140 displays the road surface in a normal state, and the area corresponding to the road surface display is differently displayed according to any one of type, size, shape, or color. Labeling can be performed.

도 4b는 정상 노면 표시의 레이블링 이전과 이후, 훼손된 노면 표시의 레이블링 이전과 이후의 일 예를 도시한 도면이다.4B is a view showing an example before and after labeling of a normal road marking, and before and after labeling of a damaged road marking.

도 4b를 참조하면, 정상 차선의 경우, 그레이 영상 중 차선에 해당하는 부분에 훼손된 영역이 없다. 따라서, 전처리부(140)는 그레이 영상에서 ROI가 설정되면, 설정된 ROI에서 차선의 외부 윤곽(a)을 추출하고, 이후 내부 윤곽을 추출하며, 추출되는 내부 윤곽이 없으므로, ROI를 외부 윤곽의 형태를 가지는 정상 노면 표시로 레이블링할 수 있다. Referring to FIG. 4B, in the case of a normal lane, there is no damaged area in a portion corresponding to the lane among gray images. Therefore, when the ROI is set in the gray image, the pre-processing unit 140 extracts the outer contour (a) of the lane from the set ROI, and then extracts the inner contour, and since there is no extracted inner contour, the ROI is the shape of the outer contour. It can be labeled with a normal road marking.

또한, 훼손된 차선의 경우, 전처리부(140)는 그레이 영상에서 ROI가 설정되면, 설정된 ROI에서 차선의 외부 윤곽(a)을 추출한 후 내부 윤곽(b)을 추출하며, ROI를 외부 윤곽(a)과 내부 윤곽(b)의 형태를 가지는 훼손 노면 표시로 레이블링할 수 있다. In addition, in the case of a damaged lane, when the ROI is set in the gray image, the pre-processing unit 140 extracts the outer contour (a) of the lane from the set ROI and then extracts the inner contour (b), and extracts the ROI from the outer contour (a). And it can be labeled with a damaged road surface marking in the form of an inner contour (b).

후술할 서버 프로세서(160) 또는 전처리부(140)는 사용자 선택에 의해 상이한 색상 및/또는 형태로 레이블링된 노면 표시를 포함하는 ROI들, 즉, 레이블 데이터 셋(Labelling Data Set)을 생성하여 데이터베이스(130)에 저장할 수 있다. 이때, 서버 프로세서(160) 또는 전처리부(140)는 훼손된 노면 표시의 훼손 정보(또는 훼손 등급)과 차선의 색상이 사용자에 의해 더 입력되면 해당하는 레이블링된 ROI에 매핑저장되도록 할 수 있다.The server processor 160 or the pre-processing unit 140, which will be described later, generates ROIs including road markings labeled in different colors and/or shapes by user selection, that is, a label data set to generate a database ( 130). At this time, the server processor 160 or the pre-processing unit 140 may cause the mapping information to be stored in the corresponding labeled ROI when the damaged information (or damage class) and the color of the lane are further input by the user.

또한, 전처리부(140)는 레이블링된 ROI의 밝기(B, brightness), 대비(C, contrast), 방향(O, orientation) 중 적어도 하나를 조정하여 학습하기 위한 입력데이터 개수를 증가시킬 수 있다. 이로써, 하나의 ROI로부터 다수의 상이한 레이블 데이터가 생성될 수 있으며, 이는, 실제 도로를 촬영하는 경우 날씨, 시간 등 환경에 따라 변경될 수 있는 도로 노면 영상의 다양한 상황을 학습 또는 딥러닝하는데 반영할 수 있다.Also, the pre-processing unit 140 may increase the number of input data for learning by adjusting at least one of the brightness (B, brightness), contrast (C, contrast), and orientation (O, orientation) of the labeled ROI. Accordingly, a number of different label data can be generated from one ROI, which can be reflected in learning or deep learning of various road surface images that may change depending on the environment, such as weather and time when shooting an actual road. Can be.

서버 메모리(150)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 서버 메모리(150)에는 예를 들어, 노면 표시 추출 모델 생성 서버(100)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(110~160)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.The server memory 150 may include volatile memory and/or non-volatile memory. In the server memory 150, for example, in order to implement and/or provide operations and functions provided by the road surface extraction model generation server 100, commands or data related to the components 110 to 160, one The above programs and/or software, operating systems, and the like may be stored.

서버 메모리(150)에 저장되는 프로그램은 노면 표시 추출 모델을 구현하기 위한 프로그램을 포함할 수 있다. 노면 표시 추출 모델은 수집된 도로 노면 영상들을 학습 알고리즘에 적용하여 훼손된 노면 표시를 추출 및 그 종류를 예측하기 위한 프로그램이다. 학습 알고리즘은 인공지능 알고리즘, 구체적으로는 딥러닝 알고리즘(예를 들어, DNN, RNN, CNN, SVM 등 다수)일 수 있다. The program stored in the server memory 150 may include a program for implementing a road surface extraction model. The road marking extraction model is a program for extracting the damaged road marking and predicting its type by applying the collected road surface images to the learning algorithm. The learning algorithm may be an artificial intelligence algorithm, specifically, a deep learning algorithm (eg, DNN, RNN, CNN, SVM, etc.).

딥러닝의 경우, 학습용 데이터를 확보하는 것이 가장 중요하며, 이를 위해 전처리부(140)에서 설명한 것처럼 하나의 전체 이미지 프레임에서 ROI를 설정 및 크로핑하고, 크로핑된 데이터셋에서 파손 위치, 크기 또는 색상을 표시하는 레이블링 작업이 수행되며, 최대한 동일한 기준으로 레이블링하여 학습 데이터 셋을 구성할 수 있다.In the case of deep learning, it is most important to acquire training data, and for this purpose, as described in the pre-processing unit 140, ROI is set and cropped in one entire image frame, and the location, size, or breakage of the broken dataset A labeling operation to display colors is performed, and a learning data set can be constructed by labeling with the same criteria as possible.

서버 프로세서(160)는 서버 메모리(150)에 저장된 하나 이상의 프로그램을 실행하여 서버(100)의 전반적인 동작을 제어한다. 예를 들어, 서버 프로세서(160)는 서버 메모리(150)에 저장된 예측 모델 생성 프로그램을 실행하여 노면 표시 추출 모델을 학습 및 생성할 수 있다. 이를 위하여 서버 프로세서(160)는 모델 생성부(162)를 포함할 수 있다.The server processor 160 executes one or more programs stored in the server memory 150 to control the overall operation of the server 100. For example, the server processor 160 may execute the prediction model generation program stored in the server memory 150 to learn and generate a road surface extraction model. To this end, the server processor 160 may include a model generator 162.

모델 생성부(162)는 도로 노면 영상 중 노면표시의 종류 또는 형태에 따라 레이블링된 다수의 ROI들을 딥러닝 기반으로 학습하여 노면 표시의 훼손 여부를 판정하는 노면 표시 추출 모델(즉, AI 추론 모델 또는 인퍼런스 모델)을 생성할 수 있다. 모델 생성부(162)는 사용자에 의해 선택된 ROI를 입력데이터로 하고, 관심 영역에 대응하는 레이블링된 ROI를 출력데이터로 하여 학습 알고리즘을 수행하여 노면 표시 추출 모델을 생성할 수 있다. 생성된 노면 표시 추출 모델은 노면 표시 훼손 정보 제공 장치(200) 또는 노면 표시 훼손 정보 제공 서버(500)에 설치 및 실행될 수 있다.The model generation unit 162 learns a plurality of ROIs labeled according to the type or shape of the road surface among the road surface images based on deep learning to determine whether the road surface is damaged, that is, a road surface extraction model (that is, an AI inference model or Interface model). The model generator 162 may generate a road surface extraction model by performing a learning algorithm using the ROI selected by the user as input data and the labeled ROI corresponding to the region of interest as output data. The generated road marking extraction model may be installed and executed on the road marking corruption information providing apparatus 200 or the road marking corruption information providing server 500.

도 5는 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치(200)를 도시한 블록도이다.5 is a block diagram illustrating an apparatus 200 for providing information indicating damage to a road surface according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치(200)는 카메라부(210), 위치 센싱부(220), 출력부(230), 영상 처리부(240), 장치 메모리(250), 장치 저장부(260), 장치 통신부(270) 및 장치 프로세서(280)를 포함할 수 있다.Referring to FIG. 5, the apparatus 200 for providing road surface damage information according to an embodiment of the present invention includes a camera unit 210, a location sensing unit 220, an output unit 230, an image processing unit 240, and a device memory 250, a device storage unit 260, a device communication unit 270, and a device processor 280.

카메라부(210)는 차량에 장착되어 주행 중인 도로 노면을 촬영하고, 도로 노면 영상을 촬영 시간과 함께 장치 프로세서(280)로 출력할 수 있다. 카메라부(210)는 휘도 카메라일 수 있으며, 도로 노면 영상은 휘도데이터와 RGB 데이터를 포함하는 동영상일 수 있다.The camera unit 210 may be mounted on a vehicle to photograph a road surface while driving, and output the road surface image to the device processor 280 along with the shooting time. The camera unit 210 may be a luminance camera, and the road surface image may be a video including luminance data and RGB data.

카메라부(210)는 도 2를 참조하여 설명한 것처럼, 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 도로 노면 영상의 2/3 영역 내에 위치하도록 설치되어 도로 노면을 촬영할 수 있다. The camera unit 210 is installed to shoot along the driving direction from the road surface of the road closest to the front of the vehicle, as described with reference to FIG. 2, but the vanishing point of the road surface horizontal line in the captured image is 2/3 of the road surface image. It is installed so as to be located within the area to photograph road surface.

카메라부(210), 위치 센싱부(220), 출력부(230), 영상 처리부(240), 장치 메모리(250), 장치 통신부(270) 및 장치 프로세서(280)는 하나의 장치 또는 하나의 모듈로 구현되거나, 카메라부(210)만 별도의 독립적인 장치로 구현될 수 있다.The camera unit 210, the location sensing unit 220, the output unit 230, the image processing unit 240, the device memory 250, the device communication unit 270, and the device processor 280 are one device or one module Alternatively, only the camera unit 210 may be implemented as a separate independent device.

위치 센싱부(220)는 주행 중인 차량의 위치 정보를 센싱하여 센싱 시간과 함께 영상 처리부(240) 또는 장치 프로세서(280)에게 출력할 수 있다. The location sensing unit 220 may sense location information of a driving vehicle and output it to the image processing unit 240 or the device processor 280 along with the sensing time.

출력부(230)는 장치 프로세서(280)에 의해 도로의 노면 표시에 훼손이 발생하였거나 시인성이 불량한 것으로 판단되면, 해당 노면 표시의 존재를 시각 또는 청각의 형태로 제공하여 차량 내의 사용자가 인지할 수 있도록 한다.When it is determined that the road surface marking of the road is damaged or the visibility is poor by the device processor 280, the output unit 230 provides the existence of the road marking in the form of vision or hearing so that the user in the vehicle can recognize it. To make.

영상 처리부(240)는 장치 프로세서(280)로부터 시각 정합된 도로 노면 영상을 3등분하고, 아래 1/3 영역을 ROI로서 설정 및 추출할 수 있다. 영상 처리부(240)는 추출된 ROI를 노면 표시 추출 모델의 입력데이터로 사용하도록 한다.The image processing unit 240 may divide a road-matched road surface image into three equal parts from the device processor 280 and set and extract the lower third area as an ROI. The image processing unit 240 uses the extracted ROI as input data of the road surface extraction model.

장치 메모리(250)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 장치 메모리(250)에는 예를 들어, 노면 표시 훼손 정보 제공 장치(200)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(210~280)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.The device memory 250 may include volatile memory and/or non-volatile memory. The device memory 250 includes, for example, commands or data related to the components 210 to 280 in order to implement and/or provide operations and functions provided by the road surface damaged information providing device 200. The above programs and/or software, operating systems, and the like may be stored.

장치 메모리(250)에 저장되는 프로그램은 각종 센싱데이터의 시각 정합을 위한 정합 프로그램과, 노면 표시 추출 모델 생성 서버(100)에서 학습 알고리즘 기반으로 학습 및 생성된 노면 표시 추출 모델과, 노면 표시의 훼손 여부를 최종적으로 판단하기 위한 최종 판단 프로그램을 포함할 수 있다.The program stored in the device memory 250 includes a matching program for visual matching of various sensing data, a road surface extraction model that is learned and generated based on a learning algorithm in the road surface extraction model generation server 100, and damage to the road surface display. It may include a final judgment program for finally determining whether or not.

장치 프로세서(280)는 장치 메모리(250)에 저장된 하나 이상의 프로그램을 실행하여 장치(200)의 전반적인 동작을 제어한다.The device processor 280 executes one or more programs stored in the device memory 250 to control the overall operation of the device 200.

예를 들어, 장치 프로세서(280)는 정합 프로그램을 실행하여, 카메라부(210)로부터 입력되는 도로 노면 영상과 위치 센싱부(220)로부터 입력되는 위치 정보를 동일한 시각으로 시각동기화할 수 있다. 장치 프로세서(280)는 시각 동기화된 도로 노면 영상을 영상 처리부(240)로 전달하고, 영상 처리부(240)에서 ROI를 노면 표시 추출 모델에 입력하여 학습함으로써 도로 노면 영상에 도로 파손 영역이 존재하는지 임시 판단할 수 있다. For example, the device processor 280 may execute a matching program to visually synchronize the road surface image input from the camera unit 210 and the location information input from the location sensing unit 220 at the same time. The device processor 280 transmits the time-synchronized road surface image to the image processing unit 240 and inputs and learns the ROI from the image processing unit 240 into the road surface extraction model to temporarily determine whether a road damage area exists in the road surface image. I can judge.

장치 프로세서(280)는 시각동기화된 도로 노면 영상을 기초로 도로에 표시된 노면 표시의 훼손 여부를 임시 판단하고, 노면 표시의 휘도 평균을 기초로 임시 판단된 노면 표시의 훼손 여부와 훼손 정보를 최종 판단할 수 있다. The device processor 280 temporarily determines whether the road marking displayed on the road is damaged based on the visually-synchronized road road image, and finally determines whether the road marking is temporarily damaged or not based on the luminance average of the road marking. can do.

일 예로, 장치 프로세서(280)는 카메라부(210)로부터 실시간으로 입력되는 도로 노면 영상을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 노면 표시를 추출하고, 최종 판단 프로그램과 추출된 노면 표시의 휘도를 이용하여 노면 표시의 훼손 여부 및 훼손 정도를 최종 판단할 수 있다.As an example, the device processor 280 extracts a road marking by inputting a road surface image input in real time from the camera unit 210 into a road marking extraction model previously learned based on artificial intelligence, and extracts a road marking. The luminance of the road surface display may be used to finally determine whether or not the road surface display is damaged.

이를 위하여, 장치 프로세서(280)는 노면 표시 추출부(282), 휘도 산출부(284) 및 판단부(286)를 포함할 수 있다.To this end, the device processor 280 may include a road surface display extraction unit 282, a luminance calculation unit 284, and a determination unit 286.

노면 표시 추출부(282)는 도로 노면 영상에 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시 영역(즉, 외곽선, (a))를 추출하고, 추출된 노면 표시의 내부 훼손 영역(즉, 내곽선, (b))을 추출할 수 있다. 노면 표시가 훼손되지 않았거나 훼손 정도가 기준값 이하인 경우, 내부 훼손영역은 추출되지 않을 수 있다.The road surface extracting unit 282 extracts a road surface display area (ie, an outline, (a)) surrounded by the outer surface by applying a road surface extraction model to a road surface image, and the internal damaged area (that is, the inner area) of the extracted road surface display. Line, (b)). If the road marking is not damaged or the degree of damage is less than the reference value, the internal damaged area may not be extracted.

휘도 산출부(284)는 외곽으로 둘러싸인 노면 표시 영역 전체(a)의 휘도 평균과 내부 훼손 영역(b)의 휘도 평균을 산출할 수 있다.The luminance calculator 284 may calculate the luminance average of the entire road surface display area (a) surrounded by the outline and the luminance average of the internal damaged area (b).

판단부(286)는 최종 판단 프로그램을 실행하여 휘도 산출부(284)에서 산출된 노면 표시 전체의 휘도 평균과 내부 훼손 영역의 휘도 평균의 차이로부터 노면 표시의 훼손 여부 및 훼손 정도를 판단할 수 있다. 최종 판단 프로그램 또는 장치 메모리(250)는 노면 표시 전체(a)의 휘도 평균과 내부 훼손 영역(b)의 휘도 평균의 차이 별로 훼손 정도(즉, 시인성 불량 정도)가 매핑된 매핑 테이블을 포함하고 있으므로, 판단부(286)는 도로 노면 영상에 포함된 노면 표시로부터 산출된 휘도 차이에 대응하는 훼손 정도와 훼손 여부를 매핑 테이블에서 확인할 수 있다.The determination unit 286 may execute a final determination program to determine whether the road surface display is damaged or not, from the difference between the average brightness of the entire road surface and the average of the internal damage area calculated by the brightness calculation unit 284. . Since the final judgment program or the device memory 250 includes a mapping table in which the degree of damage (that is, the degree of poor visibility) is mapped for each difference between the luminance average of the entire road surface display (a) and the luminance average of the internal damage area (b). , The determination unit 286 may check the degree of damage and whether the damage corresponds to the luminance difference calculated from the road surface display included in the road surface image in the mapping table.

예를 들어, 판단부(286)는 노면 표시 전체의 휘도 평균과 내부 훼손 영역이 휘도 평균의 차이가 가장 높은 훼손 등급에 속하는 것으로 판단되면, 내부 훼손 영역을 불량 휘도 영역으로서 판단하고, 가장 높은 훼손 등급을 매핑할 수 있다.For example, if it is determined that the difference between the luminance average and the internal damage area of the entire road surface display belongs to the highest damage class, the determination unit 286 determines the internal damage area as a bad luminance area, and the highest damage Classes can be mapped.

장치 프로세서(280)는 노면 표시의 훼손 여부와 훼손 정도가 최종 판단된 원본의 도로 노면 영상과 도로 노면 영상이 촬영된 위치 정보를 장치 저장부(260)에 저장하고, GIS(Geographic Information System)를 이용하여 시각적으로 서비스할 수도 있다. 예를 들어, 장치 프로세서(280)는 휘도 평균의 차이가 최대 훼손 등급에 해당하는 경우, 최대 훼손 등급에 매핑된 색상 또는 마크를 매핑 테이블에서 확인 및 적용하여 시각적으로 차별화된 서비스를 제공할 수 있다.The device processor 280 stores, in the device storage unit 260, the original road road surface image and the road surface image where the road surface image was finally determined, whether the road surface display is damaged or not, and stores a GIS (Geographic Information System). It can also be used for visual service. For example, the device processor 280 may provide a visually differentiated service by checking and applying the color or mark mapped to the maximum damage level in the mapping table when the difference in luminance average corresponds to the maximum damage level. .

장치 통신부(270)는 서비스 제공 서버(300)에게 훼손된 노면 표시가 존재하는 것으로 최종 판단된 위치 정보와 훼손된 노면 표시(즉, 불량 휘도 영역)와 훼손 정도를 포함하는 원본 영상을 전송할 수 있다.The device communication unit 270 may transmit the original image including the location information, the damaged road surface display (that is, the defective luminance area), and the degree of damage to the service providing server 300, as the final determined location of the damaged road surface.

서비스 제공 서버(300)는 상술한 도 1의 서버(100)일 수도 있고, 별도의 서버로서, 장치 통신부(270)로부터 제공받은 훼손된 노면 표시에 대한 정보를 위치 정보를 참조하여 디스플레이 장치(미도시)의 지도 상에 표시할 수 있다. 서비스 제공 서버(300)는 훼손된 노면 표시 영역을 지도에 표출하고, 지점 별 발생건수, 발생 면적, 크기 등을 단위 구간 별로 표시하고, 누적 합계, 평균값, 표준편차, 분산 등 다양한 통계처리방식을 이용하여 단위 구간의 훼손 특성을 표현한다. 단위 구간은 도로를 관리자가 사전에 정해진 기준으로 구별한 구간이다.The service providing server 300 may be the server 100 of FIG. 1 described above, and as a separate server, a display device (not shown) with reference to location information for information on a damaged road surface received from the device communication unit 270. ) On the map. The service providing server 300 displays the damaged road surface display area on the map, displays the number of occurrences of each point, the area of occurrence, and the size for each unit section, and uses various statistical processing methods such as cumulative total, average value, standard deviation, and variance. To express the damage characteristics of the unit section. The unit section is a section in which roads are classified by a manager based on predetermined criteria.

서비스 제공 서버(300)는 노면 표시의 훼손 정보와 발생 위치, 발생빈도, 크기 등의 변수를 참고로 단위 구간 내에서 도로의 상태와 관련된 노면 표시 훼손정보를 생성 및 제공한다. 단위 구간별 노면 표시 훼손정보는 3단계 또는 4단계 등 다양하게 훼손정도를 표현할 수 있고, 예를 들면 훼손도가 심각한 경우는 훼손된 영역의 크기가 큰 경우로서, 사람들이 시각적으로 경고를 느끼는 색상으로 단위 구간의 훼손도를 색상과 정량적 수치로 표현한다.The service providing server 300 generates and provides road marking damage information related to the state of the road within a unit section with reference to variables such as road marking damage information, location, occurrence frequency, and size. The road surface damage information for each section can express various damage levels such as 3 or 4 steps, for example, when the degree of damage is serious, the size of the damaged area is large, and the color visually alerts people. The degree of damage in the unit section is expressed by color and quantitative values.

서버(300)는 훼손된 노면 표시에 대한 정보, 즉, 노면 표시의 훼손 정도와, 훼손이 최종 판단된 원본의 도로 노면 영상과 도로 노면 영상이 촬영된 위치 정보를 GIS를 통해 제공할 수 있다.The server 300 may provide information about the damaged road marking, that is, the degree of damage to the road marking and the original road road image and the location information on which the road road image was taken through the GIS.

도 6은 본 발명의 다른 실시 예에 따른 노면 표시 훼손 정보 제공 시스템을 도시한 도면이다.6 is a diagram illustrating a system for providing damage to road surface information according to another embodiment of the present invention.

도 6을 참조하면, 노면 표시 훼손 정보 시스템은 정보 수집 장치(400) 및 노면 표시 훼손 정보 제공 서버(500)를 포함한다.Referring to FIG. 6, the road marking damage information system includes an information collecting device 400 and a road marking damage information providing server 500.

정보 수집 장치(400)는 카메라(410) 및 GPS 모듈(430)을 포함하는 차량용 장착 기기이다. 카메라(410) 및 GPS 모듈(430)의 동작은 도 5를 참조하여 설명한 카메라부(210) 및 위치 센싱부(220)와 동일하다. 다만, 정보 수집 장치(400)는 차량에 장착되어 도로 노면 영상과 위치 정보만을 센싱하여 노면 표시 훼손 정보 제공 서버(500)로 전송한다.The information collecting device 400 is a vehicle-mounted device including a camera 410 and a GPS module 430. The operation of the camera 410 and the GPS module 430 is the same as the camera unit 210 and the location sensing unit 220 described with reference to FIG. 5. However, the information collecting device 400 is mounted on a vehicle and senses only road surface image and location information and transmits it to the road surface damaged information providing server 500.

노면 표시 훼손 정보 제공 서버(500)는 서버 통신부(510), 데이터베이스(520), 서버 영상 처리부(530), 서버 메모리(540), 서버 프로세서(550), 서버 저장부(560), 표시부(570)를 포함한다. 서버 영상 처리부(530), 서버 메모리(540), 서버 프로세서(550), 서버 저장부(560) 및 표시부(570)의 동작은 도 5를 참조하여 설명한 영상 처리부(240), 장치 메모리(250), 장치 프로세서(280), 장치 저장부(260) 및 출력부(230)와 거의 동일하므로 구체적인 설명은 생략한다.The road surface display damage information providing server 500 includes a server communication unit 510, a database 520, a server image processing unit 530, a server memory 540, a server processor 550, a server storage unit 560, and a display unit 570 ). The operation of the server image processing unit 530, the server memory 540, the server processor 550, the server storage unit 560, and the display unit 570, the image processing unit 240 described with reference to FIG. 5, the device memory 250 , Since the device processor 280, the device storage unit 260, and the output unit 230 are almost the same, a detailed description thereof will be omitted.

서버 통신부(510)는 다수의 정보 수집 장치들(400)과 통신한다.The server communication unit 510 communicates with a plurality of information collection devices 400.

데이터베이스(520)는 다수의 정보 수집 장치들(400)로부터 수신되는 도로 노면 영상, 위치 정보를 센싱된 시간 정보와 함께 저장한다.The database 520 stores road surface images and location information received from a plurality of information collection devices 400 together with sensed time information.

서버 프로세서(550)는 정보 수집 장치(400)로부터 수신되는 도로 노면 영상들의 프레임과 위치 정보를 동기화한 후, 도로 노면 영상에 훼손된 노면 표시 영역이 존재하는지 임시 판단하고, 노면 표시 영역의 평균 휘도값에 기초하여 노면 표시의 훼손 여부와 훼손 정도를 최종 판단할 수 있다. The server processor 550 synchronizes the frame and location information of the road surface images received from the information collecting device 400 and then temporarily determines whether there is a damaged road surface display area in the road surface image, and averages the luminance value of the road surface display area. Based on this, it is possible to finally determine whether or not the road marking is damaged or not.

도 7은 본 발명의 실시 예에 따른 노면 표시 추출 모델 생성 서버(100)의 노면 표시 추출 모델 생성 방법을 설명하기 위한 흐름도이다. 7 is a flowchart illustrating a method of generating a road surface extraction model in the road surface extraction extraction model generation server 100 according to an embodiment of the present invention.

도 7의 노면 표시 추출 모델 생성 방법을 위한 서버(100)는 도 1 내지 도 4를 참조하여 설명하였으므로 상세한 설명은 생략한다. Since the server 100 for the method for generating a road surface extraction model in FIG. 7 has been described with reference to FIGS. 1 to 4, a detailed description thereof will be omitted.

도 7을 참조하면, 노면 표시 추출 모델 생성 서버(100)는 다수의 카메라들에 의해 촬영된 도로 노면 영상들을 수집 및 저장한다(S710). Referring to FIG. 7, the road surface extraction model generation server 100 collects and stores road surface images photographed by a plurality of cameras (S710 ).

노면 표시 추출 모델 생성 서버(100)는 수집된 도로 노면 영상들을 전처리하여 휘도 영상을 포함하는 그레이 영상으로 변환하고, 그레이 영상에서 픽셀 별 휘도값을 산출한 후, 관심영역(ROI)을 설정한다(S720). The road surface extraction model generation server 100 pre-processes the collected road surface images, converts them into gray images including luminance images, calculates luminance values for each pixel in the gray images, and sets a region of interest (ROI) ( S720).

노면 표시 추출 모델 생성 서버(100)는 S720단계에서 설정된 ROI 중 노면 표시의 종류, 훼손된 영역의 휘도, 훼손된 크기 등에 기초하여 ROI를 레이블링한 후 저장한다(S730). S730단계에서 노면 표시 추출 모델 생성 서버(100)는 ROI 중 노면 표시 영역의 외부윤곽과 내부윤곽을 추출하고 추출된 내외부 윤곽의 크기, 내부 윤곽에 의해 예측되는 훼손된 영역의 크기와 형태 등에 기초하여 ROI를 사전에 정해진 색상 또는 두께로 레이블링하며, 노면 표시의 종류를 매핑하여 DB에 저장할 수 있다. The road surface extraction model generation server 100 labels and stores the ROI based on the type of road surface display, the luminance of the damaged area, and the damaged size among the ROIs set in step S720 (S730). In step S730, the road marking extraction model generation server 100 extracts the outer contour and the inner contour of the road marking area from among the ROIs, and generates the ROI based on the size of the extracted inner and outer contours and the size and shape of the damaged area predicted by the inner contour. Is labeled with a predetermined color or thickness, and the type of road marking can be mapped and stored in the DB.

노면 표시 추출 모델 생성 서버(100)는 사용자에 의해 레이블링된 다수의 ROI들에 대해 학습 알고리즘을 수행하여 노면 표시 추출 모델을 생성한다(S740). The road surface extraction model generation server 100 performs a learning algorithm on a plurality of ROIs labeled by a user to generate a road surface extraction model (S740).

도 8은 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치(200)의 도로 파손 정보 제공 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method for providing road damage information of the road surface damaged information providing apparatus 200 according to an embodiment of the present invention.

도 8의 도로 파손 정보 제공 방법을 실행하기 위한 장치(200)는 도 5를 참조하여 설명하였으므로 상세한 설명은 생략한다.Since the apparatus 200 for executing the method for providing road damage information in FIG. 8 has been described with reference to FIG. 5, a detailed description thereof will be omitted.

도 8을 참조하면, 노면 표시 훼손 정보 제공 장치(200)는 카메라부(210)를 이용하여 주행 중인 도로의 노면을 촬영하고, 도로 노면 영상을 획득한 위치 정보를 센싱된 시간 정보와 함께 저장한다(S810).Referring to FIG. 8, the apparatus 200 for providing road surface damage information photographs a road surface of a driving road using the camera unit 210 and stores location information obtained with a road surface image together with sensed time information. (S810).

노면 표시 훼손 정보 제공 장치(200)는 S810단계에서 저장된 도로 노면 영상과 위치정보를 동기화한 후, 휘도 데이터를 포함하는 도로 노면 영상, 즉, RGB 영상을 그레이 영상으로 변환한다(S820). The road surface damaged information providing apparatus 200 synchronizes the road surface image stored in step S810 with the location information, and then converts the road surface image including luminance data, that is, an RGB image into a gray image (S820).

노면 표시 훼손 정보 제공 장치(200)는 휘도데이터를 포함하는 그레이 영상에서 픽셀 별 휘도값을 산출한 후 ROI를 설정한다(S830).The apparatus 200 for providing road surface damage information calculates a luminance value for each pixel in a gray image including luminance data, and then sets an ROI (S830).

노면 표시 훼손 정보 제공 장치(200)는 설정된 ROI에 노면 표시 추출 모델을 적용하여 ROI에서 외곽으로 둘러싸인 노면 표시 영역을 추출하고, 추출된 노면 표시의 내부 훼손 영역을 추출할 수 있다(S840, S850). S850단계에서, 노면 표시가 훼손되지 않았거나 훼손 정도가 미미한 경우, 내부 훼손영역은 추출되지 않을 수 있다.The road surface damaged information providing apparatus 200 may apply a road surface extraction model to a set ROI to extract a road surface area surrounded by an outer area from the ROI, and extract an internal damaged area of the extracted road surface display (S840, S850). . In step S850, if the road marking is not damaged or the degree of damage is negligible, the internal damaged area may not be extracted.

노면 표시 훼손 정보 제공 장치(200)는 외곽으로 둘러싸인 노면 표시 영역 전체의 휘도 평균과 내부 훼손 영역의 휘도 평균을 산출할 수 있다(S860).The apparatus 200 for providing road surface damage information may calculate a luminance average of the entire road surface display area surrounded by an outer edge and a luminance average of the internal damage area (S860 ).

노면 표시 훼손 정보 제공 장치(200)는 S860단계에서 산출된 노면 표시 영역 전체의 휘도 평균과 내부 훼손 영역의 휘도 평균의 차이로부터 노면 표시의 훼손 여부 및 훼손 정도를 판단하고, 판단 결과를 위치 정보와 함께 장치 저장부(260)에 저장할 수 있다(S870). The road surface display damage information providing apparatus 200 determines whether or not the road surface display is damaged and the degree of damage from the difference between the average brightness of the entire road surface display area and the average of the internal damage area calculated in step S860, and determines the determination result and location information. Together, it may be stored in the device storage unit 260 (S870).

도 9는 도 1 내지 도 8을 참조하여 상술한 본 발명의 실시 예에 따른 노면 표시 훼손 정보를 위한 아키텍쳐를 도시한 도면이다.9 is a diagram illustrating an architecture for road surface damage information according to an embodiment of the present invention described above with reference to FIGS. 1 to 8.

도 9를 참조하면, 본 발명의 실시 예는 도로를 촬영한 도로 노면 영상은 휘도데이터를 포함하는 그레이 영상으로 변환한다. 본 발명의 실시 예는 그레이 영상 중 ROI 영역이 설정 및 크로핑되면, ROI 영역에 포함된 노면 표시의 윤곽(외곽선과 내곽선)을 추출하여 레이블링하여 레이블링 데이터 셋을 생성한다. 본 발명의 실시 예는 레이블링 데이터 셋과 AI 설계 모형을 접목하여 도로 노면 영상으로부터 노면 표시를 추출하고 노면 표시의 훼손 여부, 시인성 불량 정보 등을 판단할 수 있는 AI 추론 모델, 즉, 노면 표시 추출 모델을 인퍼런스 모델로서 생성한다. Referring to FIG. 9, according to an embodiment of the present invention, a road surface image photographing a road is converted into a gray image including luminance data. According to an embodiment of the present invention, when an ROI area is set and cropped in a gray image, a contouring data set is generated by extracting and labeling the contours (outer and inner lines) of the road surface included in the ROI area. According to an embodiment of the present invention, an AI inference model capable of extracting a road marking from a road surface image and determining whether the road marking is damaged, or poor visibility, by combining the labeling data set and the AI design model, that is, the road marking extraction model Is created as an inference model.

이후, 본 발명의 실시 예는 실제로 촬영된 도로 노면 영상으로부터 휘도 데이터를 포함하는 그레이 영상을 추출하고, 이를 노면 표시 추출 모델에 입력하여 불량 휘도 영역을 탐지한다. 불량 휘도 영역은 도로 노면 영상의 ROI 중 노면 표시의 외곽선 내에 위치하는 픽셀들의 휘도평균값과, 내곽선 내에 위치하는 픽셀들의 휘도평균값의 차이로부터 판단될 수 있다.Thereafter, an embodiment of the present invention extracts a gray image including luminance data from an image of a road surface actually photographed, and inputs it to a road surface extraction model to detect a defective luminance region. The defective luminance region may be determined from a difference between a luminance average value of pixels located within the outline of the road surface display and an average luminance value of pixels positioned within the outline of the road surface image ROI.

본 발명의 실시 예는 불량 휘도 영역이 있는 것으로 판단된 도로의 위치를 GIS를 이용하여 지도 상에 표시함으로써 노면 표시의 시인성 불량 구간 정보를 시각화한다.According to an embodiment of the present invention, the visibility of the bad section of the road surface is visualized by displaying the location of the road determined to have the defective luminance area on the map using the GIS.

한편, 본 발명에 따른 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법은 이를 구현하기 위한 명령어들의 프로그램이 유형적으로 구현됨으로써, 컴퓨터를 통해 판독될 수 있는 기록매체에 포함되어 제공될 수도 있음은 통상의 기술자가 쉽게 이해할 수 있다.On the other hand, an apparatus and method for providing road surface damage information using an image according to the present invention may be provided by being included in a recording medium that can be read through a computer by tangibly implementing a program of instructions for realizing it. It is easily understood by a person skilled in the art.

즉, 본 발명에 따른 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법을 구현하기 위하여 상기 장치에서 수행되는 컴퓨터 판독 가능한 기록매체에 저장된 프로그램을 함께 제공한다.That is, in order to implement the apparatus and method for providing road surface damage information using the image according to the present invention, a program stored in a computer-readable recording medium performed by the apparatus is provided together.

한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.On the other hand, in the above described and illustrated in connection with a preferred embodiment for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described as described above, deviating from the scope of the technical idea It will be understood by those skilled in the art that many changes and modifications are possible to the present invention. Accordingly, all such suitable changes and modifications and equivalents should also be considered within the scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

100: 노면 표시 추출 모델 생성 서버
200: 노면 표시 훼손 정보 제공 장치
300: 서비스 제공 서버
400: 정보 수집 장치
500: 노면 표시 훼손 정보 제공 서버
100: road surface extraction model generation server
200: a device for providing information indicating damage to the road surface
300: service providing server
400: information collecting device
500: server for providing road marking damage information

Claims (10)

노면 표시 전체의 휘도 평균과 내부 훼손 영역의 휘도 평균의 차이 별로 훼손 등급이 매핑되고, 훼손 등급 별로 색상 및 마크 중 적어도 하나가 매핑된 매핑 테이블이 저장되는 장치 메모리;
차량에 장착되어 주행 중인 도로를 촬영하여 도로 노면 영상을 출력하는 카메라부;
상기 카메라부로부터 입력되는 도로 노면 영상을 휘도 정보를 포함하는 그레이 영상으로 변환하고, 상기 변환된 그레이 영상에서 노면 표시를 포함하는 관심 영역을 설정하며, 상기 설정된 관심 영역을 노면 표시 추출 모델의 입력데이터로서 하기 장치 프로세서로 전달하는 영상 처리부;
상기 차량의 위치 정보를 제공하는 위치 센싱부; 및
상기 영상 처리부로부터 실시간으로 입력되는 관심 영역을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 도로에 표시된 노면 표시를 추출하고, 상기 추출된 도로 노면 표시의 휘도를 이용하여 노면 표시의 시인성 훼손 여부 및 훼손 정도를 판단하고, 노면 표시의 훼손 여부와 훼손 정도가 판단된 도로 노면 영상과 상기 도로 노면 영상이 촬영된 위치 정보를 제공하는 장치 프로세서;를 포함하고,
상기 영상 처리부는,
상기 카메라부로부터 입력되는 도로 노면 영상을 가로선으로 동일하게 3등분한 후 아래 1/3 영역에 해당하는 분석 영역을 추출하고, 상기 분석 영역 중 정해진 위치에 해당하는 영역을 상기 관심 영역으로 설정하며,
상기 장치 프로세서는,
상기 도로 노면 영상에 설정된 관심 영역에 상기 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시 영역을 추출하고, 상기 추출된 노면 표시 영역의 내부 훼손 영역을 추출하는 노면 표시 추출부;
상기 외곽으로 둘러싸인 노면 표시 영역 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균을 산출하는 휘도 산출부; 및
상기 휘도 산출부에서 산출된 노면 표시 영역 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균의 차이를 산출하고, 상기 산출된 차이에 매핑된 훼손 등급을 상기 장치 메모리에 저장된 매핑 테이블로부터 확인하여 상기 노면 표시의 훼손 여부 및 훼손 정도를 판단하는 판단부;를 포함하는 것을 특징으로 하는 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치.
A device memory in which a damage level is mapped for each difference between a luminance average of the entire road surface display and a luminance average of the internal damage area, and a mapping table in which at least one of colors and marks is mapped for each damage level is stored;
A camera unit mounted on a vehicle and photographing a road being driven to output a road surface image;
The road surface image input from the camera unit is converted into a gray image including luminance information, an area of interest including a road surface display is set in the converted gray image, and the set region of interest is input data of the road surface extraction model As an image processing unit to deliver to the following device processor;
A location sensing unit providing location information of the vehicle; And
The region of interest input in real time from the image processing unit is input to a road surface extraction model previously learned based on artificial intelligence to extract the road surface display displayed on the road, and visibility of the road surface display using the extracted road surface display luminance. It includes; a device processor for determining whether or not damage and the degree of damage, and providing a road surface image in which the road marking is damaged and the degree of damage is determined, and location information on which the road surface image was taken;
The image processing unit,
After equally dividing the road surface image input from the camera unit into a horizontal line and extracting an analysis area corresponding to the lower 1/3 area, an area corresponding to a predetermined position among the analysis areas is set as the area of interest,
The device processor,
A road surface display extraction unit for extracting a road surface display area surrounded by an outer edge by applying the road surface extraction model to a region of interest set in the road surface image, and extracting an internal damaged area of the extracted road surface display area;
A luminance calculator configured to calculate a luminance average of the entire road surface area surrounded by the outer edge and a luminance average of the internal damaged region; And
The difference between the luminance average of the entire road surface display area and the luminance average of the internal damage area calculated by the luminance calculation unit is calculated, and the damage level mapped to the calculated difference is checked from a mapping table stored in the device memory to determine the road surface. Apparatus for providing information indicating damage to the road surface using a video, characterized in that it comprises; a determination unit for determining whether the display is damaged and the degree of damage.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 카메라부는,
상기 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 상기 도로 노면 영상의 2/3 영역 내에 위치하도록 설치되는 것을 특징으로 하는 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치.
According to claim 1,
The camera unit,
It is installed to shoot along the driving direction from the road surface of the road closest to the front surface of the vehicle, the vanishing point of the road surface horizontal line in the captured image is installed so that the image characterized in that located in the 2/3 area of the road surface image A device for providing damage to road markings on roads used.
(A) 전자장치가, 차량에 장착된 카메라로 도로를 촬영하여 도로 노면 영상을 출력하는 단계;
(B) 상기 전자장치가, GPS 모듈을 이용하여 상기 차량의 위치 정보를 센싱하는 단계; 및
(C) 상기 전자장치가, 상기 (A) 단계에서 출력되는 도로 노면 영상을 휘도 정보를 포함하는 그레이 영상으로 변환하고, 상기 변환된 그레이 영상에서 노면 표시를 포함하는 관심 영역을 설정하며, 상기 설정된 관심 영역을 노면 표시 추출 모델의 입력데이터로서 출력하는 단계;
(D) 상기 전자장치가, 상기 (C) 단계에서 실시간으로 입력되는 관심 영역을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 도로에 표시된 노면 표시를 추출하고, 상기 추출된 도로 노면 표시의 휘도를 이용하여 노면 표시의 시인성 훼손 여부 및 훼손 정도를 판단하고, 노면 표시의 훼손 여부와 훼손 정도가 판단된 도로 노면 영상과 상기 도로 노면 영상이 촬영된 위치 정보를 제공하는 단계;
를 포함하고,
상기 (C) 단계는,
상기 카메라로부터 입력되는 도로 노면 영상을 가로선으로 동일하게 3등분한 후 아래 1/3 영역에 해당하는 분석 영역을 추출하고, 상기 분석 영역 중 정해진 위치에 해당하는 관심 영역을 설정하고,
상기 (D) 단계는,
(D1) 상기 전자장치가, 상기 도로 노면 영상에 설정된 관심 영역에 상기 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시 영역을 추출하고, 상기 추출된 노면 표시 영역의 내부 훼손 영역을 추출하는 단계;
(D2) 상기 전자장치가, 상기 외곽으로 둘러싸인 노면 표시 영역 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균을 산출하는 단계; 및
(D3) 상기 전자장치가, 상기 산출된 노면 표시 영역 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균의 차이를 산출하고, 상기 산출된 차이에 매핑된 훼손 등급을 매핑 테이블로부터 확인하여 상기 노면 표시의 훼손 여부 및 훼손 정도를 판단하는 단계;를 포함하는 것을 특징으로 하는 전자장치의 영상을 이용한 도로의 노면 표시 훼손 정보 제공 방법.
(A) the electronic device, photographing the road with a camera mounted on the vehicle to output the road surface image;
(B) the electronic device sensing the location information of the vehicle using a GPS module; And
(C) the electronic device converts the road surface image output in step (A) into a gray image including luminance information, sets an area of interest including a road surface display in the converted gray image, and sets the Outputting a region of interest as input data of a road surface extraction model;
(D) The electronic device inputs a region of interest input in real time in step (C) into a road marking extraction model previously learned based on artificial intelligence, extracts a road marking displayed on the road, and extracts the road marking. Determining whether the visibility of the road surface is damaged and the degree of damage by using the luminance of the display, and providing a road surface image in which the road surface image is damaged and the degree of damage, and location information on which the road surface image is taken;
Including,
Step (C) is,
After equally dividing the road surface image input from the camera into horizontal lines and extracting an analysis area corresponding to the lower 1/3 area, setting an area of interest corresponding to a predetermined position among the analysis areas,
Step (D) is,
(D1) the electronic device applying the road surface extraction model to a region of interest set in the road surface image, extracting a road surface display area surrounded by an outline, and extracting an internal damaged area of the extracted road surface display area;
(D2) calculating, by the electronic device, a luminance average of the entire road surface area surrounded by the outer edge and a luminance average of the internal damaged region; And
(D3) The electronic device calculates a difference between a luminance average of the entire calculated road surface display area and a luminance average of the internal damage area, and confirms the damage level mapped to the calculated difference from a mapping table to display the road surface Determining whether the damage and the degree of damage; Method of providing information on the road surface damage information using the image of the electronic device comprising a.
삭제delete 삭제delete 삭제delete 제6항에 있어서,
상기 카메라는,
상기 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 상기 도로 노면 영상의 2/3 영역 내에 위치하도록 설치되는 것을 특징으로 하는 전자장치의 영상을 이용한 도로의 노면 표시 훼손 정보 제공 방법.
The method of claim 6,
The camera,
An electronic device installed to photograph along the driving direction from the road surface of the road closest to the front surface of the vehicle, wherein the vanishing point of the horizontal road surface in the captured image is located within 2/3 of the road surface image. How to provide road marking damage information using the video.
KR1020190119276A 2019-09-27 2019-09-27 Apparatus and method for providing road marking information using image data and vibration KR102119033B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190119276A KR102119033B1 (en) 2019-09-27 2019-09-27 Apparatus and method for providing road marking information using image data and vibration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190119276A KR102119033B1 (en) 2019-09-27 2019-09-27 Apparatus and method for providing road marking information using image data and vibration

Publications (1)

Publication Number Publication Date
KR102119033B1 true KR102119033B1 (en) 2020-06-05

Family

ID=71088610

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190119276A KR102119033B1 (en) 2019-09-27 2019-09-27 Apparatus and method for providing road marking information using image data and vibration

Country Status (1)

Country Link
KR (1) KR102119033B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102292480B1 (en) * 2020-12-24 2021-08-24 한국건설기술연구원 Apparatus and method for collecting road information in low light level environment
KR20220138894A (en) * 2021-04-06 2022-10-14 한국교통대학교산학협력단 Prediction and recognition method of road marking information and road maintenance method
WO2022255033A1 (en) * 2021-06-03 2022-12-08 株式会社デンソー Map updating system, map updating device, and storage medium
KR102544640B1 (en) 2022-12-01 2023-06-21 한국건설기술연구원 Lane detection and prediction system, apparatus and method
WO2024076169A1 (en) * 2022-10-07 2024-04-11 삼성전자 주식회사 Method for training object recognition model using spatial information, and computing device for performing same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101543342B1 (en) 2015-02-23 2015-08-11 한국건설기술연구원 System for processing pot-hole data of road pavement using vehicle communication network, and method for the same
KR101603293B1 (en) * 2015-01-26 2016-03-16 한국기술교육대학교 산학협력단 Lane recognition method
JP2018120409A (en) * 2017-01-25 2018-08-02 株式会社ユピテル Data collection device, road status evaluation support device, and program
JP2019101499A (en) * 2017-11-28 2019-06-24 株式会社東芝 Image feature emphasis device, road surface feature analysis device, image feature emphasis method, and road surface feature analysis method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101603293B1 (en) * 2015-01-26 2016-03-16 한국기술교육대학교 산학협력단 Lane recognition method
KR101543342B1 (en) 2015-02-23 2015-08-11 한국건설기술연구원 System for processing pot-hole data of road pavement using vehicle communication network, and method for the same
JP2018120409A (en) * 2017-01-25 2018-08-02 株式会社ユピテル Data collection device, road status evaluation support device, and program
JP2019101499A (en) * 2017-11-28 2019-06-24 株式会社東芝 Image feature emphasis device, road surface feature analysis device, image feature emphasis method, and road surface feature analysis method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102292480B1 (en) * 2020-12-24 2021-08-24 한국건설기술연구원 Apparatus and method for collecting road information in low light level environment
KR20220138894A (en) * 2021-04-06 2022-10-14 한국교통대학교산학협력단 Prediction and recognition method of road marking information and road maintenance method
KR102562757B1 (en) * 2021-04-06 2023-08-02 한국교통대학교 산학협력단 Prediction and recognition method of road marking information and road maintenance method
WO2022255033A1 (en) * 2021-06-03 2022-12-08 株式会社デンソー Map updating system, map updating device, and storage medium
WO2024076169A1 (en) * 2022-10-07 2024-04-11 삼성전자 주식회사 Method for training object recognition model using spatial information, and computing device for performing same
KR102544640B1 (en) 2022-12-01 2023-06-21 한국건설기술연구원 Lane detection and prediction system, apparatus and method

Similar Documents

Publication Publication Date Title
KR102119033B1 (en) Apparatus and method for providing road marking information using image data and vibration
KR102026685B1 (en) Apparatus and server for providing dangerous road information using image data and vibration
CN103824452B (en) A kind of peccancy parking detector based on panoramic vision of lightweight
US10255804B2 (en) Method for generating a digital record and roadside unit of a road toll system implementing the method
US8487991B2 (en) Clear path detection using a vanishing point
CN103065519B (en) Detecting system of ramp fixed point stopping and starting and detecting method of ramp fixed point stopping and starting
CN102867417B (en) Taxi anti-forgery system and taxi anti-forgery method
CN104766086A (en) Supervising method and system of way mark
CN111339905B (en) CIM well lid state visual detection system based on deep learning and multiple visual angles
KR102167292B1 (en) Apparatus and method for providing road status information
CN111899515B (en) Vehicle detection system based on wisdom road edge calculates gateway
CN103000067B (en) Right angle turning detection system and detecting method thereof
KR102026686B1 (en) Apparatus for providing dangerous road information using connected car and server for generating deep-learning model
US20220358634A1 (en) Methods and systems of utilizing image processing systems to measure objects
Li et al. A novel evaluation method for pavement distress based on impact of ride comfort
CN111767831B (en) Method, apparatus, device and storage medium for processing image
CN112949457A (en) Maintenance method, device and system based on augmented reality technology
CN114419603A (en) Automatic driving vehicle control method and system and automatic driving vehicle
KR102259981B1 (en) Visual range measurement and alarm system based on video analysis and method thereof
CN103077639B (en) Curve driving detection system and detection method thereof
KR102257078B1 (en) Fog detection device using coordinate system and method thereof
CN202887450U (en) Taxi anti-fake system
CN111582278A (en) Portrait segmentation method and device and electronic equipment
EP4261737A1 (en) Road occupancy information determination method and apparatus
KR102430303B1 (en) Obstacle detection system for screen door using infrared cameras

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant