KR102119033B1 - Apparatus and method for providing road marking information using image data and vibration - Google Patents
Apparatus and method for providing road marking information using image data and vibration Download PDFInfo
- Publication number
- KR102119033B1 KR102119033B1 KR1020190119276A KR20190119276A KR102119033B1 KR 102119033 B1 KR102119033 B1 KR 102119033B1 KR 1020190119276 A KR1020190119276 A KR 1020190119276A KR 20190119276 A KR20190119276 A KR 20190119276A KR 102119033 B1 KR102119033 B1 KR 102119033B1
- Authority
- KR
- South Korea
- Prior art keywords
- road surface
- road
- image
- damage
- area
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096716—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
-
- G06K9/00791—
-
- G06K9/4661—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Abstract
Description
본 발명은 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법에 관한 것으로서, 보다 상세하게는, 도로를 촬영한 영상으로부터 도로 노면 표시를 추출 및 훼손 상태를 판단하여 제공할 수 있는 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for providing road surface damage information using an image, and more specifically, a road using an image that can be provided by extracting a road surface mark from an image of a road and determining a damaged state It relates to an apparatus and method for providing information indicating damage to the road surface.
노면 표시는 도로교통의 안전을 위하여 각종 주의, 규제, 지시, 등의 내용을 노면에 기호, 문자 또는 선으로 도로의 이용자에게 알리는 표시를 말한다. Road marking refers to a sign that informs the road's users with signs, letters, or lines on the road surface for the purpose of road traffic safety.
노면 표시는 크게 색과 형태에 따라 구분된다.Road markings are largely divided according to color and shape.
먼저, 색의 경우, 황색은 중앙선, 노상장애물 중 도로중앙장애물, 주차금지, 주ㆍ정차 금지, 안전지대를 표시하고, 청색은 버스전용차로 및 다인승 차량 전용차선을 표시한다. 적색은 어린이보호구역 또는 주거지역 안에 설치하는 속도제한 표시의 테두리선으로 표시하고, 일반적인 백색은 위 기준 외 길 가장자리 구역선, 유턴구역선, 차로경계선(도로에 있는 차선, 길 가장자리에 있으면 주ㆍ정차 허용)으로 표시한다.First, in the case of color, yellow indicates a central line, road central obstacle among road obstacles, no parking, prohibition of parking, safety zone, and blue indicates a lane for exclusive use of buses and lanes for multi-passenger vehicles. Red is indicated by the border of the speed limit sign installed in the child protection area or residential area, and the normal white color is outside the above standard. Stop).
형태의 경우, 실선은 차선을 변경할 수 없음을 의미하고, 두 개의 실선(복선)은 절대 차선을 변경할 수 없음을 의미하고, 점선은 차선 변경이 가능함을 의미한다. In the case of the shape, the solid line means that the lane cannot be changed, the two solid lines (double line) mean that the absolute lane cannot be changed, and the dotted line means that the lane can be changed.
자율주행차의 경우, 전방 센서를 이용하여 노면 표시 중 주행 차로의 차선을 자동으로 인식하여 자동 주행을 하는 핵심적인 도로 인프라이므로, 자율주행차가 차선을 잘 인식하도록 차선의 적정 휘도, 재귀반사 성능을 갖도록 유지하는 것이 가장 중요하다.In the case of an autonomous vehicle, it is a key road infrastructure that automatically recognizes the lane of the driving lane during road marking by using a front sensor, so that the autonomous vehicle recognizes the lane well and provides adequate luminance and retroreflective performance. It is most important to keep it.
또한, 시간대나 기상 여건에 관계없이 차선의 시인성을 유지하여, 운전자 또는 자율주행차가 차선을 잘 인지할 수 있도록 차선을 적정하게 관리해야 한다. 훼손 차선으로 인해 발생하는 교통 사고, 특히, 자율주행차 시대를 위해서는 차선 관리의 선제적 대응이 필요하다. In addition, regardless of the time of day or weather conditions, the visibility of the lane must be maintained, and the lane must be properly managed so that the driver or autonomous vehicle can recognize the lane well. Traffic accidents caused by damaged lanes, especially in the era of self-driving cars, require preemptive response to lane management.
현재 차선 관리의 책임은 법적인 권한을 갖는 도로 관리자에게 있고, 도로 관리기관은 차선의 적정 상태를 유지하도록 휘도 등의 성능을 유지해야 하나, 현실적으로는 넓은 도로에 비해 소수의 관리 인력으로 수많은 노면표시 특히, 선형적인 차선에 대한 훼손 여부를 수시로 점검하는 것은 어려운 일이며, 차선 점검은 인력에 의한 육안관찰 또는 계측기에 의한 수동 측정 방식으로 관리하는 것이 일반적이다. Currently, the responsibility of managing lanes lies with road managers who have legal powers, and road management agencies must maintain the performance of luminance, etc., to maintain the proper state of lanes, but in reality, compared to wide roads, a small number of manpower is required to display numerous roads. In general, it is difficult to check for damage to the linear lane from time to time, and it is common to manage the lane inspection by visual observation by manpower or manual measurement by a measuring instrument.
따라서, 보다 정확하면서 자동으로 도로 노면 표시의 상태를 수집 및 판단할 수 있는 기술이 필요하다.Accordingly, there is a need for a technique capable of more accurately and automatically collecting and determining the state of the road surface marking.
전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 주행 중인 차량을 통해 실시간으로 도로 노면 영상을 획득하여 시인성이 불량한 노면 표시, 즉, 훼손 노면 표시를 판단하고, 훼손 노면 표시가 판단된 지역의 위치정보와 노면 표시의 정보를 제공할 수 있는 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법을 제시하는 데 있다.The technical problem to be achieved by the present invention in order to solve the above-described problem is to obtain a road surface image in real time through a driving vehicle to determine a road surface display having poor visibility, that is, a damaged road surface display, and a damaged road surface display is determined. The present invention is to provide an apparatus and method for providing road marking damage information using an image capable of providing local location information and road marking information.
본 발명의 해결 과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem of the present invention is not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따르면, 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치는, 차량에 장착되어 주행 중인 도로를 촬영하여 도로 노면 영상을 출력하는 카메라부; 상기 차량의 위치 정보를 제공하는 위치 센싱부; 및 상기 도로 노면 영상을 기초로 도로에 표시된 노면 표시의 시인성 훼손 여부 및 훼손 정도를 판단하고, 노면 표시의 훼손 여부와 훼손 정도가 판단된 도로 노면 영상과 상기 도로 노면 영상이 촬영된 위치 정보를 제공하는 장치 프로세서;를 포함한다.As a means for solving the above-described technical problem, according to an embodiment of the present invention, an apparatus for providing road surface damage information using an image is a camera unit mounted on a vehicle and photographing a driving road to output a road surface image ; A location sensing unit providing location information of the vehicle; And based on the road surface image, determine whether the visibility of the road surface displayed on the road is damaged and the degree of damage, and provide the road surface image and the location information on which the road surface image was taken. It includes a device processor.
상기 장치 프로세서는, 상기 카메라부로부터 실시간으로 입력되는 도로 노면 영상을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 노면 표시를 추출하고, 상기 추출된 노면 표시의 휘도를 이용하여 노면 표시의 훼손 여부 및 훼손 정도를 판단한다.The device processor extracts a road surface display by inputting a road surface image input in real time from the camera unit to a road surface extraction model previously learned based on artificial intelligence, and displays a road surface using luminance of the extracted road surface display It judges whether it is damaged or not.
상기 장치 프로세서는, 상기 도로 노면 영상에 상기 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시를 추출하고, 상기 추출된 노면 표시의 내부 훼손 영역을 추출하는 노면 표시 추출부; 상기 외곽으로 둘러싸인 노면 표시 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균을 산출하는 휘도 산출부; 및 상기 산출된 노면 표시 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균의 차이로부터 상기 노면 표시의 훼손 여부 및 훼손 정도를 판단하는 판단부;를 포함한다.The apparatus processor may include a road surface display extraction unit that extracts a road surface display surrounded by an outer surface by applying the road surface extraction model to the road surface image, and extracts an internal damaged area of the extracted road surface display; A luminance calculator configured to calculate a luminance average of the entire road surface display surrounded by the outline and a luminance average of the internal damaged area; It includes; and a determination unit for determining whether the road surface display is damaged and the degree of damage from the difference between the calculated average luminance of the entire road surface display and the average luminance of the internal damaged area.
상기 도로 노면 영상을 휘도 정보를 포함하는 그레이 영상으로 변환하고, 상기 변환된 그레이 영상에서 노면 표시를 포함하는 관심 영역을 설정하며, 상기 설정된 관심 영역을 상기 노면 표시 추출 모델의 입력데이터로서 상기 프로세서로 전달하는 영상 처리부;를 더 포함한다.The road surface image is converted into a gray image including luminance information, an interest region including a road surface display is set in the converted gray image, and the set region of interest is input to the processor as input data of the road surface extraction model. It further includes an image processing unit to transmit.
상기 영상 처리부는, 상기 카메라부로부터 입력되는 도로 노면 영상을 가로선으로 3등분한 후 아래 1/3 영역에 해당하는 분석 영역을 추출하고, 상기 분석 영역 중 정해진 위치에 해당하는 관심 영역을 추출하고, 상기 카메라는, 상기 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 상기 도로 노면 영상의 2/3 영역 내에 위치하도록 설치된다.The image processing unit, after dividing the road surface image input from the camera unit into three horizontal lines, extracts an analysis area corresponding to the lower 1/3 area, and extracts an area of interest corresponding to a predetermined position among the analysis areas, The camera is installed to photograph along the driving direction from the road surface of the road closest to the front surface of the vehicle, but is installed so that the vanishing point of the road surface horizontal line in the captured image is located within 2/3 of the road surface image.
한편, 본 발명의 다른 실시 예에 따르면, 전자장치의 영상을 이용한 도로의 노면 표시 훼손 정보 제공 방법은, (A) 전자장치가, 차량에 장착된 카메라로 도로를 촬영하여 도로 노면 영상을 출력하는 단계; (B) 상기 전자장치가, GPS 모듈을 이용하여 상기 차량의 위치 정보를 센싱하는 단계; 및 (C) 상기 전자장치가, 상기 (A) 단계에서 출력되는 도로 노면 영상을 기초로 도로에 표시된 노면 표시의 시인성 훼손 여부 및 훼손 정도를 판단하고, 노면 표시의 훼손 여부와 훼손 정도가 판단된 도로 노면 영상과 상기 도로 노면 영상이 촬영된 위치 정보를 제공하는 단계;를 포함한다.Meanwhile, according to another embodiment of the present invention, a method of providing road surface damage information using an image of an electronic device includes: (A) the electronic device photographs the road with a camera mounted on a vehicle and outputs a road surface image. step; (B) the electronic device sensing the location information of the vehicle using a GPS module; And (C) the electronic device determines whether the visibility of the road surface displayed on the road is damaged and the degree of damage based on the road surface image output in step (A), and whether the road display is damaged and the degree of damage is determined. And providing a road surface image and location information on which the road surface image was captured.
상기 (C) 단계는, 상기 (A) 단계로부터 실시간으로 입력되는 도로 노면 영상을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 노면 표시를 추출하고, 상기 추출된 노면 표시의 휘도를 이용하여 노면 표시의 훼손 여부 및 훼손 정도를 판단한다.In the step (C), a road surface image input in real time from the step (A) is input to a road surface extraction model previously learned based on artificial intelligence to extract a road surface display, and the luminance of the extracted road surface display is extracted. Use to determine whether or not the road marking is damaged or not.
상기 (C) 단계는, (C1) 상기 전자장치가, 상기 도로 노면 영상에 상기 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시를 추출하고, 상기 추출된 노면 표시의 내부 훼손 영역을 추출하는 단계; (C2) 상기 전자장치가, 상기 외곽으로 둘러싸인 노면 표시 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균을 산출하는 단계; 및 (C3) 상기 전자장치가, 상기 산출된 노면 표시 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균의 차이로부터 상기 노면 표시의 훼손 여부 및 훼손 정도를 판단하는 단계;를 포함한다.In step (C), (C1) the electronic device applies the road surface extraction model to the road surface image, extracts a road surface display surrounded by the outer surface, and extracts an internal damaged area of the extracted road surface display. ; (C2) the electronic device calculating a luminance average of the entire road surface display surrounded by the outer edge and a luminance average of the internal damaged area; And (C3) determining, by the electronic device, whether the road surface is damaged or not, from the difference between the calculated average brightness of the entire road surface display and the average of the luminance of the internal damaged area.
상기 (C) 단계 이전에, (D) 상기 전자장치가, 상기 (A) 단계에서 출력되는 도로 노면 영상을 휘도 정보를 포함하는 그레이 영상으로 변환하고, 상기 변환된 그레이 영상에서 노면 표시를 포함하는 관심 영역을 설정하며, 상기 설정된 관심 영역을 상기 노면 표시 추출 모델의 입력데이터로서 상기 (C) 단계로 출력하는 단계;를 더 포함한다.Before the step (C), (D) the electronic device converts the road surface image output in the step (A) into a gray image including luminance information, and includes a road surface display in the converted gray image. And setting the region of interest, and outputting the set region of interest as the input data of the road surface extraction model in the step (C).
상기 (D) 단계는, 상기 카메라부로부터 입력되는 도로 노면 영상을 가로선으로 3등분한 후 아래 1/3 영역에 해당하는 분석 영역을 추출하고, 상기 분석 영역 중 정해진 위치에 해당하는 관심 영역을 설정하고, 상기 카메라는, 상기 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 상기 도로 노면 영상의 2/3 영역 내에 위치하도록 설치된다.In the step (D), after dividing the road surface image input from the camera unit into three horizontal lines, an analysis area corresponding to the lower 1/3 area is extracted, and a region of interest corresponding to a predetermined position in the analysis area is set. In addition, the camera is installed to photograph along the driving direction from the road surface of the road closest to the front surface of the vehicle, but the vanishing point of the road surface horizontal line in the captured image is installed to be located within 2/3 of the road surface image. .
본 발명에 따르면, 휘도 영상에서 노면표시 정보를 자동으로 수집하는 기술을 구현함으로써, 노면 표시의 훼손 상태를 쉽게 파악할 수 있고, 이때 수집한 다양한 원시 자료를 데이터베이스화하고 유관기관과 연계하여 도로 관리의 스마트한 서비스를 제공할 수 있다. According to the present invention, by implementing a technique for automatically collecting road marking information from a luminance image, it is possible to easily grasp the damaged state of the road marking, and at this time, the various raw data collected is databased and linked with related organizations to manage roads. Smart service can be provided.
본 발명에 따르면, 주행 중인 차량을 통해 실시간으로 도로 노면 영상을 획득하여 노면 표시의 형태 또는 휘도를 분석하고 시인성 불량 정도를 판단함으로써 노면 표시의 상태를 보다 정확히 판단하여 판단 결과의 신뢰도를 높일 수 있다.According to the present invention, by obtaining a road surface image in real time through a driving vehicle, the shape or luminance of the road surface display is analyzed and the degree of visibility is determined to determine the state of the road display more accurately, thereby increasing the reliability of the determination result. .
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시 예에 의한 노면 표시 추출 모델 생성 서버를 도시한 블록도,
도 2는 도로 노면 영상으로부터 분석 영역을 추출하는 동작을 설명하기 위하여 1프레임의 도로 노면 영상을 도시한 도면,
도 3은 노면 표시의 종류 중 일부를 보여주는 도면,
도 4a는 전처리부의 레이블링 동작을 설명하기 위한 예시도,
도 4b는 정상 노면 표시의 레이블링 이전과 이후, 훼손된 노면 표시의 레이블링 이전과 이후의 일 예를 도시한 도면
도 5는 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치를 도시한 블록도,
도 6은 본 발명의 다른 실시 예에 따른 도로 파손 정보 제공 시스템을 도시한 도면,
도 7은 본 발명의 실시 예에 따른 노면 표시 추출 모델 생성 서버의 노면 표시 추출 모델 생성 방법을 설명하기 위한 흐름도,
도 8은 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치의 도로 파손 정보 제공 방법을 설명하기 위한 흐름도, 그리고,
도 9는 도 1 내지 도 8을 참조하여 상술한 본 발명의 실시 예에 따른 노면 표시 훼손 정보를 위한 아키텍쳐를 도시한 도면이다.1 is a block diagram showing a road surface extraction model generation server according to an embodiment of the present invention;
Figure 2 is a view showing a road surface image of one frame to explain the operation of extracting the analysis area from the road surface image,
3 is a view showing some of the types of road markings,
Figure 4a is an exemplary diagram for explaining the labeling operation of the pre-processing unit,
4B is a view showing an example before and after labeling of a normal road marking, and before and after labeling of a damaged road marking.
FIG. 5 is a block diagram showing an apparatus for providing damage to road surface information according to an embodiment of the present invention;
6 is a view showing a road damage information providing system according to another embodiment of the present invention,
7 is a flowchart illustrating a method for generating a road surface extraction model in the road surface extraction model generation server according to an embodiment of the present invention;
8 is a flowchart for explaining a method for providing road damage information in an apparatus for providing damaged road information according to an embodiment of the present invention;
9 is a diagram illustrating an architecture for road surface damage information according to an embodiment of the present invention described above with reference to FIGS. 1 to 8.
이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be readily understood through the following preferred embodiments related to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided to ensure that the disclosed contents are thorough and complete and that the spirit of the present invention is sufficiently conveyed to those skilled in the art.
본 명세서에서, 어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.In this specification, when an element, component, device, or system is mentioned to include a component consisting of a program or software, the element, component, device, or system, even if not explicitly stated, is the program or software. It should be understood that includes hardware (eg, memory, CPU, etc.) or other programs or software (eg, drivers required to run the operating system or hardware) necessary to execute or operate.
또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.Also, it should be understood that an element (or component) may be implemented in software, hardware, or in any form of software and hardware, unless specifically stated in the implementation of any element (or component).
또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, the terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein,'comprises' and/or'comprising' does not exclude the presence or addition of one or more other components.
이하, 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다.Hereinafter, with reference to the accompanying drawings, a specific technical content to be carried out in the present invention will be described in detail. It should be noted that, in some cases, parts that are commonly known in describing the invention and that are not significantly related to the invention are not described in order to prevent chaos from coming out for no reason in describing the invention.
도 1, 도 5 및 도 6에 도시된 서버(100, 500) 또는 장치(200, 400)의 각각의 구성은 기능 및/또는 논리적으로 분리될 수도 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 작성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다. Each configuration of the
또한, 본 발명의 실시 예에 따른 노면 표시 추출 모델 생성 서버(100), 노면 표시 훼손 정보 제공 장치(200), 서비스 제공 서버(300), 정보 수집 장치(400)), 및 노면 표시 훼손 정보 제공 서버(500)는 예를 들면, 데스크탑 PC(Personal Computer), 서버, 랩탑 PC(Laptop PC), 넷북 컴퓨터(Netbook Computer), 스마트폰 등 프로그램의 설치 및 실행이 가능한 모든 전자기기들 중 하나일 수도 있다.In addition, the road surface extraction
도 1은 본 발명의 실시 예에 따른 노면 표시 추출 모델 생성 서버(100)를 도시한 블록도이다.1 is a block diagram illustrating a road surface extraction
도 1에 도시된 노면 표시 추출 모델 생성 서버(100)는 다수의 도로 노면 영상을 학습(예를 들어, 딥러닝) 알고리즘에 적용하여 실제 도로상에서 시인성이 불량한, 즉, 훼손된 노면 표시를 추출할 수 있는 노면 표시 추출 모델을 학습 및 생성할 수 있다.The road surface extraction
이를 위해, 노면 표시 추출 모델 생성 서버(100)는 사용자 인터페이스부(110), 입력부(120), 데이터베이스(130), 전처리부(140), 서버 메모리(150) 및 서버 프로세서(160)를 포함할 수 있다.To this end, the road surface extraction
사용자 인터페이스부(110)는 사용자와 서버(100) 간의 인터페이싱을 위한 장치로서, 사용자 명령을 입력받아 서버 프로세서(160)에게 전달하거나, 서버 프로세서(160)에 의해 처리된 결과를 화면에 표시할 수 있다.The
입력부(120)는 다수의 차량용 장치들(미도시)로부터 도로 노면 동영상들을 유무선 통신 방식으로 수신하는 통신 회로를 포함하거나, 휴대용 메모리(미도시)에 저장된 다수의 도로 노면 동영상들을 입력받을 수 있다. 도로 노면 동영상은 다수의 도로 노면 영상들(즉, 프레임들)을 포함하고, 각 도로 노면 영상은 휘도 데이터와 RGB 데이터를 포함하는 RGB 영상일 수 있다. 또한, 하나의 도로 노면 영상은 도 2에 도시된 것처럼, 도로 표면의 수평선, 즉, 소실점이 2/3 영역 내에 위치하도록 촬영된 프레임일 수 있다. The
데이터베이스(130)는 입력부(120)를 통해 차량용 장치들 또는 휴대용 메모리로부터 획득된 다수의 도로 노면 동영상들 또는 프레임 단위의 도로 노면 영상을 수집 및 저장할 수 있다. The database 130 may collect and store a plurality of road surface videos or frame road surface images obtained from vehicle devices or a portable memory through the
또한, 데이터베이스(130)는 전처리부(140)에, 노면표시의 종류 또는 형태 별로 레이블링된 관심영역(ROI: Region Of Interest)을 저장하며 레이블링된 ROI는 정상 상태의 노면 표시 또는 훼손된 노면 표시를 포함할 수 있다. In addition, the database 130 stores the region of interest (ROI) labeled for each type or type of road marking in the pre-processing unit 140, and the labeled ROI includes normal road marking or damaged road marking. can do.
도로에 표시되는 노면 표시는 도 3에 도시된 것처럼 차선과 노면 표시 기호로 분류될 수 있다.Road markings displayed on the road may be classified into lane and road marking symbols as shown in FIG. 3.
도 3을 참조하면, 차선의 형태는 점선, 실선 및 이중 실선으로 구분되고, 차선의 색상은 백색, 황색, 청색, 적색으로 구분된다. 또한, 노면 표시 기호는 오르막 경사면, 양보, 횡단보도 예고 등 도로교통 안전을 위한 각종 정보를 제공한다. Referring to FIG. 3, the shape of the lane is divided into a dotted line, a solid line, and a double solid line, and the color of the lane is divided into white, yellow, blue, and red. In addition, the road marking symbol provides various information for road traffic safety such as uphill slope, concession, and pedestrian crossing notice.
데이터베이스(130)는 차선의 경우 차선의 형태(즉, 외부 윤곽 및 내부 윤곽) 별로 레이블링된 ROI들을 저장하고, 선택적으로 차선의 색상을 해당하는 ROI에 더 매핑저장할 수 있다. 또한, 데이터베이스(130)는 노면 표시 기호의 경우 노면 표시 기호의 형태(외부 윤곽 및 내부 윤곽) 별로 레이블링된 ROI들을 저장하여 DB를 구성할 수 있다.In the case of a lane, the database 130 may store ROIs labeled for each lane type (ie, an outer contour and an inner contour), and selectively map and store the color of the lane to a corresponding ROI. In addition, in the case of the road marking symbol, the database 130 may configure a DB by storing ROIs labeled for each type of road marking symbol (outer contour and inner contour).
전처리부(140)는 수집된 도로 노면 영상들로부터 추출되는 ROI를 영상처리한다. The pre-processing unit 140 image-processes the ROI extracted from the collected road surface images.
도 2는 도로 노면 영상으로부터 ROI를 추출하는 동작을 설명하기 위하여 1프레임의 도로 노면 영상을 도시한 도면이다.FIG. 2 is a diagram illustrating a road surface image of one frame to describe an operation of extracting an ROI from the road surface image.
도 2를 참조하면, 사용자가 사용자 인터페이스부(110)를 조작하여 도로 노면 동영상 중 노면 표시 추출 모델의 생성에 사용할 도로 노면 영상을 선택하면, 전처리부(140)는 선택된 도로 노면 영상을 RGB-Y 변환하여 휘도 데이터를 포함하는 그레이 영상을 생성하고, 그레이 영상에서 픽셀 별로 휘도값을 산출한다. 이 때, 전처리부(140)는 하나의 프레임의 그레이 영상을 가로선으로 동일하게 3등분한 후 아래의 1/3에 해당하는 영역(즉, 소실점 이하의 영역)을 ROI로서 추출하고, 추출된 ROI를 화면에 표시할 수 있다. 추출된 ROI에 포함된 노면표시의 위치, 선명도 등이 노면 표시 추출 모델을 생성하기 위해 학습하는데 부적절한 경우, 사용자는 그레이 영상에서 추출된 ROI의 크기를 재설정할 수 있다.Referring to FIG. 2, when a user selects a road surface image to be used to generate a road surface extraction model from a road surface video by operating the
도 4a는 전처리부(140)의 레이블링 동작을 설명하기 위한 예시도이다.4A is an exemplary diagram for explaining the labeling operation of the preprocessing unit 140.
도 4a를 참조하면, 휘도데이터를 포함하는 그레이 영상 중 사용자에 의해 소실점 이하의 ROI가 설정되면, 사용자는 사용자 인터페이스부(110)를 이용하여 화면에 표시된 ROI를 크로핑(cropping)하고, 전처리부(140)는 차선 등의 노면 표시만 크로핑된 ROI에 표시되도록 할 수 있다.Referring to FIG. 4A, when a ROI of a vanishing point or less is set by a user among gray images including luminance data, the user crops the ROI displayed on the screen using the
전처리부(140)는 ROI에 존재하는 노면 표시에 해당하는 영역을 외곽선을 따라 추출하고, 추출된 외곽선 내부에 있는 내곽선을 추가로 추출할 수 있다. 그리고, 전처리부(140)는 추출된 외곽선과 내곽선으로 이루어진 형태로 ROI를 레이블링하여 노면 표시의 파손 위치와 크기를 표시할 수 있다. The pre-processing unit 140 may extract an area corresponding to the road marking existing in the ROI along the outline, and additionally extract an inner outline inside the extracted outline. In addition, the pre-processing unit 140 may label the ROI in the form of the extracted outline and inner outline to display the damage location and size of the road marking.
내곽선 또는 내곽선으로 둘러싸인 내곽영역이 추출되는 것은 노면 표시가 훼손된 것을 의미할 수 있다. 따라서, ROI 내의 노면 표시에 파손된 부분이 없는 경우, 전처리부(140)는 추출된 외곽선으로 이루어진 형태로 ROI를 레이블링할 수 있다.The extraction of the inner contour or the inner contour area surrounded by the inner contour may mean that the road marking is damaged. Therefore, when there is no damaged part on the road surface display in the ROI, the pre-processing unit 140 may label the ROI in the form of an extracted outline.
또한, ROI에 포함된 노면 표시에 훼손된 영역이 있는 경우, 전처리부(140)는 사용자로 하여금 노면 표시에 해당하는 영역을 노면표시의 종류, 크기, 형태 또는 색상 중 어느 하나에 따라 상이하게 표시하도록 하여 레이블링을 수행할 수도 있다. 또한, ROI에 포함된 노면 표시에 훼손된 영역이 없는 경우, 전처리부(140)는 정상 상태의 노면 표시로서, 노면 표시에 해당하는 영역을 종류, 크기, 형태 또는 색상 중 어느 하나에 따라 상이하게 표시하도록 하여 레이블링을 수행할 수 있다.In addition, if there is a damaged area in the road surface display included in the ROI, the pre-processing unit 140 allows the user to differently display the area corresponding to the road surface display according to any one of the type, size, shape, or color of the road surface display. You can also perform labeling. In addition, when there is no damaged area in the road surface display included in the ROI, the pre-processing unit 140 displays the road surface in a normal state, and the area corresponding to the road surface display is differently displayed according to any one of type, size, shape, or color. Labeling can be performed.
도 4b는 정상 노면 표시의 레이블링 이전과 이후, 훼손된 노면 표시의 레이블링 이전과 이후의 일 예를 도시한 도면이다.4B is a view showing an example before and after labeling of a normal road marking, and before and after labeling of a damaged road marking.
도 4b를 참조하면, 정상 차선의 경우, 그레이 영상 중 차선에 해당하는 부분에 훼손된 영역이 없다. 따라서, 전처리부(140)는 그레이 영상에서 ROI가 설정되면, 설정된 ROI에서 차선의 외부 윤곽(a)을 추출하고, 이후 내부 윤곽을 추출하며, 추출되는 내부 윤곽이 없으므로, ROI를 외부 윤곽의 형태를 가지는 정상 노면 표시로 레이블링할 수 있다. Referring to FIG. 4B, in the case of a normal lane, there is no damaged area in a portion corresponding to the lane among gray images. Therefore, when the ROI is set in the gray image, the pre-processing unit 140 extracts the outer contour (a) of the lane from the set ROI, and then extracts the inner contour, and since there is no extracted inner contour, the ROI is the shape of the outer contour. It can be labeled with a normal road marking.
또한, 훼손된 차선의 경우, 전처리부(140)는 그레이 영상에서 ROI가 설정되면, 설정된 ROI에서 차선의 외부 윤곽(a)을 추출한 후 내부 윤곽(b)을 추출하며, ROI를 외부 윤곽(a)과 내부 윤곽(b)의 형태를 가지는 훼손 노면 표시로 레이블링할 수 있다. In addition, in the case of a damaged lane, when the ROI is set in the gray image, the pre-processing unit 140 extracts the outer contour (a) of the lane from the set ROI and then extracts the inner contour (b), and extracts the ROI from the outer contour (a). And it can be labeled with a damaged road surface marking in the form of an inner contour (b).
후술할 서버 프로세서(160) 또는 전처리부(140)는 사용자 선택에 의해 상이한 색상 및/또는 형태로 레이블링된 노면 표시를 포함하는 ROI들, 즉, 레이블 데이터 셋(Labelling Data Set)을 생성하여 데이터베이스(130)에 저장할 수 있다. 이때, 서버 프로세서(160) 또는 전처리부(140)는 훼손된 노면 표시의 훼손 정보(또는 훼손 등급)과 차선의 색상이 사용자에 의해 더 입력되면 해당하는 레이블링된 ROI에 매핑저장되도록 할 수 있다.The
또한, 전처리부(140)는 레이블링된 ROI의 밝기(B, brightness), 대비(C, contrast), 방향(O, orientation) 중 적어도 하나를 조정하여 학습하기 위한 입력데이터 개수를 증가시킬 수 있다. 이로써, 하나의 ROI로부터 다수의 상이한 레이블 데이터가 생성될 수 있으며, 이는, 실제 도로를 촬영하는 경우 날씨, 시간 등 환경에 따라 변경될 수 있는 도로 노면 영상의 다양한 상황을 학습 또는 딥러닝하는데 반영할 수 있다.Also, the pre-processing unit 140 may increase the number of input data for learning by adjusting at least one of the brightness (B, brightness), contrast (C, contrast), and orientation (O, orientation) of the labeled ROI. Accordingly, a number of different label data can be generated from one ROI, which can be reflected in learning or deep learning of various road surface images that may change depending on the environment, such as weather and time when shooting an actual road. Can be.
서버 메모리(150)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 서버 메모리(150)에는 예를 들어, 노면 표시 추출 모델 생성 서버(100)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(110~160)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.The server memory 150 may include volatile memory and/or non-volatile memory. In the server memory 150, for example, in order to implement and/or provide operations and functions provided by the road surface extraction
서버 메모리(150)에 저장되는 프로그램은 노면 표시 추출 모델을 구현하기 위한 프로그램을 포함할 수 있다. 노면 표시 추출 모델은 수집된 도로 노면 영상들을 학습 알고리즘에 적용하여 훼손된 노면 표시를 추출 및 그 종류를 예측하기 위한 프로그램이다. 학습 알고리즘은 인공지능 알고리즘, 구체적으로는 딥러닝 알고리즘(예를 들어, DNN, RNN, CNN, SVM 등 다수)일 수 있다. The program stored in the server memory 150 may include a program for implementing a road surface extraction model. The road marking extraction model is a program for extracting the damaged road marking and predicting its type by applying the collected road surface images to the learning algorithm. The learning algorithm may be an artificial intelligence algorithm, specifically, a deep learning algorithm (eg, DNN, RNN, CNN, SVM, etc.).
딥러닝의 경우, 학습용 데이터를 확보하는 것이 가장 중요하며, 이를 위해 전처리부(140)에서 설명한 것처럼 하나의 전체 이미지 프레임에서 ROI를 설정 및 크로핑하고, 크로핑된 데이터셋에서 파손 위치, 크기 또는 색상을 표시하는 레이블링 작업이 수행되며, 최대한 동일한 기준으로 레이블링하여 학습 데이터 셋을 구성할 수 있다.In the case of deep learning, it is most important to acquire training data, and for this purpose, as described in the pre-processing unit 140, ROI is set and cropped in one entire image frame, and the location, size, or breakage of the broken dataset A labeling operation to display colors is performed, and a learning data set can be constructed by labeling with the same criteria as possible.
서버 프로세서(160)는 서버 메모리(150)에 저장된 하나 이상의 프로그램을 실행하여 서버(100)의 전반적인 동작을 제어한다. 예를 들어, 서버 프로세서(160)는 서버 메모리(150)에 저장된 예측 모델 생성 프로그램을 실행하여 노면 표시 추출 모델을 학습 및 생성할 수 있다. 이를 위하여 서버 프로세서(160)는 모델 생성부(162)를 포함할 수 있다.The
모델 생성부(162)는 도로 노면 영상 중 노면표시의 종류 또는 형태에 따라 레이블링된 다수의 ROI들을 딥러닝 기반으로 학습하여 노면 표시의 훼손 여부를 판정하는 노면 표시 추출 모델(즉, AI 추론 모델 또는 인퍼런스 모델)을 생성할 수 있다. 모델 생성부(162)는 사용자에 의해 선택된 ROI를 입력데이터로 하고, 관심 영역에 대응하는 레이블링된 ROI를 출력데이터로 하여 학습 알고리즘을 수행하여 노면 표시 추출 모델을 생성할 수 있다. 생성된 노면 표시 추출 모델은 노면 표시 훼손 정보 제공 장치(200) 또는 노면 표시 훼손 정보 제공 서버(500)에 설치 및 실행될 수 있다.The
도 5는 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치(200)를 도시한 블록도이다.5 is a block diagram illustrating an
도 5를 참조하면, 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치(200)는 카메라부(210), 위치 센싱부(220), 출력부(230), 영상 처리부(240), 장치 메모리(250), 장치 저장부(260), 장치 통신부(270) 및 장치 프로세서(280)를 포함할 수 있다.Referring to FIG. 5, the
카메라부(210)는 차량에 장착되어 주행 중인 도로 노면을 촬영하고, 도로 노면 영상을 촬영 시간과 함께 장치 프로세서(280)로 출력할 수 있다. 카메라부(210)는 휘도 카메라일 수 있으며, 도로 노면 영상은 휘도데이터와 RGB 데이터를 포함하는 동영상일 수 있다.The camera unit 210 may be mounted on a vehicle to photograph a road surface while driving, and output the road surface image to the
카메라부(210)는 도 2를 참조하여 설명한 것처럼, 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 도로 노면 영상의 2/3 영역 내에 위치하도록 설치되어 도로 노면을 촬영할 수 있다. The camera unit 210 is installed to shoot along the driving direction from the road surface of the road closest to the front of the vehicle, as described with reference to FIG. 2, but the vanishing point of the road surface horizontal line in the captured image is 2/3 of the road surface image. It is installed so as to be located within the area to photograph road surface.
카메라부(210), 위치 센싱부(220), 출력부(230), 영상 처리부(240), 장치 메모리(250), 장치 통신부(270) 및 장치 프로세서(280)는 하나의 장치 또는 하나의 모듈로 구현되거나, 카메라부(210)만 별도의 독립적인 장치로 구현될 수 있다.The camera unit 210, the location sensing unit 220, the output unit 230, the
위치 센싱부(220)는 주행 중인 차량의 위치 정보를 센싱하여 센싱 시간과 함께 영상 처리부(240) 또는 장치 프로세서(280)에게 출력할 수 있다. The location sensing unit 220 may sense location information of a driving vehicle and output it to the
출력부(230)는 장치 프로세서(280)에 의해 도로의 노면 표시에 훼손이 발생하였거나 시인성이 불량한 것으로 판단되면, 해당 노면 표시의 존재를 시각 또는 청각의 형태로 제공하여 차량 내의 사용자가 인지할 수 있도록 한다.When it is determined that the road surface marking of the road is damaged or the visibility is poor by the
영상 처리부(240)는 장치 프로세서(280)로부터 시각 정합된 도로 노면 영상을 3등분하고, 아래 1/3 영역을 ROI로서 설정 및 추출할 수 있다. 영상 처리부(240)는 추출된 ROI를 노면 표시 추출 모델의 입력데이터로 사용하도록 한다.The
장치 메모리(250)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 장치 메모리(250)에는 예를 들어, 노면 표시 훼손 정보 제공 장치(200)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들(210~280)에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.The
장치 메모리(250)에 저장되는 프로그램은 각종 센싱데이터의 시각 정합을 위한 정합 프로그램과, 노면 표시 추출 모델 생성 서버(100)에서 학습 알고리즘 기반으로 학습 및 생성된 노면 표시 추출 모델과, 노면 표시의 훼손 여부를 최종적으로 판단하기 위한 최종 판단 프로그램을 포함할 수 있다.The program stored in the
장치 프로세서(280)는 장치 메모리(250)에 저장된 하나 이상의 프로그램을 실행하여 장치(200)의 전반적인 동작을 제어한다.The
예를 들어, 장치 프로세서(280)는 정합 프로그램을 실행하여, 카메라부(210)로부터 입력되는 도로 노면 영상과 위치 센싱부(220)로부터 입력되는 위치 정보를 동일한 시각으로 시각동기화할 수 있다. 장치 프로세서(280)는 시각 동기화된 도로 노면 영상을 영상 처리부(240)로 전달하고, 영상 처리부(240)에서 ROI를 노면 표시 추출 모델에 입력하여 학습함으로써 도로 노면 영상에 도로 파손 영역이 존재하는지 임시 판단할 수 있다. For example, the
장치 프로세서(280)는 시각동기화된 도로 노면 영상을 기초로 도로에 표시된 노면 표시의 훼손 여부를 임시 판단하고, 노면 표시의 휘도 평균을 기초로 임시 판단된 노면 표시의 훼손 여부와 훼손 정보를 최종 판단할 수 있다. The
일 예로, 장치 프로세서(280)는 카메라부(210)로부터 실시간으로 입력되는 도로 노면 영상을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 노면 표시를 추출하고, 최종 판단 프로그램과 추출된 노면 표시의 휘도를 이용하여 노면 표시의 훼손 여부 및 훼손 정도를 최종 판단할 수 있다.As an example, the
이를 위하여, 장치 프로세서(280)는 노면 표시 추출부(282), 휘도 산출부(284) 및 판단부(286)를 포함할 수 있다.To this end, the
노면 표시 추출부(282)는 도로 노면 영상에 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시 영역(즉, 외곽선, (a))를 추출하고, 추출된 노면 표시의 내부 훼손 영역(즉, 내곽선, (b))을 추출할 수 있다. 노면 표시가 훼손되지 않았거나 훼손 정도가 기준값 이하인 경우, 내부 훼손영역은 추출되지 않을 수 있다.The road
휘도 산출부(284)는 외곽으로 둘러싸인 노면 표시 영역 전체(a)의 휘도 평균과 내부 훼손 영역(b)의 휘도 평균을 산출할 수 있다.The
판단부(286)는 최종 판단 프로그램을 실행하여 휘도 산출부(284)에서 산출된 노면 표시 전체의 휘도 평균과 내부 훼손 영역의 휘도 평균의 차이로부터 노면 표시의 훼손 여부 및 훼손 정도를 판단할 수 있다. 최종 판단 프로그램 또는 장치 메모리(250)는 노면 표시 전체(a)의 휘도 평균과 내부 훼손 영역(b)의 휘도 평균의 차이 별로 훼손 정도(즉, 시인성 불량 정도)가 매핑된 매핑 테이블을 포함하고 있으므로, 판단부(286)는 도로 노면 영상에 포함된 노면 표시로부터 산출된 휘도 차이에 대응하는 훼손 정도와 훼손 여부를 매핑 테이블에서 확인할 수 있다.The
예를 들어, 판단부(286)는 노면 표시 전체의 휘도 평균과 내부 훼손 영역이 휘도 평균의 차이가 가장 높은 훼손 등급에 속하는 것으로 판단되면, 내부 훼손 영역을 불량 휘도 영역으로서 판단하고, 가장 높은 훼손 등급을 매핑할 수 있다.For example, if it is determined that the difference between the luminance average and the internal damage area of the entire road surface display belongs to the highest damage class, the
장치 프로세서(280)는 노면 표시의 훼손 여부와 훼손 정도가 최종 판단된 원본의 도로 노면 영상과 도로 노면 영상이 촬영된 위치 정보를 장치 저장부(260)에 저장하고, GIS(Geographic Information System)를 이용하여 시각적으로 서비스할 수도 있다. 예를 들어, 장치 프로세서(280)는 휘도 평균의 차이가 최대 훼손 등급에 해당하는 경우, 최대 훼손 등급에 매핑된 색상 또는 마크를 매핑 테이블에서 확인 및 적용하여 시각적으로 차별화된 서비스를 제공할 수 있다.The
장치 통신부(270)는 서비스 제공 서버(300)에게 훼손된 노면 표시가 존재하는 것으로 최종 판단된 위치 정보와 훼손된 노면 표시(즉, 불량 휘도 영역)와 훼손 정도를 포함하는 원본 영상을 전송할 수 있다.The
서비스 제공 서버(300)는 상술한 도 1의 서버(100)일 수도 있고, 별도의 서버로서, 장치 통신부(270)로부터 제공받은 훼손된 노면 표시에 대한 정보를 위치 정보를 참조하여 디스플레이 장치(미도시)의 지도 상에 표시할 수 있다. 서비스 제공 서버(300)는 훼손된 노면 표시 영역을 지도에 표출하고, 지점 별 발생건수, 발생 면적, 크기 등을 단위 구간 별로 표시하고, 누적 합계, 평균값, 표준편차, 분산 등 다양한 통계처리방식을 이용하여 단위 구간의 훼손 특성을 표현한다. 단위 구간은 도로를 관리자가 사전에 정해진 기준으로 구별한 구간이다.The
서비스 제공 서버(300)는 노면 표시의 훼손 정보와 발생 위치, 발생빈도, 크기 등의 변수를 참고로 단위 구간 내에서 도로의 상태와 관련된 노면 표시 훼손정보를 생성 및 제공한다. 단위 구간별 노면 표시 훼손정보는 3단계 또는 4단계 등 다양하게 훼손정도를 표현할 수 있고, 예를 들면 훼손도가 심각한 경우는 훼손된 영역의 크기가 큰 경우로서, 사람들이 시각적으로 경고를 느끼는 색상으로 단위 구간의 훼손도를 색상과 정량적 수치로 표현한다.The
서버(300)는 훼손된 노면 표시에 대한 정보, 즉, 노면 표시의 훼손 정도와, 훼손이 최종 판단된 원본의 도로 노면 영상과 도로 노면 영상이 촬영된 위치 정보를 GIS를 통해 제공할 수 있다.The
도 6은 본 발명의 다른 실시 예에 따른 노면 표시 훼손 정보 제공 시스템을 도시한 도면이다.6 is a diagram illustrating a system for providing damage to road surface information according to another embodiment of the present invention.
도 6을 참조하면, 노면 표시 훼손 정보 시스템은 정보 수집 장치(400) 및 노면 표시 훼손 정보 제공 서버(500)를 포함한다.Referring to FIG. 6, the road marking damage information system includes an
정보 수집 장치(400)는 카메라(410) 및 GPS 모듈(430)을 포함하는 차량용 장착 기기이다. 카메라(410) 및 GPS 모듈(430)의 동작은 도 5를 참조하여 설명한 카메라부(210) 및 위치 센싱부(220)와 동일하다. 다만, 정보 수집 장치(400)는 차량에 장착되어 도로 노면 영상과 위치 정보만을 센싱하여 노면 표시 훼손 정보 제공 서버(500)로 전송한다.The
노면 표시 훼손 정보 제공 서버(500)는 서버 통신부(510), 데이터베이스(520), 서버 영상 처리부(530), 서버 메모리(540), 서버 프로세서(550), 서버 저장부(560), 표시부(570)를 포함한다. 서버 영상 처리부(530), 서버 메모리(540), 서버 프로세서(550), 서버 저장부(560) 및 표시부(570)의 동작은 도 5를 참조하여 설명한 영상 처리부(240), 장치 메모리(250), 장치 프로세서(280), 장치 저장부(260) 및 출력부(230)와 거의 동일하므로 구체적인 설명은 생략한다.The road surface display damage
서버 통신부(510)는 다수의 정보 수집 장치들(400)과 통신한다.The
데이터베이스(520)는 다수의 정보 수집 장치들(400)로부터 수신되는 도로 노면 영상, 위치 정보를 센싱된 시간 정보와 함께 저장한다.The
서버 프로세서(550)는 정보 수집 장치(400)로부터 수신되는 도로 노면 영상들의 프레임과 위치 정보를 동기화한 후, 도로 노면 영상에 훼손된 노면 표시 영역이 존재하는지 임시 판단하고, 노면 표시 영역의 평균 휘도값에 기초하여 노면 표시의 훼손 여부와 훼손 정도를 최종 판단할 수 있다. The
도 7은 본 발명의 실시 예에 따른 노면 표시 추출 모델 생성 서버(100)의 노면 표시 추출 모델 생성 방법을 설명하기 위한 흐름도이다. 7 is a flowchart illustrating a method of generating a road surface extraction model in the road surface extraction extraction
도 7의 노면 표시 추출 모델 생성 방법을 위한 서버(100)는 도 1 내지 도 4를 참조하여 설명하였으므로 상세한 설명은 생략한다. Since the
도 7을 참조하면, 노면 표시 추출 모델 생성 서버(100)는 다수의 카메라들에 의해 촬영된 도로 노면 영상들을 수집 및 저장한다(S710). Referring to FIG. 7, the road surface extraction
노면 표시 추출 모델 생성 서버(100)는 수집된 도로 노면 영상들을 전처리하여 휘도 영상을 포함하는 그레이 영상으로 변환하고, 그레이 영상에서 픽셀 별 휘도값을 산출한 후, 관심영역(ROI)을 설정한다(S720). The road surface extraction
노면 표시 추출 모델 생성 서버(100)는 S720단계에서 설정된 ROI 중 노면 표시의 종류, 훼손된 영역의 휘도, 훼손된 크기 등에 기초하여 ROI를 레이블링한 후 저장한다(S730). S730단계에서 노면 표시 추출 모델 생성 서버(100)는 ROI 중 노면 표시 영역의 외부윤곽과 내부윤곽을 추출하고 추출된 내외부 윤곽의 크기, 내부 윤곽에 의해 예측되는 훼손된 영역의 크기와 형태 등에 기초하여 ROI를 사전에 정해진 색상 또는 두께로 레이블링하며, 노면 표시의 종류를 매핑하여 DB에 저장할 수 있다. The road surface extraction
노면 표시 추출 모델 생성 서버(100)는 사용자에 의해 레이블링된 다수의 ROI들에 대해 학습 알고리즘을 수행하여 노면 표시 추출 모델을 생성한다(S740). The road surface extraction
도 8은 본 발명의 실시 예에 따른 노면 표시 훼손 정보 제공 장치(200)의 도로 파손 정보 제공 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method for providing road damage information of the road surface damaged
도 8의 도로 파손 정보 제공 방법을 실행하기 위한 장치(200)는 도 5를 참조하여 설명하였으므로 상세한 설명은 생략한다.Since the
도 8을 참조하면, 노면 표시 훼손 정보 제공 장치(200)는 카메라부(210)를 이용하여 주행 중인 도로의 노면을 촬영하고, 도로 노면 영상을 획득한 위치 정보를 센싱된 시간 정보와 함께 저장한다(S810).Referring to FIG. 8, the
노면 표시 훼손 정보 제공 장치(200)는 S810단계에서 저장된 도로 노면 영상과 위치정보를 동기화한 후, 휘도 데이터를 포함하는 도로 노면 영상, 즉, RGB 영상을 그레이 영상으로 변환한다(S820). The road surface damaged
노면 표시 훼손 정보 제공 장치(200)는 휘도데이터를 포함하는 그레이 영상에서 픽셀 별 휘도값을 산출한 후 ROI를 설정한다(S830).The
노면 표시 훼손 정보 제공 장치(200)는 설정된 ROI에 노면 표시 추출 모델을 적용하여 ROI에서 외곽으로 둘러싸인 노면 표시 영역을 추출하고, 추출된 노면 표시의 내부 훼손 영역을 추출할 수 있다(S840, S850). S850단계에서, 노면 표시가 훼손되지 않았거나 훼손 정도가 미미한 경우, 내부 훼손영역은 추출되지 않을 수 있다.The road surface damaged
노면 표시 훼손 정보 제공 장치(200)는 외곽으로 둘러싸인 노면 표시 영역 전체의 휘도 평균과 내부 훼손 영역의 휘도 평균을 산출할 수 있다(S860).The
노면 표시 훼손 정보 제공 장치(200)는 S860단계에서 산출된 노면 표시 영역 전체의 휘도 평균과 내부 훼손 영역의 휘도 평균의 차이로부터 노면 표시의 훼손 여부 및 훼손 정도를 판단하고, 판단 결과를 위치 정보와 함께 장치 저장부(260)에 저장할 수 있다(S870). The road surface display damage
도 9는 도 1 내지 도 8을 참조하여 상술한 본 발명의 실시 예에 따른 노면 표시 훼손 정보를 위한 아키텍쳐를 도시한 도면이다.9 is a diagram illustrating an architecture for road surface damage information according to an embodiment of the present invention described above with reference to FIGS. 1 to 8.
도 9를 참조하면, 본 발명의 실시 예는 도로를 촬영한 도로 노면 영상은 휘도데이터를 포함하는 그레이 영상으로 변환한다. 본 발명의 실시 예는 그레이 영상 중 ROI 영역이 설정 및 크로핑되면, ROI 영역에 포함된 노면 표시의 윤곽(외곽선과 내곽선)을 추출하여 레이블링하여 레이블링 데이터 셋을 생성한다. 본 발명의 실시 예는 레이블링 데이터 셋과 AI 설계 모형을 접목하여 도로 노면 영상으로부터 노면 표시를 추출하고 노면 표시의 훼손 여부, 시인성 불량 정보 등을 판단할 수 있는 AI 추론 모델, 즉, 노면 표시 추출 모델을 인퍼런스 모델로서 생성한다. Referring to FIG. 9, according to an embodiment of the present invention, a road surface image photographing a road is converted into a gray image including luminance data. According to an embodiment of the present invention, when an ROI area is set and cropped in a gray image, a contouring data set is generated by extracting and labeling the contours (outer and inner lines) of the road surface included in the ROI area. According to an embodiment of the present invention, an AI inference model capable of extracting a road marking from a road surface image and determining whether the road marking is damaged, or poor visibility, by combining the labeling data set and the AI design model, that is, the road marking extraction model Is created as an inference model.
이후, 본 발명의 실시 예는 실제로 촬영된 도로 노면 영상으로부터 휘도 데이터를 포함하는 그레이 영상을 추출하고, 이를 노면 표시 추출 모델에 입력하여 불량 휘도 영역을 탐지한다. 불량 휘도 영역은 도로 노면 영상의 ROI 중 노면 표시의 외곽선 내에 위치하는 픽셀들의 휘도평균값과, 내곽선 내에 위치하는 픽셀들의 휘도평균값의 차이로부터 판단될 수 있다.Thereafter, an embodiment of the present invention extracts a gray image including luminance data from an image of a road surface actually photographed, and inputs it to a road surface extraction model to detect a defective luminance region. The defective luminance region may be determined from a difference between a luminance average value of pixels located within the outline of the road surface display and an average luminance value of pixels positioned within the outline of the road surface image ROI.
본 발명의 실시 예는 불량 휘도 영역이 있는 것으로 판단된 도로의 위치를 GIS를 이용하여 지도 상에 표시함으로써 노면 표시의 시인성 불량 구간 정보를 시각화한다.According to an embodiment of the present invention, the visibility of the bad section of the road surface is visualized by displaying the location of the road determined to have the defective luminance area on the map using the GIS.
한편, 본 발명에 따른 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법은 이를 구현하기 위한 명령어들의 프로그램이 유형적으로 구현됨으로써, 컴퓨터를 통해 판독될 수 있는 기록매체에 포함되어 제공될 수도 있음은 통상의 기술자가 쉽게 이해할 수 있다.On the other hand, an apparatus and method for providing road surface damage information using an image according to the present invention may be provided by being included in a recording medium that can be read through a computer by tangibly implementing a program of instructions for realizing it. It is easily understood by a person skilled in the art.
즉, 본 발명에 따른 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치 및 방법을 구현하기 위하여 상기 장치에서 수행되는 컴퓨터 판독 가능한 기록매체에 저장된 프로그램을 함께 제공한다.That is, in order to implement the apparatus and method for providing road surface damage information using the image according to the present invention, a program stored in a computer-readable recording medium performed by the apparatus is provided together.
한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.On the other hand, in the above described and illustrated in connection with a preferred embodiment for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described as described above, deviating from the scope of the technical idea It will be understood by those skilled in the art that many changes and modifications are possible to the present invention. Accordingly, all such suitable changes and modifications and equivalents should also be considered within the scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
100: 노면 표시 추출 모델 생성 서버
200: 노면 표시 훼손 정보 제공 장치
300: 서비스 제공 서버
400: 정보 수집 장치
500: 노면 표시 훼손 정보 제공 서버100: road surface extraction model generation server
200: a device for providing information indicating damage to the road surface
300: service providing server
400: information collecting device
500: server for providing road marking damage information
Claims (10)
차량에 장착되어 주행 중인 도로를 촬영하여 도로 노면 영상을 출력하는 카메라부;
상기 카메라부로부터 입력되는 도로 노면 영상을 휘도 정보를 포함하는 그레이 영상으로 변환하고, 상기 변환된 그레이 영상에서 노면 표시를 포함하는 관심 영역을 설정하며, 상기 설정된 관심 영역을 노면 표시 추출 모델의 입력데이터로서 하기 장치 프로세서로 전달하는 영상 처리부;
상기 차량의 위치 정보를 제공하는 위치 센싱부; 및
상기 영상 처리부로부터 실시간으로 입력되는 관심 영역을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 도로에 표시된 노면 표시를 추출하고, 상기 추출된 도로 노면 표시의 휘도를 이용하여 노면 표시의 시인성 훼손 여부 및 훼손 정도를 판단하고, 노면 표시의 훼손 여부와 훼손 정도가 판단된 도로 노면 영상과 상기 도로 노면 영상이 촬영된 위치 정보를 제공하는 장치 프로세서;를 포함하고,
상기 영상 처리부는,
상기 카메라부로부터 입력되는 도로 노면 영상을 가로선으로 동일하게 3등분한 후 아래 1/3 영역에 해당하는 분석 영역을 추출하고, 상기 분석 영역 중 정해진 위치에 해당하는 영역을 상기 관심 영역으로 설정하며,
상기 장치 프로세서는,
상기 도로 노면 영상에 설정된 관심 영역에 상기 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시 영역을 추출하고, 상기 추출된 노면 표시 영역의 내부 훼손 영역을 추출하는 노면 표시 추출부;
상기 외곽으로 둘러싸인 노면 표시 영역 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균을 산출하는 휘도 산출부; 및
상기 휘도 산출부에서 산출된 노면 표시 영역 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균의 차이를 산출하고, 상기 산출된 차이에 매핑된 훼손 등급을 상기 장치 메모리에 저장된 매핑 테이블로부터 확인하여 상기 노면 표시의 훼손 여부 및 훼손 정도를 판단하는 판단부;를 포함하는 것을 특징으로 하는 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치.A device memory in which a damage level is mapped for each difference between a luminance average of the entire road surface display and a luminance average of the internal damage area, and a mapping table in which at least one of colors and marks is mapped for each damage level is stored;
A camera unit mounted on a vehicle and photographing a road being driven to output a road surface image;
The road surface image input from the camera unit is converted into a gray image including luminance information, an area of interest including a road surface display is set in the converted gray image, and the set region of interest is input data of the road surface extraction model As an image processing unit to deliver to the following device processor;
A location sensing unit providing location information of the vehicle; And
The region of interest input in real time from the image processing unit is input to a road surface extraction model previously learned based on artificial intelligence to extract the road surface display displayed on the road, and visibility of the road surface display using the extracted road surface display luminance. It includes; a device processor for determining whether or not damage and the degree of damage, and providing a road surface image in which the road marking is damaged and the degree of damage is determined, and location information on which the road surface image was taken;
The image processing unit,
After equally dividing the road surface image input from the camera unit into a horizontal line and extracting an analysis area corresponding to the lower 1/3 area, an area corresponding to a predetermined position among the analysis areas is set as the area of interest,
The device processor,
A road surface display extraction unit for extracting a road surface display area surrounded by an outer edge by applying the road surface extraction model to a region of interest set in the road surface image, and extracting an internal damaged area of the extracted road surface display area;
A luminance calculator configured to calculate a luminance average of the entire road surface area surrounded by the outer edge and a luminance average of the internal damaged region; And
The difference between the luminance average of the entire road surface display area and the luminance average of the internal damage area calculated by the luminance calculation unit is calculated, and the damage level mapped to the calculated difference is checked from a mapping table stored in the device memory to determine the road surface. Apparatus for providing information indicating damage to the road surface using a video, characterized in that it comprises; a determination unit for determining whether the display is damaged and the degree of damage.
상기 카메라부는,
상기 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 상기 도로 노면 영상의 2/3 영역 내에 위치하도록 설치되는 것을 특징으로 하는 영상을 이용한 도로의 노면 표시 훼손 정보 제공 장치.According to claim 1,
The camera unit,
It is installed to shoot along the driving direction from the road surface of the road closest to the front surface of the vehicle, the vanishing point of the road surface horizontal line in the captured image is installed so that the image characterized in that located in the 2/3 area of the road surface image A device for providing damage to road markings on roads used.
(B) 상기 전자장치가, GPS 모듈을 이용하여 상기 차량의 위치 정보를 센싱하는 단계; 및
(C) 상기 전자장치가, 상기 (A) 단계에서 출력되는 도로 노면 영상을 휘도 정보를 포함하는 그레이 영상으로 변환하고, 상기 변환된 그레이 영상에서 노면 표시를 포함하는 관심 영역을 설정하며, 상기 설정된 관심 영역을 노면 표시 추출 모델의 입력데이터로서 출력하는 단계;
(D) 상기 전자장치가, 상기 (C) 단계에서 실시간으로 입력되는 관심 영역을 인공지능 기반으로 사전에 학습된 노면 표시 추출 모델에 입력하여 도로에 표시된 노면 표시를 추출하고, 상기 추출된 도로 노면 표시의 휘도를 이용하여 노면 표시의 시인성 훼손 여부 및 훼손 정도를 판단하고, 노면 표시의 훼손 여부와 훼손 정도가 판단된 도로 노면 영상과 상기 도로 노면 영상이 촬영된 위치 정보를 제공하는 단계;
를 포함하고,
상기 (C) 단계는,
상기 카메라로부터 입력되는 도로 노면 영상을 가로선으로 동일하게 3등분한 후 아래 1/3 영역에 해당하는 분석 영역을 추출하고, 상기 분석 영역 중 정해진 위치에 해당하는 관심 영역을 설정하고,
상기 (D) 단계는,
(D1) 상기 전자장치가, 상기 도로 노면 영상에 설정된 관심 영역에 상기 노면 표시 추출 모델을 적용하여 외곽으로 둘러싸인 노면 표시 영역을 추출하고, 상기 추출된 노면 표시 영역의 내부 훼손 영역을 추출하는 단계;
(D2) 상기 전자장치가, 상기 외곽으로 둘러싸인 노면 표시 영역 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균을 산출하는 단계; 및
(D3) 상기 전자장치가, 상기 산출된 노면 표시 영역 전체의 휘도 평균과 상기 내부 훼손 영역의 휘도 평균의 차이를 산출하고, 상기 산출된 차이에 매핑된 훼손 등급을 매핑 테이블로부터 확인하여 상기 노면 표시의 훼손 여부 및 훼손 정도를 판단하는 단계;를 포함하는 것을 특징으로 하는 전자장치의 영상을 이용한 도로의 노면 표시 훼손 정보 제공 방법.(A) the electronic device, photographing the road with a camera mounted on the vehicle to output the road surface image;
(B) the electronic device sensing the location information of the vehicle using a GPS module; And
(C) the electronic device converts the road surface image output in step (A) into a gray image including luminance information, sets an area of interest including a road surface display in the converted gray image, and sets the Outputting a region of interest as input data of a road surface extraction model;
(D) The electronic device inputs a region of interest input in real time in step (C) into a road marking extraction model previously learned based on artificial intelligence, extracts a road marking displayed on the road, and extracts the road marking. Determining whether the visibility of the road surface is damaged and the degree of damage by using the luminance of the display, and providing a road surface image in which the road surface image is damaged and the degree of damage, and location information on which the road surface image is taken;
Including,
Step (C) is,
After equally dividing the road surface image input from the camera into horizontal lines and extracting an analysis area corresponding to the lower 1/3 area, setting an area of interest corresponding to a predetermined position among the analysis areas,
Step (D) is,
(D1) the electronic device applying the road surface extraction model to a region of interest set in the road surface image, extracting a road surface display area surrounded by an outline, and extracting an internal damaged area of the extracted road surface display area;
(D2) calculating, by the electronic device, a luminance average of the entire road surface area surrounded by the outer edge and a luminance average of the internal damaged region; And
(D3) The electronic device calculates a difference between a luminance average of the entire calculated road surface display area and a luminance average of the internal damage area, and confirms the damage level mapped to the calculated difference from a mapping table to display the road surface Determining whether the damage and the degree of damage; Method of providing information on the road surface damage information using the image of the electronic device comprising a.
상기 카메라는,
상기 차량의 앞면과 가장 근접한 도로의 노면부터 주행 방향을 따라 촬영하도록 설치되되, 촬영된 영상 내의 도로 표면 수평선의 소실점이 상기 도로 노면 영상의 2/3 영역 내에 위치하도록 설치되는 것을 특징으로 하는 전자장치의 영상을 이용한 도로의 노면 표시 훼손 정보 제공 방법.The method of claim 6,
The camera,
An electronic device installed to photograph along the driving direction from the road surface of the road closest to the front surface of the vehicle, wherein the vanishing point of the horizontal road surface in the captured image is located within 2/3 of the road surface image. How to provide road marking damage information using the video.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190119276A KR102119033B1 (en) | 2019-09-27 | 2019-09-27 | Apparatus and method for providing road marking information using image data and vibration |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190119276A KR102119033B1 (en) | 2019-09-27 | 2019-09-27 | Apparatus and method for providing road marking information using image data and vibration |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102119033B1 true KR102119033B1 (en) | 2020-06-05 |
Family
ID=71088610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190119276A KR102119033B1 (en) | 2019-09-27 | 2019-09-27 | Apparatus and method for providing road marking information using image data and vibration |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102119033B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102292480B1 (en) * | 2020-12-24 | 2021-08-24 | 한국건설기술연구원 | Apparatus and method for collecting road information in low light level environment |
KR20220138894A (en) * | 2021-04-06 | 2022-10-14 | 한국교통대학교산학협력단 | Prediction and recognition method of road marking information and road maintenance method |
WO2022255033A1 (en) * | 2021-06-03 | 2022-12-08 | 株式会社デンソー | Map updating system, map updating device, and storage medium |
KR102544640B1 (en) | 2022-12-01 | 2023-06-21 | 한국건설기술연구원 | Lane detection and prediction system, apparatus and method |
WO2024076169A1 (en) * | 2022-10-07 | 2024-04-11 | 삼성전자 주식회사 | Method for training object recognition model using spatial information, and computing device for performing same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101543342B1 (en) | 2015-02-23 | 2015-08-11 | 한국건설기술연구원 | System for processing pot-hole data of road pavement using vehicle communication network, and method for the same |
KR101603293B1 (en) * | 2015-01-26 | 2016-03-16 | 한국기술교육대학교 산학협력단 | Lane recognition method |
JP2018120409A (en) * | 2017-01-25 | 2018-08-02 | 株式会社ユピテル | Data collection device, road status evaluation support device, and program |
JP2019101499A (en) * | 2017-11-28 | 2019-06-24 | 株式会社東芝 | Image feature emphasis device, road surface feature analysis device, image feature emphasis method, and road surface feature analysis method |
-
2019
- 2019-09-27 KR KR1020190119276A patent/KR102119033B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101603293B1 (en) * | 2015-01-26 | 2016-03-16 | 한국기술교육대학교 산학협력단 | Lane recognition method |
KR101543342B1 (en) | 2015-02-23 | 2015-08-11 | 한국건설기술연구원 | System for processing pot-hole data of road pavement using vehicle communication network, and method for the same |
JP2018120409A (en) * | 2017-01-25 | 2018-08-02 | 株式会社ユピテル | Data collection device, road status evaluation support device, and program |
JP2019101499A (en) * | 2017-11-28 | 2019-06-24 | 株式会社東芝 | Image feature emphasis device, road surface feature analysis device, image feature emphasis method, and road surface feature analysis method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102292480B1 (en) * | 2020-12-24 | 2021-08-24 | 한국건설기술연구원 | Apparatus and method for collecting road information in low light level environment |
KR20220138894A (en) * | 2021-04-06 | 2022-10-14 | 한국교통대학교산학협력단 | Prediction and recognition method of road marking information and road maintenance method |
KR102562757B1 (en) * | 2021-04-06 | 2023-08-02 | 한국교통대학교 산학협력단 | Prediction and recognition method of road marking information and road maintenance method |
WO2022255033A1 (en) * | 2021-06-03 | 2022-12-08 | 株式会社デンソー | Map updating system, map updating device, and storage medium |
WO2024076169A1 (en) * | 2022-10-07 | 2024-04-11 | 삼성전자 주식회사 | Method for training object recognition model using spatial information, and computing device for performing same |
KR102544640B1 (en) | 2022-12-01 | 2023-06-21 | 한국건설기술연구원 | Lane detection and prediction system, apparatus and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102119033B1 (en) | Apparatus and method for providing road marking information using image data and vibration | |
KR102026685B1 (en) | Apparatus and server for providing dangerous road information using image data and vibration | |
CN103824452B (en) | A kind of peccancy parking detector based on panoramic vision of lightweight | |
US10255804B2 (en) | Method for generating a digital record and roadside unit of a road toll system implementing the method | |
US8487991B2 (en) | Clear path detection using a vanishing point | |
CN103065519B (en) | Detecting system of ramp fixed point stopping and starting and detecting method of ramp fixed point stopping and starting | |
CN102867417B (en) | Taxi anti-forgery system and taxi anti-forgery method | |
CN104766086A (en) | Supervising method and system of way mark | |
CN111339905B (en) | CIM well lid state visual detection system based on deep learning and multiple visual angles | |
KR102167292B1 (en) | Apparatus and method for providing road status information | |
CN111899515B (en) | Vehicle detection system based on wisdom road edge calculates gateway | |
CN103000067B (en) | Right angle turning detection system and detecting method thereof | |
KR102026686B1 (en) | Apparatus for providing dangerous road information using connected car and server for generating deep-learning model | |
US20220358634A1 (en) | Methods and systems of utilizing image processing systems to measure objects | |
Li et al. | A novel evaluation method for pavement distress based on impact of ride comfort | |
CN111767831B (en) | Method, apparatus, device and storage medium for processing image | |
CN112949457A (en) | Maintenance method, device and system based on augmented reality technology | |
CN114419603A (en) | Automatic driving vehicle control method and system and automatic driving vehicle | |
KR102259981B1 (en) | Visual range measurement and alarm system based on video analysis and method thereof | |
CN103077639B (en) | Curve driving detection system and detection method thereof | |
KR102257078B1 (en) | Fog detection device using coordinate system and method thereof | |
CN202887450U (en) | Taxi anti-fake system | |
CN111582278A (en) | Portrait segmentation method and device and electronic equipment | |
EP4261737A1 (en) | Road occupancy information determination method and apparatus | |
KR102430303B1 (en) | Obstacle detection system for screen door using infrared cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |