KR102562757B1 - Prediction and recognition method of road marking information and road maintenance method - Google Patents

Prediction and recognition method of road marking information and road maintenance method Download PDF

Info

Publication number
KR102562757B1
KR102562757B1 KR1020210044447A KR20210044447A KR102562757B1 KR 102562757 B1 KR102562757 B1 KR 102562757B1 KR 1020210044447 A KR1020210044447 A KR 1020210044447A KR 20210044447 A KR20210044447 A KR 20210044447A KR 102562757 B1 KR102562757 B1 KR 102562757B1
Authority
KR
South Korea
Prior art keywords
data
image
images
vehicle
black box
Prior art date
Application number
KR1020210044447A
Other languages
Korean (ko)
Other versions
KR20220138894A (en
Inventor
김현
Original Assignee
한국교통대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통대학교 산학협력단 filed Critical 한국교통대학교 산학협력단
Priority to KR1020210044447A priority Critical patent/KR102562757B1/en
Publication of KR20220138894A publication Critical patent/KR20220138894A/en
Application granted granted Critical
Publication of KR102562757B1 publication Critical patent/KR102562757B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2370/00Details of arrangements or adaptations of instruments specially adapted for vehicles, not covered by groups B60K35/00, B60K37/00
    • B60K2370/15Output devices or features thereof
    • B60K2370/152Displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Abstract

차량의 촬영장치가 촬영한 제1이미지로부터 미리 결정된 타입들 중 어느 하나의 타입을 갖는 도로 상의 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계, 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계, 및 상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치에게 제공하는 단계를 실행하도록 되어 있는 차량 단말기 및 이를 이용한 차량 이동경로 상의 정적객체의 관리방법을 공개한다.Extracting a first object image estimated to be a static object on the road having any one of predetermined types from a first image captured by a photographing device of a vehicle, as an image representing each static object, according to the Road Traffic Act selecting a first reference image corresponding to the extracted first object image from among a plurality of reference reference images provided according to the method; and selecting at least one of the extracted first object image and the selected first reference image. Disclosed is a vehicle terminal capable of executing steps provided to other computing devices and a method for managing static objects on a vehicle movement path using the vehicle terminal.

Description

노면표시 정보의 예측 및 인식방법 및 도로 유지관리 방법{Prediction and recognition method of road marking information and road maintenance method}Prediction and recognition method of road marking information and road maintenance method

본 발명은 컴퓨팅 기술을 이용하여, 차선/횡단보도, 신호등, 도로표지판 등 도로 주행과 관련하여 획득한 정적객체인지 AI데이터를 기반으로 노면표시 정보를 인식하고, 인식된 노면표시 정보를 이용하여 도로 유지관리를 위한 정보를 생성하는 기술에 관한 것이다.The present invention uses computing technology to recognize road surface marking information based on static object AI data acquired in relation to road driving such as lanes/crosswalks, traffic lights, road signs, etc. It relates to technology for generating information for maintenance.

주행환경 정적객체인지 AI 데이터는 자율자동차의 적성검사 항목에 해당한다. 자율주행자동차가 주행하기 위해, 인지-판단-제어 단계 중에서 첫 번째 항목이 인지이며, 주행환경 정적객체(차로의 차선, 횡단보도, 신호등, 도로표지)는 "자율주행자동차 운전면허 시험제도"중 학과시험 항목에 해당한다. 자율주행자동차가 상용화되기 위한 첫 걸음으로서 정적객체 인식기술의 발전이 요구되고 있다.AI data, which is a static object in the driving environment, is an aptitude test item for autonomous vehicles. In order for self-driving cars to drive, the first item in the cognitive-judgment-control phase is cognition, and the driving environment static objects (lanes, crosswalks, traffic lights, road signs) Corresponds to the department test items. The development of static object recognition technology is required as the first step for the commercialization of autonomous vehicles.

자율주행자동차 관련 기술이 발전함에 따라 국내ㆍ외에서 자율주행에 필요한 각종 단말기와 센서 등 장착의 순차적 의무화가 추진되고 있으며, 이를 바탕으로 해외에서부터 2020년대 초중반에 걸쳐 자율주행 상용화에 필요한 면허ㆍ보험ㆍ안전 및 보안ㆍ인증 분야의 법 및 제도가 완비될 것으로 예상된다. As the technology related to self-driving cars develops, the sequential mandatory installation of various terminals and sensors necessary for self-driving is being promoted at home and abroad. and laws and systems in the field of security and authentication are expected to be complete.

현재 운전을 보조하는 수준의 레벨 2 자율주행 기술인 첨단 운전자 지원 시스템(Advanced Driver Assistance System, ADAS) 상용화 완료 후 해외 완성차 제조업체를 중심으로 일부 레벨 3~4 자율주행 기술의 구현이 확대되고 있다.After completing the commercialization of the Advanced Driver Assistance System (ADAS), which is a level 2 autonomous driving technology that currently assists driving, the implementation of some level 3 to 4 autonomous driving technologies is expanding, centering on overseas automakers.

대표적인 자율주행 기술은, 영상인식센서를 통하여 전방 차선을 인식하고 스티어링 휠(핸들)을 제어하여 차선을 유지하는 차선유지지원시스템(Lane Keeping Assist System, LKAS) 기술, 표지판을 인식하여 속도조절, 방향전환 및 추월을 지원하는 도로표지판인식(Traffic Sign Recognition, TSR) 기술, 차간거리 제어기능과 차선유지기능 등을 조합하여 차선이 보이지 않는 경우에도 주변 차량의 주행 궤적을 인지하여 선행차량과 일정한 간격을 유지하는 혼잡구간주행지원시스템(Traffic Jam Assist, TJA) 기술 등이 있다. 본 발명은 상기 차선유지지원시스템 및 도로표지판인식에 관련되어 있다. Representative autonomous driving technologies include the Lane Keeping Assist System (LKAS) technology, which recognizes the lane ahead through an image recognition sensor and controls the steering wheel to maintain the lane, and recognizes signs to adjust speed and direction By combining the Traffic Sign Recognition (TSR) technology that supports switching and overtaking, the headway distance control function, and the lane keeping function, it recognizes the driving trajectory of surrounding vehicles even when the lane is not visible and maintains a certain distance from the vehicle in front. and traffic jam assist (TJA) technology. The present invention relates to the lane keeping assistance system and road sign recognition.

운전자의 책임소재가 급격하게 감소되는 레벨 3~4 이상의 자율주행자동차 제작을 위해서는 정적ㆍ동적 장애물을 인식하는 카메라ㆍ레이더(Radio Detection and Ranging, RADAR)ㆍ라이다(Light Detection and Ranging, LIDAR) 등의 주행환경 인식센서와 GPS 기반 측위, 도로시설ㆍ신호ㆍ표지 등의 정보를 제공하는 정밀도로지도, 각종 시설ㆍ환경 및 교통정보를 교환하는 V2V(Vehicle to Vehicle) 및 V2I(Vehicle to Infra) 등의 요소 기술이 추가적으로 필요하다. In order to manufacture self-driving cars of level 3 to 4 or higher, where the responsibility of the driver is rapidly reduced, cameras, radars (Radio Detection and Ranging, RADAR), and LIDAR (Light Detection and Ranging, LIDAR) that recognize static and dynamic obstacles are required. Driving environment recognition sensor and GPS-based positioning, precision maps that provide information such as road facilities, signals, and signs, V2V (Vehicle to Vehicle) and V2I (Vehicle to Infra) that exchange various facilities, environments, and traffic information, etc. element technology is additionally required.

자율주행 기술 완성도 제고를 위해서는 차선 및 횡단보도와 신호등/도로표지와 같은 도로 상의 정적객체에 대한 자동차 AI의 인식성능 향상이 필요하다. 자율주행 단계가 올라갈수록 인공지능 의존도는 계속 증가할 것이며, 자율주행 주행은 정적객체 인식이 아주 중요하며 차선을 인식하여 주행하는 것이 제어 완성도를 높이는 방법이다. 이에 따라 차선정보 획득을 위한 데이터세트 확보 및 Ground Truth 정보가 필요하다. In order to improve the completeness of autonomous driving technology, it is necessary to improve the recognition performance of automotive AI for static objects on the road such as lanes, crosswalks, and traffic lights/road signs. As the level of autonomous driving goes up, the dependence on artificial intelligence will continue to increase. In autonomous driving, static object recognition is very important, and driving by recognizing lanes is a way to improve control perfection. Accordingly, it is necessary to secure a dataset and ground truth information to acquire lane information.

자율주행 고도화를 위해서 주변 인프라 정보를 획득하여 자기차량센서와 융합을 통해 제어를 수행하는 자율협력 주행이 도입되고 있어 차량간 통신을 통해 신호등 정보 등에 대해 획득이 가능하여 자율주행의 수준을 높이고 있다. 이와 같이 자율협력 주행이 도입되고 있어 차량 간 통신을 통해 신호등 정보 등에 대해 획득이 가능하지만 통신지연 등 데이터의 완결성을 보장하기는 어렵다. 이에 신호등 정보에 대한 인식을 통해 교차로 등에서의 딜레마 현상은 해소가 가능하지만 자율주행차량의 최종 제어판단은 차량의 자기 센서를 통해 판단하는 것이 필요하여 영상센서를 이용한 신호등 인식 등에 개발이 필수적으로 대두되고 있어 딥러닝 기반 개발을 위해 많은 다양한 환경에서의 양질의 신호등 데이터셋이 필요하다. 정밀지도의 도입으로 다양한 서비스가 가능하지만, 센서만으로 자율주행차량의 위치를 정확히 판단하기는 어려운 상황이 존재할 수 있다. 보행자를 보호를 위해 횡단보도에 정확히 정차하는 것은 정밀지도 정보기반으로도 가능하지만 최종적으로 차량에서의 정지선 판단이 필요해 보이며 많은 다양한 환경에서의 양질의 데이터가 필요한 상황이다.In order to advance autonomous driving, autonomous cooperative driving, which acquires surrounding infrastructure information and performs control through convergence with the vehicle sensor, is being introduced, and it is possible to acquire traffic light information through vehicle-to-vehicle communication, raising the level of autonomous driving. As autonomous cooperative driving is being introduced, it is possible to obtain traffic light information through vehicle-to-vehicle communication, but it is difficult to guarantee completeness of data such as communication delay. Therefore, the recognition of traffic light information can solve the dilemma phenomenon at intersections, etc., but the final control panel of an autonomous vehicle needs to be judged through the vehicle's magnetic sensor, so development of traffic light recognition using image sensors is essential. Therefore, for deep learning-based development, high-quality traffic light datasets in many different environments are required. Although various services are possible with the introduction of precision maps, there may be situations where it is difficult to accurately determine the location of an autonomous vehicle using only sensors. Accurately stopping at a crosswalk to protect pedestrians can be done based on precise map information, but it is necessary to finally determine the stop line in the vehicle, and high-quality data is needed in many different environments.

자율주행 및 차세대 지능형 교통서비스(C-ITS)를 위해서는 자동차가 주행하면서 카메라를 통해 센싱하는 다양한 정적객체를 인지하는 것이 요구된다. 자율주행에서는 주행 가능 경로를 판단하고 해당 경로로 주행하기 위한 횡방향 차량 제어를 위해서는, 다양한 환경에서 다양한 형태의 차선을 인지하는 것이 필요하다. 또한, 자율주행차량은 다양한 도로 교통상황을 인지하기 위해 교통 신호등, 도로표지판, 횡단보도 등을 카메라를 통해 센싱 및 인지하는 것이 필요하다. For autonomous driving and next-generation intelligent traffic service (C-ITS), it is required to recognize various static objects sensed by cameras while driving. In autonomous driving, it is necessary to recognize various types of lanes in various environments in order to determine a drivable path and control a lateral vehicle for driving along the corresponding path. In addition, self-driving vehicles need to sense and recognize traffic lights, road signs, and crosswalks through cameras in order to recognize various road traffic conditions.

자동차가 주행하면서 카메라를 통해 도로관련정보를 획득하고 인지하는 것은, 도로 및 그 주변에 해당 정보가 훼손되지 않은 상태로 유지되고 있을 것을 전제로 한다. 시간이 흐름에 따라 예컨대 횡단보도와 같은 표식이 훼손되거나 일분 표지판이 훼손될 수 있다. 이러한 훼손 사실을 신속히 파악하여 복구해야 하는데 이러한 사실의 파악을 지원하는 기술이 요구된다.Obtaining and recognizing road-related information through a camera while a vehicle is driving is based on the premise that the information on the road and its surroundings is maintained undamaged. Over time, signs such as crosswalks, for example, may be damaged or one-minute signs may be damaged. It is necessary to quickly identify and restore these damaged facts, and a technology that supports the identification of these facts is required.

일례로, 1년간 교통사고 2건 이상 발생 또는 사망자 1명이상 발생한 '교통사고 다발스쿨존' 126 개소의 조사결과 전체의 75.4%가 노면표시 등의 노후화로 발생된 문제인 것으로 나타나 있다(2020년, 행안부). 따라서 노면 표시의 적절한 모니터링과 관리 그리고 이에 해당하는 적절한 운전자 정보 보조수단이 필요하다. As an example, as a result of a survey of 126 'traffic accident-prone school zones' in which two or more traffic accidents occurred or one or more deaths occurred in one year, 75.4% of the total was found to be a problem caused by obsolescence such as road markings (2020, Ministry of Public Administration and Security). Therefore, appropriate monitoring and management of road markings and appropriate driver information assistance means are required.

본 발명에서는, 이미 수집되어 있는 도로와 관련된 다양한 정적객체에 관한 정보를 이용하여 도로의 포장상태에 따른 운전자 및 자율주행 차량의 이미지 검출 및 시인성 정도 판단하는 기술을 제공할 수 있고, 또한 식별이 어려운 노면 표시, 차선 등 에 대한 이미지 예측을 통해 실시간으로 표시내용을 보완하여 제공할 수 있으며, 예측된 정보와 실제 관측된 정보 간의 차이를 도로 상의 정적객체 관리시스템의 관리자에게 제공하는 기술을 제공하고자 한다.In the present invention, it is possible to provide a technique for detecting an image of a driver and an autonomous vehicle according to the pavement condition of the road and determining the degree of visibility using already collected information on various static objects related to the road, and also difficult to identify. Through image prediction of road surface markings, lanes, etc., display contents can be supplemented and provided in real time, and the difference between predicted information and actually observed information is to be provided to the manager of the static object management system on the road. .

본 발명의 일 관점에 따라 제공되는 도로상의 정적객체 인식방법은, 합성곱 신경망(CNN) 알고리즘을 이용하여 구현될 수 있다. 상기 합성곱 신경망은 인공 신경망의 일종이다. 상기 인공 신경망은 기계학습과 인지과학에서 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘이다. 인공 신경망은 시냅스의 결합으로 네트워크를 형성한 인공뉴런이 학습을 통해 시냅스의 결합세기를 변화시켜, 문제해결능력을 갖는 모델이다. A static object recognition method on a road provided according to one aspect of the present invention may be implemented using a convolutional neural network (CNN) algorithm. The convolutional neural network is a kind of artificial neural network. The artificial neural network is a statistical learning algorithm inspired by neural networks in biology in machine learning and cognitive science. An artificial neural network is a model that has problem-solving ability by changing synaptic coupling strength through learning by artificial neurons that form a network by synaptic coupling.

본 발명의 일 관점에 따라 제공되는 도로관리정보 생성방법은, 노면표시 재도색 필요 여부, 안전표지 노후화 여부, 신호기 노후화 여부, 및 미끄럼 방지포장 노후화 여부에 관한 정보를 생성하여 제공할 수 있다.The method for generating road management information provided according to one aspect of the present invention may generate and provide information on whether road surface markings need to be repainted, whether safety signs are obsolete, whether traffic signs are obsolete, and whether anti-skid pavement is obsolete.

인공 신경망에서 다수의 은닉측(hidden layer)을 사용하는 것이 최근 빅데이터 기반 기계학습에서 대두되고 있는 딥러닝이다. 딥러닝은 선형회귀분석에서는 추출하기 어려운 비선형 패턴을 찾는데 용이하며, 이와 같은 특성 때문에 컴퓨터 비전이나 언어학습 등에 매우 강력한 기술이 되었다. 컴퓨터 비전의 경우, 이미지를 입력 데이터로 활용하기 때문에 단순 정형 데이터를 다룰 때와는 다른 구조를 필요로 하며, 이를 반영한 것이 합성곱 신경망이다. 합성곱 신경망은 합성곱이라는 추가적인 은닉측과 맥스 풀링(max pooling)이라는 패턴 인식을 위한 장치가 포함된다.The use of multiple hidden layers in an artificial neural network is deep learning, which has recently emerged in big data-based machine learning. Deep learning is easy to find non-linear patterns that are difficult to extract in linear regression analysis, and because of these characteristics, it has become a very powerful technology for computer vision and language learning. In the case of computer vision, since images are used as input data, a different structure is required than when dealing with simple structured data, and convolutional neural networks reflect this. The convolutional neural network includes an additional hidden side called convolution and a device for pattern recognition called max pooling.

본 발명에서는, 촬영된 이미지와 데이터 셋에서 노면표시 정보의 노후정도 그리고 시인성에 관련된 특정 패턴들을 자동적으로 인식하기 위해, 이미지 내 패턴 인식에 이용되는 합성곱 신경망 기술을 이용한다.In the present invention, convolutional neural network technology used for recognizing patterns in images is used to automatically recognize specific patterns related to the degree of aging and visibility of road marking information in captured images and data sets.

본 발명의 일 관점에 따라 채택되는 합성곱 신경망 기술은 기존의 이미지 패턴 인식모델을 활용하며, 이 구조에는 서포트 벡터 머신 알고리즘이 보편적으로 사용된다. 서포트 벡터 머신 알고리즘은 이미지 내에 존재하는 다수의 오브젝트 중 분석에 필요한 오브젝트를 인식하고 오브젝트의 위치를 박스(box) 형태로 제약함으로써 분석의 정확도를 높이기 위해 활용된다. The convolutional neural network technology adopted according to one aspect of the present invention utilizes an existing image pattern recognition model, and a support vector machine algorithm is commonly used in this structure. The support vector machine algorithm is used to increase the accuracy of the analysis by recognizing an object necessary for analysis among a plurality of objects present in the image and constraining the position of the object to a box shape.

본 발명의 일 과점에 따라 제공되는 도로관리정보 생성방법은 이미지를 기반으로 노면표시의 노후 정도를 인식하는 것뿐만 아니라 해당 이미지들을 기반으로 해당 노면표시정보를 예측하는 모델을 제공하며, 여기에는 지도학습이 이용된다.The road management information generation method provided according to one point of the present invention not only recognizes the degree of deterioration of road markings based on images, but also provides a model for predicting the corresponding road marking information based on the images, including a map learning is used

지도학습은 비지도학습과 달리 학습 데이터에 라벨이 있어야 하며, 학습 데이터의 "정답"을 기반으로 모델을 학습시킨다. 본 발명에서는 도로교통법에서 제시하는 정답 데이터와 이미지 데이터를 기반으로 학습 데이터 생성을 하게 되며, 이를 기반으로 이미지 기반 딥러닝 모델의 분석 결과와 노후표시-정답데이터 간의 연관성 및 패턴을 찾을 수 있게 된다.Unlike unsupervised learning, supervised learning requires that the training data be labeled, and the model is trained based on the "correct answers" in the training data. In the present invention, learning data is generated based on the correct answer data and image data presented in the Road Traffic Act, and based on this, it is possible to find correlations and patterns between the analysis result of the image-based deep learning model and the aging display-correct answer data.

본 발명의 일 관점에 따라 지속가능한 도로 유지 관리 및 개선을 위한 데이터가 제공될 수 있다. According to one aspect of the present invention, data for sustainable road maintenance and improvement may be provided.

이때, 특히, 시설노후화 여부를 평가할 수 있는 데이터가 제공될 수 있다. 이를 위한 구체적인 기술로서, ① 노후화 교면(노면)표시의 이미지 예측기술, ② 도로시설물 안전도 평가 기술, 및 ③ 교면(노면)포장 및 시인성 정도 모니터링을 통한 성능변화 추정 및 정정 개축시기 예측기술을 제공할 수 있다.At this time, in particular, data capable of evaluating whether or not the facility is obsolete may be provided. As specific technologies for this purpose, ① image prediction technology for aging bridge surface (road surface) markings, ② road facility safety evaluation technology, and ③ performance change estimation and correction and reconstruction time prediction technology through monitoring of bridge surface (road surface) pavement and visibility are provided. can do.

또한, 특히, 자율주행을 지원하기 위한 데이터가 제공될 수 있다. 구체적으로는 자율주행 차량을 위한 최적의 교면(노면)포장 휘도 및 시인성 판단 기술이 제공될 수 있다.In addition, in particular, data for supporting autonomous driving may be provided. Specifically, an optimal bridge (road) pavement luminance and visibility determination technology for autonomous vehicles can be provided.

본 발명의 일 관점에 따라 제공되는 도로 상의 정적객체 예측방법은, 이미지 인식기반 합성곱 신경망 알고리즘을 이용하여, 노후화되어 식별이 어려운 노면표시 이미지를 도로교통법에서 제공하는 정합데이터와 비교를 통해 노후화정도 측정 및 예측을 통해 운전자 또는 자율주행 서비스에 해당 노면 표시정보를 API로 실시간 전달할 수 있다.A method for predicting static objects on a road provided according to one aspect of the present invention uses an image recognition-based convolutional neural network algorithm to compare an aging road surface image, which is difficult to identify, with matching data provided by the Road Traffic Act to determine the degree of aging. Through measurement and prediction, the corresponding road marking information can be delivered to the driver or autonomous driving service through API in real time.

또한, 본 발명의 일 관점에 따라 제공되는 도로시설물 안전도 평가 방법은, 노후화 교면(노면) 표시의 이미지 예측기술에서 얻은 산출물을 바탕으로, 노면 표시의 주ㅇ야간, 악천후의 상황에서의 시인성과 노후도를 단계별로 (최상-보통-개선필요-시급) 판단기준을 제시하여 안전도를 평가할 수 있도록 도로환경을 평가하는 솔루션을 제공할 수 있다. 또한 상기 정적객체에 관한 교면(노면)포장 및 시인성 정도 모니터링을 수행하여 그 결과에 따라, 상기 정적객체의 성능 변화를 추정하고, 누후화 된 정적객체의 수리를 위한 정정 개축시기를 예측할 수 있다.In addition, the road facility safety evaluation method provided according to one aspect of the present invention is based on the output obtained from the image prediction technology of the aging bridge surface (road surface) display, and the visibility and It is possible to provide a solution to evaluate the road environment so that the safety level can be evaluated by presenting the criteria for determining the degree of deterioration in each stage (best - normal - need for improvement - urgent). In addition, it is possible to estimate the performance change of the static object according to the monitoring of the level of pavement and visibility of the static object, and to predict the correction/renovation time for repair of the static object that has deteriorated.

또한, 본 발명의 일 관점에 따라 제공되는 모니터링 방법은, 도로시설물 안전도 평가 방법에서 얻은 산출물을 바탕으로 기존 데이터의 수집시기와 지구위치정보 데이터(Geo data)의 안전도 평가 이력(history) 관리를 통해 민간 기관, 관청 기관에게 상기 정적객체의 재포장, 수리 필요 여부를 실시간으로 제공한다. In addition, the monitoring method provided according to one aspect of the present invention manages the collection time of existing data and the history of safety evaluation of geolocation data (Geo data) based on the output obtained from the road facility safety evaluation method. Provides, in real time, whether the static objects need to be repackaged or repaired to private institutions and government agencies.

또한, 본 발명의 일 관점에 따라 제공되는, 자율주행 차량을 위한 최적의 교면(노면)포장 휘도 및 시인성 판단 지원 정보 제공방법은, 노후화 교면(노면)표시의 이미지 예측기술의 산출물을 바탕으로 자율주행차량의 카메라를 통한 이미지인식의 정확도 향상에 기여할 수 있도록 노면포장의 이미지 센서의 인식율 향상에 관련된 추가적인 정보를 제공할 수 있다.In addition, according to one aspect of the present invention, the optimal bridge (road) pavement luminance and visibility determination support information providing method for autonomous vehicles is provided based on the output of the image prediction technology of the aging bridge (road) display. Additional information related to the improvement of the recognition rate of the image sensor of the road surface can be provided so that it can contribute to the improvement of the accuracy of image recognition through the camera of the driving vehicle.

본 발명의 일 관점에 따라 제공되는 차량 단말기는, 처리장치; 촬영장치; 및 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치;를 포함한다. A vehicle terminal provided according to one aspect of the present invention includes a processing device; filming device; and an object information table including data on a plurality of static objects having one of predetermined types existing on a moving route of the vehicle, the object information table including geolocations of the plurality of static objects. , and a storage device storing a plurality of standard reference images provided according to the Road Traffic Act as images representing each of the static objects.

이때, 상기 처리장치가, 상기 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계; 상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계; 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계; 및 상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치에게 제공하는 단계;를 실행하도록 되어 있다. At this time, the processing device determines the difference between the first geolocation, which is the geolocation of the first static object existing on the predicted first movement path of the vehicle, and the current vehicle position, which is the current geolocation of the vehicle obtained from the GPS device. starting photographing using the photographing device from the point of time when a has a value within a predetermined threshold value; extracting a first object image estimated to be the static object having one of the predetermined types from a first image captured by the photographing device; selecting a first reference image corresponding to the extracted first object image from among the reference images; and providing at least one of the extracted first object image and the selected first reference reference image to another computing device.

이때, 상기 다른 컴퓨팅 장치는 상기 차량의 자율주행을 지원하는 자율주행장치이며, 상기 자율주행장치는 상기 차량에 포함된 디스플레이 장치에 상기 추출된 제1객체이미지 또는 상기 선택된 제1기준참조 이미지를 표시하도록 되어 있을 수 있다.At this time, the other computing device is an autonomous driving device supporting autonomous driving of the vehicle, and the autonomous driving device displays the extracted first object image or the selected first reference reference image on a display device included in the vehicle. may be made to do.

이때, 상기 제1기준참조 이미지를 선택하는 단계는, 상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택하는 단계; 상기 복수 개의 기준참조 이미지들 중, 상기 선택된 제1그룹의 정적객체들에 대응하는 제1그룹의 기준참조 이미지들을 선택하는 단계; 및 상기 선택된 제1그룹의 기준참조 이미지들 중에서 상기 제1객체이미지와의 유사도가 가장 높은 것을 상기 제1기준참조 이미지로 결정하는 단계;를 포함할 수 있다.In this case, the selecting of the first reference image may include selecting static objects of a first group existing within a predetermined distance from the first geographic location among the static objects stored in the object information table; selecting a first group of standard reference images corresponding to the selected first group of static objects from among the plurality of standard reference images; and determining, as the first reference reference image, one having the highest similarity to the first object image among the selected reference reference images of the first group.

이때, 상기 다른 컴퓨팅 장치는 원격의 서버이며, 상기 서버는, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계; 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;를 실행하도록 되어 있을 수 있다.At this time, the other computing device is a remote server, and the server calculates a similarity between the extracted first object image and the selected first reference reference image; calculating a degree of deterioration of the first static object represented by the first object image based on the calculated similarity; and generating a repair or replacement schedule for the first static object according to the calculated degree of deterioration.

이때, 상기 차량 단말기는 예측장치를 더 포함하며, 상기 예측장치는 지도학습 방법에 따라 학습된 신경망을 포함하며, 상기 신경망은 정보수집차량에서 촬영하여 획득한 학습용 이미지들을 학습용 입력정보로서 이용하고, 각각의 상기 획득한 학습용 이미지 내에서 지정되어 있는 한 개 이상의 객체이미지들 각각에 대한 라벨을 이용하여 지도학습된 것일 수 있다. 그리고 상기 제1객체이미지를 추출하는 단계는 상기 촬영한 제1이미지를 상기 학습된 신경망에 입력하여 상기 학습된 신경망의 출력을 이용하는 단계를 포함할 수 있다.At this time, the vehicle terminal further includes a prediction device, and the prediction device includes a neural network learned according to a supervised learning method, and the neural network uses images for learning obtained by photographing in an information collection vehicle as input information for learning, It may be supervised learning using a label for each of one or more object images specified in each of the acquired training images. The extracting of the first object image may include inputting the photographed first image to the learned neural network and using an output of the learned neural network.

이때, 상기 처리장치는, 상기 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 모든 객체이미지들인 제1그룹의 객체 이미지들을 추출하는 단계; 상기 제1지구위치 및 상기 추출한 제1그룹의 객체 이미지들에 관한 정보를 상기 다른 컴퓨팅 장치에게 제공하는 단계;를 더 실행할 수 있다. 그리고 상기 다른 컴퓨팅 장치는, 상기 객채정보 테이블을 포함하는 데이터베이스에 접근하도록 되어 있는 서버일 수 있다. 이때, 상기 서버는, 상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택하는 단계; 상기 제1그룹의 정적객체들 중 상기 제1그룹의 객체 이미지들에 대응하지 않는 정적객체인 손실객체가 존재하는지 판단하는 단계; 및 상기 손실객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;를 실행하도록 되어 있을 수 있다.At this time, the processing device may include: extracting object images of a first group, which are all object images estimated to be the static object having one of the predetermined types, from the first image; A step of providing information about the first geolocation and the extracted object images of the first group to the other computing device may be further executed. And, the other computing device may be a server configured to access a database including the object information table. At this time, the server may include: selecting a first group of static objects existing within a predetermined distance from the first geolocation from among the static objects stored in the object information table; determining whether a loss object, which is a static object that does not correspond to the object images of the first group, exists among the static objects of the first group; and generating a repair or replacement schedule for the lost object.

본 발명의 다른 관점에 따라 제공되는 도로 상 정적객체의 관리 스케줄 생성방법은, 서버가, 차량 단말기로부터 제1객체이미지 및 제1기준참조 이미지를 수신하는 단계; 상기 서버가, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계; 상기 서버가, 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및 상기 서버가, 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;를 포함한다. According to another aspect of the present invention, a method for generating a management schedule for static objects on a road includes receiving, by a server, a first object image and a first reference reference image from a vehicle terminal; calculating, by the server, a similarity between the extracted first object image and the selected first reference reference image; calculating, by the server, a degree of deterioration of the first static object represented by the first object image based on the calculated similarity; and generating, by the server, a repair or replacement schedule for the first static object according to the calculated degree of obsolescence.

이때, 상기 차량 단말기는, 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치에 액세스하도록 되어 있다. At this time, the vehicle terminal sets the geolocations of the plurality of static objects as an object information table including data on a plurality of static objects having one of predetermined types existing on a moving route of the vehicle. A storage device in which the object information table including the object information table and a plurality of standard reference images provided according to the Road Traffic Act as images representing the respective static objects is accessed is stored.

그리고 이때, 상기 차량 단말기는, 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계; 상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계; 및 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계를 실행하도록 되어 있다. At this time, the vehicle terminal determines the difference between the first geolocation, which is the geographic location of the first static object existing on the predicted first movement path of the vehicle, and the current vehicle location, which is the current geographic location of the vehicle obtained from the GPS device. starting photographing using the photographing device from the point of time when a has a value within a predetermined threshold value; extracting a first object image estimated to be the static object having one of the predetermined types from a first image captured by the photographing device; and selecting a first reference image corresponding to the extracted first object image from among the reference images.

본 발명의 일 관점에 따라 제공되는 차량 이동경로 상의 정적객체 관리방법은, 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치를 포함하는 차량 단말기를 이용하도록 되어 있다. A method for managing static objects on a vehicle movement route provided according to one aspect of the present invention is an object including data about a plurality of static objects having one of predetermined types existing on a vehicle movement route. A vehicle terminal including a storage device storing the object information table including the geolocations of the plurality of static objects as an information table and a plurality of standard reference images provided according to the Road Traffic Act as images representing each of the static objects is meant to be used.

상기 차량 이동경로 상의 정적객체 관리방법은, 상기 차량 단말기가, 상기 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계; 상기 차량 단말기가, 상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계; 상기 차량 단말기가, 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계; 및 상기 차량 단말기가, 상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치에게 제공하는 단계;를 포함한다. In the method for managing a static object on the vehicle movement route, the vehicle terminal determines the first geolocation, which is the geographic location of a first static object existing on the predicted first movement route of the vehicle, and the vehicle obtained from a GPS device. starting photographing using the photographing device from a time point when a difference between the current geographic location and the current vehicle position is within a predetermined threshold value; extracting, by the vehicle terminal, a first object image estimated to be the static object having one of the predetermined types from a first image photographed by the photographing device; selecting, by the vehicle terminal, a first standard reference image corresponding to the extracted first object image from among the standard reference images; and providing, by the vehicle terminal, at least one of the extracted first object image and the selected first reference reference image to another computing device.

그리고 또한, 상기 차량 이동경로 상의 정적객체 관리방법은, 서버가, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계; 상기 서버가, 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및 상기 서버가, 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;를 포함한다.The static object management method on the vehicle movement path may further include calculating, by a server, a degree of similarity between the extracted first object image and the selected first reference reference image; calculating, by the server, a degree of deterioration of the first static object represented by the first object image based on the calculated similarity; and generating, by the server, a repair or replacement schedule for the first static object according to the calculated degree of obsolescence.

본 발명의 일 관점에 따라 원천 데이터 확보 서버(1)를 포함하는 크라우드소싱 플랫폼 시스템에서, 주행환경에서의 정적객체를 인지하는 인공지능의 학습데이터세트를 처리하는 학습데이터세트 처리방법이 제공될 수 있다. 상기 처리방법은, 상기 원천 데이터 확보 서버(1)가, 크라우드 소싱에 기반하여 블랙박스 영상을 수집하여, 수집된 상기 블랙박스 영상에서 데이터 편향을 제거하고 개인정보를 비식별 처리함으로써, 상기 수집된 블랙박스 영상으로부터 정제된 영상 데이터를 생성하는 데이터 수집 단계(S10); 상기 원천 데이터 확보 서버(1)가, 학습데이터를 구성하는 대분류 카테고리들을 기준으로 상기 정제된 영상 데이터를 분류하고, 상기 정제된 영상 데이터로부터 유효한 이미지 데이터를 추출하는 단계(S20); 및 상기 정제된 영상 데이터 및 상기 유효한 이미지 데이터로부터 학습데이터세트를 생성하는 단계(S50);를 포함한다. According to one aspect of the present invention, in a crowdsourcing platform system including a source data securing server 1, a learning dataset processing method for processing an artificial intelligence learning dataset that recognizes static objects in a driving environment can be provided. there is. In the processing method, the source data securing server 1 collects black box images based on crowd sourcing, removes data bias from the collected black box images, and de-identifies personal information, thereby processing the collected black box images. A data collection step of generating refined image data from the black box image (S10); Classifying, by the original data securing server 1, the refined image data based on major classification categories constituting learning data, and extracting valid image data from the refined image data (S20); and generating a learning dataset from the refined image data and the effective image data (S50).

이때, 상기 데이터 수집 단계는, 상기 원천 데이터 확보 서버(1)가, 상용차 운전자인 운전자 패널이 운행하는 상용차에 설치된 블랙박스로부터 영상 데이터를 수집하고, 고화질 블랙박스를 장착한 차량을 운행하는 전문 패널이 운행하는 차량으로부터 영상 데이터를 수집하여 상기 블랙박스 영상을 보완하는 단계; 및 상기 원천 데이터 확보 서버(1)가, 여객 자동차 운송 사업자의 서버로부터 구매한 영상 데이터로 상기 블랙박스 영상을 보완하는 단계;를 포함할 수 있다. At this time, in the data collection step, the source data securing server 1 collects image data from a black box installed in a commercial vehicle driven by a driver panel, a commercial vehicle driver, and a professional panel that operates a vehicle equipped with a high-definition black box. supplementing the black box image by collecting image data from the running vehicle; and supplementing, by the source data securing server 1, the black box image with image data purchased from a server of a passenger transport service provider.

이때, 상기 데이터 수집 단계는, 상기 원천 데이터 확보 서버(1)가, 수집된 상기 블랙박스 영상에서 데이터 편향을 제거하기 위하여, 최초 블랙박스 영상 수집 시 수도권/광역시별로 제한된 인원수의 참여자로부터 상기 블랙박스 영상을 수집하는 단계; 상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터의 권역을 분류하는 단계; 상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터가 수집된 장소의 도로 유형을 분류하는 단계; 미리 저장된 자동차 DB를 통해 상기 각각의 블랙박스 영상을 제공한 차량의 자동차 유형의 분류를 수행하는 단계; 및 상기 수집한 블랙박스 영상을 상기 권역, 상기 도로 유형, 및 상기 자동차 유형에 따라 분류하고 편향이 생기지 않도록 상기 수집한 블랙박스 영상에 대한 필터링을 수행하는 단계;를 포함할 수 있다.At this time, in the data collection step, in order to remove data bias from the collected black box images, the source data securing server 1 collects the first black box images from the limited number of participants for each metropolitan area/metropolitan city. Collecting images; Classifying a region of each image data through matching the collected data of the black box image and GPS information; Classifying a road type of a place where each image data was collected through matching the collected black box image data and GPS information; Classifying the car type of the vehicle providing each of the black box images through a pre-stored car DB; and classifying the collected black box images according to the region, the road type, and the vehicle type, and performing filtering on the collected black box images to prevent bias.

이때, 상기 데이터 수집 단계는, 상기 원천 데이터 확보 서버(1)가, 상기 개인정보를 비식별 처리하기 위하여, 상기 수집한 각각의 블랙박스 영상의 출발지 및 도착지 시점의 전후 구간을 삭제하는 단계; 상기 수집한 각각의 블랙박스 영상에서 영상 외의 음성 정보 삭제하는 단계; 상기 수집한 각각의 블랙박스 영상에서 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별 처리하는 단계; 상기 수집한 각각의 블랙박스 영상에서 교통사고 장면을 삭제하는 단계; 상기 수집한 각각의 블랙박스 영상에서 횡단보도 정차 시 보행자 비식별 처리를 수행하는 단계; 및 상기 수집한 각각의 블랙박스 영상에서 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리하는 단계;를 포함할 수 있다. At this time, the data collection step may include, by the source data securing server 1, deleting sections before and after the source and destination points of each of the collected black box images in order to de-identify the personal information; deleting audio information other than video from each of the collected black box images; De-identifying the license plate number of the front driving vehicle and the next lane vehicle in each of the collected black box images; deleting traffic accident scenes from each of the collected black box images; Performing pedestrian de-identification processing when stopping at a crosswalk in each of the collected black box images; and de-identifying the photographing time and location information in the black box image from each of the collected black box images.

이때, 상기 생성된 학습데이터세트는 표지판, 차선 및 횡단보도, 신호등, 및 기타표식 중 어느 하나의 카테고리로 분류되어 있을 수 있다. In this case, the generated learning data set may be classified into any one category among signs, lanes and crosswalks, traffic lights, and other signs.

이때, 상기 생성된 학습데이터세트는, 수집된 상기 블랙박스 영상의 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류, 촬영 시간, 촬영된 도로의 유형, 및 촬영된 지역에 관한 정보를 포함하며, 수집된 상기 블랙박스 영상의 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 및 라벨링된 이미지를 포함 URL에 관한 정보를 포함하며, 상기 각 이미지 데이터로부터 추출되는 정적객체의 영역을 한정하는 바운딩 박스의 폭, 높이, 및 좌상단의 x,y좌표, 및 상기 바운딩 박스에 포함된 정적객체의 클래스 ID를 포함할 수 있다.At this time, the generated learning dataset includes information about the source location, resolution, type of vehicle captured, recording time, type of road captured, and information about the area captured for the video data of the collected black box image. and information about the URL including the file name, shooting time, shooting location, vehicle speed at the time of shooting, weather at the time of shooting, the number of lanes on the road taken, and the labeled image for each image data of the collected black box video. Including, the width and height of the bounding box defining the region of the static object extracted from each image data, and the x, y coordinates of the upper left corner, and the class ID of the static object included in the bounding box may be included. .

이때, 상기 대분류 카테고리들은 각각 복수 개의 서브 카테고리들로 더 구분되고, 상기 데이터를 추출하는 단계는, 상기 대분류 카테고리를 기준으로 분류를 수행할 학습 모델을 위한 학습데이터 세트를 구축하여 상기 구축된 학습데이터 세트를 이용하여 학습 모델을 생성하는 단계; 상기 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터로부터 상기 복수 개의 서브 카테고리에 관한 정적객체를 추출하고, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스(bounding box), 상기 바운딩 박스에 관한 아노테이션을 생성하는 단계;를 포함할 수 있다.In this case, each of the major classification categories is further divided into a plurality of subcategories, and the step of extracting the data comprises constructing a learning data set for a learning model to be classified based on the major classification category, and constructing the built learning data. creating a learning model using the set; Static objects related to the plurality of subcategories are extracted from the valid image data using the generated learning model, and a bounding box, which is information about a position where the extracted static objects exist in the valid image data, is provided. ), and generating an annotation related to the bounding box.

이때, 상기 데이터를 추출하는 단계는, 상기 생성된 아노테이션에 따라, 상기 아노테이션에 대응하는 이미지 및 상기 이미지에 대응하는 동영상을 상기 대분류 카테고리들 중 어느 하나의 카테고리로 분류함으로써, 상기 대분류 카테고리에 따른 동영상과 전처리된 이미지 데이터를 생성하는 단계;를 더 포함할 수 있다.At this time, in the step of extracting the data, according to the generated annotation, by classifying an image corresponding to the annotation and a video corresponding to the image into any one of the major classification categories, It may further include; generating a video and pre-processed image data according to the method.

이때, 상기 크라우드소싱 플랫폼 시스템은 프로모션 서버(2)를 더 포함하며, 상기 프로모션 서버는, 영상 활용 및 보상 지급에 대한 개인의 개인정보 활용 동의 프로세스를 처리하는 개인정보활용동의 파트; 주어진 현금 보상 체계에 따라 포인트 대신 현금을 상기 개인에게 제공하는 보상 파트; 및 영상 수집 프로모션 안내 콘텐츠를 상기 개인에게 제공하는 콘텐츠 파트;를 포함할 수 있다.At this time, the crowdsourcing platform system further includes a promotion server 2, and the promotion server includes a personal information utilization agreement part for processing an individual's personal information utilization agreement process for video utilization and reward payment; a compensation part that provides cash instead of points to the individual according to a given cash compensation system; and a content part providing video collection promotion guide content to the individual.

본 발명의 일 양상에 따른 원천데이터 확보 방법은, 첫째, 크라우드소싱 기반 기초 데이터 수집 방법으로서 일반 사용자가 자신의 블랙박스로 기촬영한 영상을 수집하여 수집된 데이터를 전처리하는 기술을 포함하며, 둘째, 모집된 상용차(택시, 화물차, 버스)와 전문 촬영 패널 고용을 통해 영상데이터를 보완하여 수집하는 기술을 포함하며, 셋째, 영상 데이터 보유 기관 조사를 통한 요구 영상을 직접 구매하는 방법을 포함할 수 있다. The source data securing method according to one aspect of the present invention is, first, a crowdsourcing-based basic data collection method, which includes a technique of pre-processing the collected data by collecting images previously taken by a general user with a black box; Third, it can include a method of directly purchasing the requested video through an investigation of the institution holding the video data. there is.

본 발명의 일 양상에 따라 제공되는 텍스트 및 아노테이션 생성방법은, AI 학습용 데이터셋 저작도구를 이용하여 확보된 원천데이터를 자동으로 분류하고 검색하는 단계 및 원천데이터 내에 존재하는 문자 및 이미지 인식하여 이로부터 텍스트 및 아노테이션 자동 생성하는 단계를 포함할 수 있다. The text and annotation generation method provided according to one aspect of the present invention includes the steps of automatically classifying and searching source data obtained using an AI learning dataset authoring tool and recognizing characters and images present in the source data, thereby It may include automatically generating text and annotations from

본 발명의 일 관점에 따라 제공하는, 자율주행 및 차세대 지능형 교통서비스에서 객체 인지 AI 학습데이터에 필수적인 원천 데이터에 대한 공간적 범위는 고속도로, 국도, 수도권 및 광역권의 도시고속화도로 및 6차선 이상의 도로를 포함할 수 있다.The spatial range of source data essential for object recognition AI learning data in autonomous driving and next-generation intelligent transportation services provided according to one aspect of the present invention includes highways, national highways, urban expressways in the metropolitan and metropolitan areas, and roads with 6 or more lanes. can do.

본 발명의 일 관점에 따라 제공하는, 자율주행 및 차세대 지능형 교통서비스에서 객체 인지 AI 학습데이터에 필수적인 원천 데이터에 대한 내용적 범위는 노면표시 (차선) 및 횡단지시, 신호등, 도로교통표지판, 규제 표지, 지시 표지, 기타 표지판, 도로공사 구간 전용 표지, 노면 색깔 유도선, 및 ITS 시설물을 포함할 수 있다. According to one aspect of the present invention, the scope of content for source data essential for object recognition AI learning data in autonomous driving and next-generation intelligent transportation services is road marking (lane) and crossing indications, traffic lights, road traffic signs, and regulatory signs. , instruction signs, other signs, signs dedicated to road construction sections, road color guidance lines, and ITS facilities.

구체적으로, 상기 노면표시 (차선) 및 횡당지시는 노면표시는 도로교통의 안전과 원활한 소통을 도모하고 도로 구조를 보존하기 위한 목적으로 제시된 것으로서, 독자적으로 또는 교통안전표지와 신호기를 보완하여 도로이용자에게 규제 또는 지시의 내용을 전달하는 기능을 제공할 수 있다. Specifically, the road surface markings (lanes) and crossing indications are presented for the purpose of promoting the safety and smooth communication of road traffic and preserving the road structure, and are independently or supplemented with traffic safety signs and signals to help road users It can provide the function of delivering the contents of regulations or instructions to the

구체적으로, 상기 신호등은 도로에서의 위험 방지 및 교통안전과 원활한 소통 확보를 위한 목적으로 설치된 것으로서, 도로교통에 관하여 문자ㆍ기호 또는 등화로써 진행ㆍ정지ㆍ방향전환ㆍ주의 등 신호를 표시하여 다양한 교통류에 우선권을 할당하는 기능을 수행할 수 있다.Specifically, the traffic lights are installed for the purpose of preventing danger on the road and securing traffic safety and smooth communication, and displaying signals such as progress, stop, change of direction, caution, etc. with letters, symbols, or lights in relation to road traffic for various types of traffic. It can perform the function of assigning priority to.

구체적으로, 상기 도로표지판은, 도로이용자에게 일관성 있고 통일된 방법으로 교통안전과 원활한 소통을 도모하고 도로구조와 도로시설물을 보호하기 위해 필요한 각종 정보를 제공하는 목적으로 제공된 것으로서, 교통안전표지는 단독으로 설치되거나, 노면표시 및 신호기와 유기적, 보완적으로 결합하여 설치되는 교통안전시설물로서 교통안전표지의 목적을 달성할 수 있도록 도로이용자에게 주의, 규제, 지시 등의 내용을 전달하는 기능을 제공할 수 있다.Specifically, the road signs are provided for the purpose of providing road users with various information necessary to promote traffic safety and smooth communication in a consistent and unified way and to protect road structures and road facilities. As a traffic safety facility that is installed as a road surface or organically and complementarily installed with road markings and signals, it provides the function of conveying the contents of caution, regulation, instructions, etc. to road users so that the purpose of traffic safety signs can be achieved. can

구체적으로, 상기 기타 항목으로 분류된 원천 데이터는 자율주행차량 주행 시 운행판단에 영향을 미치는 정적 데이터로 결정될 수 있다. 예컨대 도로공사 구간 전용 표지, 노면 색깔 유도선, 기타 ITS 시설물 등으로 분류될 수 있다. Specifically, the original data classified into the other items may be determined as static data that affects driving decisions when driving an autonomous vehicle. For example, it can be classified as a road construction section dedicated sign, road surface color guidance line, and other ITS facilities.

본 발명의 일 관점에 따라 수집되는 자료는, 블랙박스 영상으로서 차량 내 설치된 영상 촬영 장치로 획득 가능한 실주행 영상일 수 있다. 일반적인 블랙박스 영상 데이터인 30fps, HD(1366x768) 또는 FHD(1920x1080) 수준의 영상자료가 수집될 수 있다. 차량에서 촬영한 영상 데이터로부터 학습용 이미지 데이터 추출하여 학습데이터 셋으로 가공할 수 있다.Data collected according to one aspect of the present invention may be actual driving images obtained by an image capturing device installed in a vehicle as a black box image. 30 fps, HD (1366x768) or FHD (1920x1080) level video data, which are general black box video data, can be collected. Image data for learning may be extracted from image data captured in a vehicle and processed into a learning data set.

블랙박스 기반 주행 영상 데이터는, 첫째, 날씨(비, 눈, 흐림 등)와 시간(야간, 주간)에 영향을 받으며, 둘째, 유리, 빗방울에 의한 빛 번짐 현상 심하며, 셋째, 촬영 카메라 모듈 성능에 따라 수집 영상 품질이 상이하며, 넷째, 블랙박스 자체 시간 설정이 잘못된 경우, 영상 녹화 시간 매핑이 어려우며, 다섯째, GPS 정보 기록을 위해서 별도 외장 모듈 설치 필요하며 (대부분 GPS 모듈 별도), 여섯째, 광시야각을 지원하는 경우, 영상 좌우 왜곡이 있으며, 일곱째, 촬영 영상 상단 또는 하단에 영상 촬영 시간과 위치, 속도 등이 동시 기록된다는 문제점이 있다. Black box-based driving video data is, firstly, affected by weather (rain, snow, cloudy, etc.) and time (night, daytime), secondly, light smearing caused by glass and raindrops is severe, and thirdly, the camera module performance is affected. Fourth, if the black box's own time setting is incorrect, it is difficult to map the video recording time. Fifth, a separate external module is required to record GPS information (in most cases, a separate GPS module). Sixth, a wide viewing angle In the case of supporting, there is a left and right distortion of the image, and seventh, there is a problem that the image capture time, location, speed, etc. are simultaneously recorded at the top or bottom of the captured image.

본 발명의 일 관점에 따라 수집되는 사용자 영상은 크라우드소싱을 통해 수집한 교통 정보 영상일 수 있다. 이를 위해 본 발명에 따라 제공되는 장치는 교통 정보 수집 참여에 따라 참여자에게 포인트 및 혜택을 제공하도록 되어 있을 수 있다. According to one aspect of the present invention, the collected user image may be a traffic information image collected through crowdsourcing. To this end, the device provided according to the present invention may provide points and benefits to participants according to their participation in traffic information collection.

본 발명의 일 관점에 따라 제공되는 장치는, 수집된 사용자 영상 데이터에 대해 GPS 매칭을 통해 데이터 정제하는 단계를 수행하도록 되어 있을 수 있다. 이때, 지역별, 시간별, 날씨별, 차종별, 도로유형별 데이터 편향이 방지된, 주어진 시간 예컨대 1,000시간의 영상 데이터를 획득할 수 있다. An apparatus provided according to one aspect of the present invention may be configured to perform data refinement through GPS matching on collected user image data. In this case, image data for a given time, for example, 1,000 hours, in which data bias is prevented for each region, time, weather, vehicle type, and road type, may be obtained.

이때, 상기 장치는 개인정보 보호를 위한 영상 비식별화 처리 수행할 수 있다. 예컨대 출발지/도착지 클립을 삭제할 수 있다. 정제된 영상에서 이미지 추출을 통해 이미지 데이터를 확보할 수 있다. 데이터 정제 과정을 통해 대분류 수준 데이터를 분류할 수 있다. 수집된 영상의 사용자 입력 또는 1차 검수를 통해 이동 구간, 날씨 등 정보를 획득할 수 있다.At this time, the device may perform image de-identification processing for personal information protection. For example, you can delete origin/destination clips. Image data can be secured through image extraction from refined images. Through the data refinement process, the large classification level data can be classified. Information such as movement section and weather can be obtained through user input or primary inspection of the collected images.

<전체 시스템><whole system>

본 발명의 일 관점에 따라 제공되는 원천 데이터 수집 방법은, 첫째, 크라우드소싱 방식을 통해 블랙박스 영상을 우선 확보하는 단계, 둘째, 데이터 수집 편향을 방지하기 위해서 상기 확보된 블랙박스 영상을 GPS 매칭을 통해 지역별, 차종별, 도로유형별로 분류하는 단계, 셋째, 패널을 선정하여 선정된 패널의 차량에 촬영장치를 설치하고 설치된 촬영장치로부터 영상 데이터를 수거함으로써 패널을 통해 영상 데이터를 보완하는 단계, 넷째, 영상 공급업체의 서버로부터 획득한 영상으로부터 요구 영상을 식별하여 식별된 요구 영상을 구매함으로써 영상 데이터를 보완하는 단계를 포함할 수 있다. The source data collection method provided according to one aspect of the present invention includes, firstly, first securing a black box image through a crowdsourcing method, and second, performing GPS matching on the obtained black box image to prevent data collection bias. Third, selecting a panel, installing a photographing device in the vehicle of the selected panel, and collecting image data from the installed photographing device to supplement the image data through the panel. Fourth, The method may include supplementing image data by identifying a requested image from an image acquired from a server of a video provider and purchasing the identified requested video.

구체적으로 상기 크라우드소싱 플랫폼을 활용하는 경우, 저렴한 가격에 빠르게 많은 데이터 확보 가능지만, 데이터 편향 방지를 위해서 학습데이터 가공 전 활용 가능한 데이터 전처리를 할 수 있고, 별도 개인정보활용 동의 절차를 수행하기 위한 단계를 실행할 수 있다. Specifically, when using the crowdsourcing platform, it is possible to quickly secure a lot of data at a low price, but in order to prevent data bias, it is possible to pre-process available data before processing learning data, and to perform a separate consent procedure for use of personal information. can run

구체적으로 상기 패널 활용의 경우, 패널 모집을 통해 원천 데이터 편향 수집 방지 가능하다는 장점 및 별도 장비 설치를 통해 원천 데이터 품질 관리 가능하다는 장점이 있으나, 원천 데이터 확보 시간이 오래 걸린다.Specifically, in the case of using the panel, it has the advantage of being able to prevent source data bias collection through panel recruitment and the advantage of being able to manage the quality of source data through the installation of separate equipment, but it takes a long time to obtain source data.

구체적으로 상기 데이터 직접 구매 방법의 경우, 원천 데이터 확보 기업 조사가 필요하며, 며, 크라우드소싱이나 패널 활용에 비해 비싸다. 그러나 별도 패널 고용 없이 빠른 영상 데이터 확보가 가능하며 별도 인력 고용이 필요 없다. Specifically, in the case of the direct data purchase method, it is necessary to investigate the source data securing company, and it is expensive compared to crowdsourcing or panel utilization. However, it is possible to secure image data quickly without hiring a separate panel, and there is no need to hire additional personnel.

<크라우드소싱 플랫폼> <Crowdsourcing Platform>

본 발명의 일 관점에 따라 제공되는 크라우드소싱 플랫폼 시스템은, (1) 영상 추가 수집 프로모션을 통해 영상 제공에 따른 추가 포인트(또는 현금)를 개인에게 지급하기 위한 프로모션 서버, (2) 대용량 영상 데이터 전송을 위해 제공되는 파일 업로드 및 추가 서버 스토리지 장치, 및 (3) 원천 데이터 확보 서버를 포함할 수 있다. The crowdsourcing platform system provided according to one aspect of the present invention includes (1) a promotion server for paying additional points (or cash) according to video provision to individuals through additional video collection promotion, (2) transmission of large-capacity video data. It may include a file upload and additional server storage device provided for, and (3) a source data acquisition server.

상기 원천 데이터 확보 서버는 (1) 기수집된 주행정보와 영상 정보를 서로 매칭하여 분류함으로써 영상과 주행 정보를 서로 매칭하는 매칭 파트, 및 (2) 지역, 사용자, 주행 정보 매칭을 이용하여 데이터 수집 편향 방지를 위한 기능을 수행하는 편향제거 파트를 포함할 수 있다.The original data securing server collects data by using (1) a matching part that matches images and driving information by matching and classifying previously collected driving information and image information, and (2) region, user, and driving information matching. It may include a deflection removal part that performs a function for preventing deflection.

상기 프로모션 서버는 (1) 영상 활용 및 보상 지급에 대한 개인의 개인정보 활용 동의 프로세스를 처리하는 개인정보활용동의 파트, (2) 주어진 현금 보상 체계에 따라 포인트 대신 현금을 상기 개인에게 제공하는 보상 파트, 및 (3) 영상 수집 프로모션 안내 콘텐츠를 상기 개인에게 제공하는 콘텐츠 파트를 포함할 수 있다. The promotion server includes (1) a personal information usage consent part that handles the individual's personal information use agreement process for video use and reward payment, (2) a reward part that provides cash instead of points to the individual according to a given cash reward system , and (3) a content part for providing video collection promotion guide content to the individual.

상기 크라우드소싱 플랫폼 시스템은 학습데이터 대비 10배수의 영상 데이터를 수집하도록 되어 있을 수 있다. 이때, (1) 정적객체를 포함하는 영상 조건에 따라 영상을 수집하고, (2) 데이터 매칭 분류를 위해 영상 메타데이터를 분석하고, 사용자 입력을 가능하게 하는 기능을 더 포함할 수 있다.The crowdsourcing platform system may be configured to collect image data 10 times greater than learning data. In this case, functions of (1) collecting images according to image conditions including static objects, (2) analyzing image metadata for data matching classification, and enabling user input may be further included.

상기 크라우드소싱 플랫폼 시스템은 영상 데이터 수집을 위하여, 상기 파일 업로드 및 추가 서버 스토리지 장치와 같은 웹하드를 이용하여 상기 영상 데이터를 수집할 수 있다. The crowdsourcing platform system may collect the image data by using web hard such as the file upload and additional server storage devices for image data collection.

이때, 상기 개인정보활용동의 파트는 영상 정보 활용에 대한 동의를 상기 개인으로부터 입력받을 수 있다. In this case, the consent to use of personal information part may receive consent to use of image information from the individual.

이때, 상기 매칭 파트는 GPS 정보 매칭 여부를 검증함으로써, 영상과 주행정보가 서로 매칭되었는지 여부를 인증할 수 있으며, 영상 내 포함 정보 식별을 위하여 사용자 입력 방식의 1차 입력을 받아들일 수 있다. 상기 1차 입력은 지역도로인지 아니면 고속도로 또는 국도인지 여부를 구분하는 입력일 수 있다. At this time, the matching part can verify whether the GPS information matches, thereby authenticating whether the video and the driving information match each other, and can accept a primary input of a user input method to identify information included in the video. The first input may be an input for distinguishing whether it is a local road, a highway, or a national road.

이때, 상기 보상 파트는 상기 매칭 결과에 따라 포인트 또는 현금 보상을 상기 개인이게 제공하는 프로세스를 수행하도록 되어 있을 수 있다.At this time, the compensation part may be configured to perform a process of providing points or cash compensation to the individual according to the matching result.

이때, 상기 파일 업로드 및 추가 서버 스토리지 장치와 같은 웹하드를 통해 영상 데이터가 상기 개인으로부터 업로드될 수 있다. 업로드된 영상은 상기 원천 데이터 확보 서버가 이용할 수 있다. At this time, image data may be uploaded from the individual through a web hard such as the file upload and additional server storage device. The uploaded video can be used by the original data securing server.

이때, 상기 편향제거 파트는 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지 기능을 수행할 수 있다. At this time, the deflection removal part may perform a deflection prevention function by matching previously held driving information with additionally collected image information.

<패널 모집 방식의 영상 데이터 보완><Supplementation of video data of panel recruitment method>

상기 크라우드소싱 플랫폼 시스템을 통해 획득한 영상 데이터에는 원하는 영상 데이터가 포함되어 있지 않을 수 있다. 이를 극복하기 위하여 본 발명의 일 관점에 따른 영상 데이터 보완 방법에서는 모집된 패널을 이용할 수 있다. Image data obtained through the crowdsourcing platform system may not include desired image data. In order to overcome this problem, a recruited panel may be used in the method for supplementing image data according to one aspect of the present invention.

상기 크라우드소싱 플랫폼 시스템을 통해 획득한 원천 데이터를 분류하고, 시내/시외, 고속도로/국도, 날씨, 시간대별 수집 데이터를 한정하여 패널 모집을 통해 초기 수집 데이터 보완할 수 있다. The original data obtained through the crowdsourcing platform system can be classified, and the initial collected data can be supplemented through panel recruitment by limiting collected data by city/outside city, highway/national road, weather, and time zone.

패널의 선정은 상기 크라우드소싱 플랫폼 시스템을 통해 획득한 원천 데이터에 따라 이루어질 수 있다. Selection of the panel may be made according to original data acquired through the crowdsourcing platform system.

패널은 상용차 운전자 패널과 전문 패널로 구분될 수 있다.Panels can be divided into commercial vehicle driver panels and specialized panels.

상기 상용차 운전자 패널은 운행거리가 상대적으로 긴 운전자 대상으로 선정될 수 있다. 상기 전문 패널은 일종의 고용된 패널로서 QHD급 블랙박스 설치를 통해 고화질 영상 데이터 수집하는 패널을 의미할 수 있다. 패널들이 확보한 영상 데이터는 웹하드를 이용한 온라인 접수하거나 또는 직접 수거할 수 있다.The driver panel of the commercial vehicle may be selected for a driver having a relatively long driving distance. The professional panel is a kind of hired panel and may mean a panel that collects high-definition image data through the installation of a QHD-level black box. The video data secured by the panelists can be received online using webhard or directly collected.

<데이터 직접 구매 방식의 영상 데이터 보완><Supplementation of video data by purchasing data directly>

여객 자동차 운송 사업에 사용되는 차량의 경우, 교통사고 상황 파악, 범죄 예방 및 증거 확보를 위해 영상기록장치가 의무 장착될 수 있다. 시내/시외버스 운송사업자와 같은 여객 자동차 운송 사업자 대상으로 데이터를 직접 구매할 수 있다.In the case of vehicles used in the passenger car transport business, video recording devices can be installed for the purpose of identifying traffic accident situations, preventing crimes, and securing evidence. Data can be purchased directly from passenger vehicle transport operators, such as city/intercity bus transport operators.

구매한 영상 데이터와 이미지 데이터는 정제될 수 있다. 구매한 상기 영상 데이터의 정제과정에서, 블랙박스 영상과 GPS 정보 매칭을 통해 지역, 차종, 도로유형 분류, 비식별화 처리를 통해 원본 영상 데이터 확보할 수 있다. 구매한 상기 영상 데이터로부터 영상 프레임 단위 이미지를 추출하고, 전처리 영상 인식을 통해 대분류 수준(횡단보도, 표지판, 신호등) 분류, 이미지 데이터 확보를 실행할 수 있다.The purchased image data and image data may be refined. In the process of refining the purchased image data, it is possible to secure original image data through region, vehicle type, road type classification, and de-identification processing through matching black box image and GPS information. It is possible to extract an image frame unit image from the purchased image data, classify a large classification level (crosswalk, sign, traffic light) and secure image data through preprocessing image recognition.

<데이터 정제 프로세스><Data cleaning process>

본 발명의 일 관점에 따라 제공되는 데이터 정제 방법은, 상술한 상기 크라우드소싱 플랫폼 시스템을 이용하여 확보한 영상 데이터와 이미지 데이터를 정제할 수 있다. A data purification method provided according to one aspect of the present invention may refine image data and image data secured using the crowdsourcing platform system described above.

상기 원천 데이터 확보 서버는 블랙박스 영상과 GPS 정보 매칭을 통해 지역, 차종, 도로유형 분류, 비식별화 처리를 통해 원본 영상 데이터를 확보할 수 있다. 또한 영상 프레임 단위 이미지를 추출하고, 전처리 영상 인식을 통해 대분류 수준(횡단보도, 표지판, 신호등) 분류하여 이미지 데이터를 확보할 수 있다. The source data securing server may secure original image data through region, vehicle type, road type classification, and non-identification processing through matching black box image and GPS information. In addition, it is possible to secure image data by extracting image frame units and classifying large classification levels (crosswalks, signs, traffic lights) through preprocessing image recognition.

상기 원천 데이터 확보 서버는, (1) 크라우드소싱 기반 블랙박스 영상을 수집하는 단계, (2) 수집된 영상에 있어서의 데이터 편향을 제거하는 단계, (3) 수집된 영상에서 일부 정보의 비식별처리를 수행하는 단계, (4) 수집된 영상에서 이미지를 추출하는 단계, 및 (5) 추출한 이미지로부터 정제된 데이터를 획득하는 단계를 실행하도록 되어 있을 수 있다.The original data securing server includes (1) collecting black box images based on crowdsourcing, (2) removing data bias from the collected images, (3) de-identifying some information from the collected images. , (4) extracting images from the collected images, and (5) obtaining refined data from the extracted images.

상기 원천 데이터 확보 서버는, 수집 영상 데이터에 대한 편향 방지를 위하여, (1) 최초 블랙박스 영상 수집 시 수도권/광역시별 참여자 인원수를 제한하는 단계, (2) 제보된 블랙박스 영상 데이터와 GPS 정보 매칭을 통해 ① 수도권/광역시 권역 분류, ② 고속도로/국도 분류, ③ 자동차 DB를 통해 차종 분류를 수행할 수 있다. The source data securing server, in order to prevent bias in collected image data, (1) limiting the number of participants by metropolitan area/metropolitan city when collecting black box images for the first time, (2) matching reported black box image data and GPS information Through, it is possible to perform ① metropolitan/metropolitan area classification, ② highway/national highway classification, and ③ vehicle type classification through the car DB.

상기 원천 데이터 확보 서버는, 수집 영상 데이터에 대해 다음과 같은 단계를 포함하는 비식별화 처리를 수행하는 프로세스를 실행할 수 있다. 첫째 단계에서, 수집 영상으로부터 출발지 및 도착지 시점의 전/후 구간을 삭제하고, 둘째 단계에서, 수집 영상으로부터 영상 외 음성 정보 삭제하고, 셋째 단계에서, 수집 영상으로부터 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별처리할 수 있고, 넷째 단계에서, AI 학습데이터 가공 전에 교통사고 장면을 삭제하고, 다섯째 단계에서, 횡단보도 정차 시 보행자 비식별 처리를 수행하고, 여섯째 단계에서, 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리할 수 있다. 위 둘째 내지 여섯째 단계는 차량의 출발 및 도착을 제외한 사이 구간에서의 주행 영상에 대하여 실행하는 것일 수 있다.The source data securing server may execute a process of performing de-identification processing including the following steps on the collected image data. In the first step, the sections before and after the point of departure and destination are deleted from the collected images, in the second step, audio information other than the images are deleted from the collected images, and in the third step, the forward driving vehicle and the vehicle in the next lane are deleted from the collected images. The number can be de-identified, in the fourth step, the traffic accident scene is deleted before AI learning data processing, in the fifth step, pedestrian de-identification is performed when stopping at a crosswalk, and in the sixth step, a black box video is captured Time and location information can be de-identified. The second to sixth steps above may be executed for driving images in intervals other than the departure and arrival of the vehicle.

<인공지능 학습용 데이터 설계><Designing Data for AI Learning>

본 발명의 일 관점에 따라 제공되는 인공지능 학습용 데이터는 다음과 같은 특징을 가질 수 있다.The artificial intelligence learning data provided according to one aspect of the present invention may have the following characteristics.

본 발명의 일 관점에 의해 완성된 AI 학습데이터는 외부에 공개하여 누구라도 쉽게 활용할 수 있도록 제공될 수 있다. 따라서 데이터 접근성을 충분히 고려하여 AI 학습데이터를 설계할 수 있다. The AI learning data completed by one aspect of the present invention can be disclosed to the outside and provided so that anyone can easily utilize it. Therefore, AI learning data can be designed with sufficient consideration of data accessibility.

본 발명에서 이용되는 메타정보는 자율주행 AI 학습을 위한 정보를 저장하도록 설계될 수 있다. 또한, 작업자에 의한 아노테이션과 AI 인식결과 비교, 검사를 위한 기능을 고려하여 설계될 수 있다. Meta information used in the present invention can be designed to store information for self-driving AI learning. In addition, it can be designed considering the function for comparison and inspection of annotation by the operator and AI recognition result.

본 발명의 일 관점에 의해 완성된 AI 학습데이터는, 표지판, 차선 및 횡단보도, 신호등, 및 기타표식으로 지칭되는 대분류(카테고리)로 구분될 수 있다. 상기 표지판 대분류는 규제 표지판과 지시 표지판이라는 중분류로 더 나뉠 수 있다. 상기 차선 및 횡단보도 대분류는 중앙선, 버스전용차선, 유턴, 일반 차선, 길가장자리구역, 진로변경제한선, 스태거드 횡단보도, 대각선 횡단보도, 및 일반 횡단보도라는 중분류로 더 나뉠 수 있다. 상기 신호등 대분류는, 차량신호 4색등, 차량신호 3색등, 차량신호 3색등, 차량신호 2색등, 및 보행신호 2색등이라는 중분류로 더 나뉠 수 있다. 상기 기타 표식 대분류는 공사표지판과 가변정보판이라는 중분류로 더 나뉠 수 있다. 상기 각각의 중분류들은 각각 소정의 1개 이상의 소분류로 나뉠 수 있다.AI learning data completed by one aspect of the present invention can be divided into major categories (categories) referred to as signs, lanes and crosswalks, traffic lights, and other signs. The main classification of the signs may be further divided into a middle category of regulatory signs and instruction signs. The main classification of lanes and crosswalks can be further divided into intermediate categories such as center lines, bus-only lanes, U-turns, general lanes, road edge areas, route change restrictions, staggered crosswalks, diagonal crosswalks, and general crosswalks. The main classification of the traffic lights may be further divided into secondary categories such as a 4-color vehicle signal light, a 3-color vehicle signal light, a 3-color vehicle signal light, a 2-color vehicle signal light, and a 2-color walking signal light. The major classification of other signs may be further divided into a middle category of construction signs and variable information boards. Each of the intermediate categories may be divided into one or more predetermined subcategories.

본 발명의 일 실시예에서, 카테고리별 각 클래스에 대한 충분한 학습데이터를 수집하기 위해, 크라우드 소싱 기반 데이터 수집 플랫폼을 이용하여 예컨대 3,000 시간 이상의 동영상 원천 데이터를 수집할 수 있다. 일 실시예에서 원천 영상 데이터를 지역별 그리고 카테고리의 대분류와 중분류의 분류 기준별로 분류하고, 중분류의 클래스별로 학습데이터를 구축할 수 있다. In one embodiment of the present invention, in order to collect sufficient learning data for each class for each category, for example, more than 3,000 hours of video source data may be collected using a crowdsourcing-based data collection platform. In an embodiment, source image data may be classified according to regions and classification criteria for major categories and intermediate categories, and training data may be constructed for each intermediate category class.

<AI 데이터의 형태><Type of AI data>

본 발명의 일 관점에 따라 제공되는 AI 시스템에서 사용되는 데이터는 다음과 같은 특정을 가질 수 있다. Data used in the AI system provided according to one aspect of the present invention may have the following characteristics.

본 발명의 일 관점에 따라 제공되는 데이터 세트는 (1) 원본 동영상(FHD 해상도), (2) 이미지(jpg), (3) 아노테이션(json)(=주석), (4) 데이터 셋 목록(json-클래스 종류 포함)이다.Data sets provided according to one aspect of the present invention include (1) original video (FHD resolution), (2) image (jpg), (3) annotation (json) (= annotation), (4) data set list ( json-class types included).

아노테이션 항목은 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류(트럭/버스/승용차 등), 촬영 시간, 촬영된 도로의 유형(고속도로/국도), 촬영된 지역(수도권/광역권)의 기록을 위해 제공될 수 있다. 또한 상기 동영상에서 추출된 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 라벨링된 이미지를 포함 URL의 기록을 위해 제공될 수 있다. 또한, 각 이미지에서 추출되는 다수 N개의 클래스에 대해, 클래스 ID (대분류 -> 중분류 -> 클래스)와 바운딩 박스의 위치(왼쪽 상단의 좌표(x,y)와 폭과 높이)를 정의하여 제시할 수 있다.Annotation items include source location for video data, resolution, type of vehicle (truck/bus/passenger car, etc.), recording time, type of road (highway/national highway), and region (metropolitan/metropolitan area) captured. may be provided for the record. In addition, it can be provided for the recording of URLs including the file name, shooting time, shooting location, vehicle speed at the time of shooting, weather at the time of shooting, number of lanes on the road taken, and labeled images for each image data extracted from the video. there is. In addition, for a number of N classes extracted from each image, the class ID (major classification -> middle classification -> class) and the location of the bounding box (coordinates (x,y) and width and height of the upper left corner) are defined and presented. can

본 발명의 일 관점에서는, 아노테이션 형식으로서 json 형식을 사용할 수 있다. 오픈 데이터 세트에는 매트랩(matlab)과 같은 별도의 툴이 있어야 가능한 형태가 있으나 본 발명에서는 범용성을 고려하여 별도의 툴이 없이 가능한 json 형식을 이용할 수 있다. In one aspect of the present invention, a json format may be used as an annotation format. An open data set has a form that requires a separate tool such as matlab, but in the present invention, a json format that is possible without a separate tool can be used in consideration of versatility.

<인공지능 학습용 데이터 구축><Building Data for AI Learning>

본 발명이 일 관점에 따라 제공되는 학습데이터 제작 프로세스는 데이터 수집 단계(S10), 데이터 전처리 단계(S20), 데이터 가공 단계(S30), 데이터 검증 단계(S40), 및 학습데이터세트 생성의 단계(S50)를 포함할 수 있다. The learning data production process provided according to one aspect of the present invention includes data collection step (S10), data preprocessing step (S20), data processing step (S30), data verification step (S40), and learning data set generation step ( S50) may be included.

상기 데이터 수집 단계(S10)에서는, 크라우드 소싱 기반 블랙박스 영상 수집, 수집된 영상에 대한 편향 제거, 그리고 영상 비식별 처리 과정이 순차적으로 수행될 수 있다. 이는 상술한 데이터 정제 프로세스를 포함할 수 있다. In the data collection step (S10), crowd sourcing-based black box image collection, bias removal on the collected image, and image de-identification processing may be sequentially performed. This may include the data cleansing process described above.

이때, 사용자 대상 블랙박스 영상과 해당 영상의 주행 시간과 주행 경로(GPS 모듈 설치 시) 데이터 수집하고, 크라우드소싱 플랫폼을 통한 해당 사용자의 주행 트립단위 OD 데이터(주행 시간, 주행 경로, 주행 거리) 수집이 가능하다. 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지, 원천 데이터 확보가 가능하다.At this time, the black box video for the user and the driving time and driving route (when the GPS module is installed) of the video are collected, and the user's driving trip unit OD data (driving time, driving route, driving distance) is collected through a crowdsourcing platform this is possible It is possible to prevent bias and secure original data by matching the previously held driving information with additionally collected image information.

이때, 수집 영상 데이터에 대한 데이터 편향 제거를 위하여, 최초 블랙박스 영상 수집 시 수도권/광역시별 참여자 인원수를 제한하고, 제보된 블랙박스 영상 데이터와 GPS 정보 매칭을 통해 ① 수도권/광역시 권역 분류, ② 고속도로/국도 분류, 및 ③ 자동차 DB를 통해 차종 분류를 실행할 수 있다. 수집된 영상을 권역, 도로 유형, 자동차 유형에 따라 분류하고 편향이 생기지 않도록 수집된 동영상에 대한 필터링 수행이 이루어질 수 있다.At this time, in order to remove data bias for the collected video data, the number of participants per metropolitan area/metropolitan city is limited when the black box video is collected for the first time, and the reported black box video data and GPS information are matched to ① classify the metropolitan area/metropolitan city area, ② highway / National highway classification, and ③ Car type classification can be executed through the vehicle DB. Collected images may be classified according to region, road type, and vehicle type, and filtering may be performed on the collected images to prevent bias.

그리고 상술한 바와 같이, 개인정보보호를 위해 수집 영상 데이터에 대해 비식별화 처리 수행이 이루어질 수 있다.And, as described above, de-identification processing may be performed on the collected image data to protect personal information.

한편, 획득한 동영상 데이터에서 스틸사진 추출 시 다음이 고려될 수 있다. 이미 그 위치를 확보하여 저장하고 있는 도로 상의 정적객체 대상으로부터 차량의 속도 기준으로 거리를 고려하여 특정 지점 또는 교통정체로 발생하는 중복사진을 제거할 수 있다. Meanwhile, the following may be considered when extracting still pictures from acquired video data. Duplicate photos occurring at a specific point or traffic congestion can be removed by considering the distance based on the speed of the vehicle from the static object target on the road whose location has already been secured and stored.

상기 데이터 전처리 단계(S20)에서, 수집 및 정제된 영상 데이터에 대해, 학습데이터의 카테고리 중 대분류인 차선/횡단보도, 신호등, 교통표지판, 기타표식을 분류하고, 영상 데이터로부터 유효한 이미지 데이터를 추출할 수 있다. In the data pre-processing step (S20), for the collected and refined image data, lanes/crosswalks, traffic lights, traffic signs, and other signs, which are major categories of learning data, are classified, and valid image data is extracted from the image data. can

상기 데이터 전처리 단계(S20)는 다음 단계들을 포함할 수 있다. The data preprocessing step (S20) may include the following steps.

즉, 단계(S21)에서, 준비된 대분류 카테고리를 기준으로 분류를 수행할 학습 모델을 위한 학습데이터 세트(예컨대 4개의 대분류와 56개의 중분류에 대한 총 109개의 클래스에 대한)을 구축하며, 학습을 통해 학습 모델을 생성할 수 있다.That is, in step S21, a learning data set (eg, for a total of 109 classes for 4 major classifications and 56 intermediate classifications) for a learning model to be classified based on the prepared major classification categories is built, and through learning A learning model can be created.

상기 대분류 카테고리(클래스)들은 각각 복수 개의 서브 카테고리들(중분류, 소분류)로 더 구분될 수 있다. Each of the major classification categories (classes) may be further divided into a plurality of subcategories (middle class and small class).

단계(S22)에서, 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터로부터 상기 복수 개의 서브 카테고리에 관한 정적객체를 추출하고, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스(bounding box), 상기 바운딩 박스에 관한 아노테이션을 자동으로 생성할 수 있다.In step S22, static objects related to the plurality of subcategories are extracted from the valid image data by using the generated learning model, and information about the position where the extracted static objects exist in the valid image data A bounding box and annotations related to the bounding box may be automatically generated.

단계(S23)에서, 상기 생성된 아노테이션에 따라 해당 동영상과 이미지를 대분류에 따라 분류를 수행함으로서, 대분류 항목에 따른 동영상과 전처리된 이미지 데이터를 생성할 수 있다.In step S23, the corresponding video and image are classified according to the major classification according to the generated annotation, thereby generating video and preprocessed image data according to the major classification.

상기 데이터 가공 단계(S30)에서는, 상기 데이터 전처리 단계(S20)에서 생성된 바운딩 박스(bounding box)와 아노테이션을 검수자가 확인 및 수정을 수행할 수 있다. 모든 확인 및 수정 작업은 모든 입력작업은 빠르고 정확한 입력을 위해 Key-In방식, Selection방식, 후검증방식, 프리셋(Preset)방식, 자동입력방식, Cross Field Check, Related Field Copy, Reject Packet, Reject Page등 다양한 입력방식을 지원할 수 있다.In the data processing step (S30), the inspector may check and modify the bounding box and annotation generated in the data preprocessing step (S20). Key-In method, Selection method, Post-verification method, Preset method, Automatic input method, Cross Field Check, Related Field Copy, Reject Packet, Reject Page It can support various input methods such as

상기 데이터 검증 단계(S40)에서, 데이터 검증은 딥러닝 알고리즘을 활용한 에러율 검출로 전수 검사를 수행하며, 에러 검출 등 이상이 있는 학습데이터에 대하여 검수자가 직접 확인하고 수정하는 절차로 진행될 수 있다. In the data verification step (S40), the data verification may proceed with a procedure in which a total inspection is performed by error rate detection using a deep learning algorithm, and an inspector directly checks and corrects abnormal learning data such as error detection.

딥 러닝 학습모델을 통해 비정상 아노테이션 데이터를 자동으로 검색할 수 있고, 학습로그에 에러가 검출된 데이터는 데이터 검증과정으로 통해 수정 요청될 수 있으며, 최종 검수를 마친 데이터를 통해 학습데이터 세트를 생성할 수 있으며, 그리고 최종 검수된 학습데이터 세트를 통한 딥러닝 학습 모델의 고도화 수행을 할 수 있다.Abnormal annotation data can be automatically searched through the deep learning learning model, data with errors detected in the learning log can be requested for correction through the data verification process, and a training data set is created through the data that has been finally inspected. And it is possible to perform advanced deep learning learning model through the finally verified training data set.

<학습데이터 제작 및 저장을 위한 인프라><Infrastructure for producing and storing learning data>

본 발명의 일 양상에 따라 학습데이터 제작 및 저장을 위한 인프라 시스템이 제공될 수 있다. 상기 인프라 시스템은 (1) 인공지능과 작업자 간의 협력을 적용한 공정관리 시스템과 (2) 인공지능 AI 인식엔진을 활용한 데이터 수집 분석 시스템을 포함할 수 있다According to one aspect of the present invention, an infrastructure system for producing and storing learning data may be provided. The infrastructure system may include (1) a process management system applying artificial intelligence and cooperation between workers and (2) a data collection and analysis system using an artificial intelligence AI recognition engine.

기존 학습데이터 구축과정은 보통 이미지 처리, 색인정보 입력 및 등록 등 일련의 과정에서 전문적 작업자에 의존한 품질 관리를 하고 있다. In the existing learning data construction process, quality control relied on professional workers in a series of processes such as image processing, index information input and registration.

본 발명에서는 단기간에 많은 학습데이터를 확보해야 할 수 있도록, 다수의 작업자 및 크라우드 소싱 방식을 활용한다. 따라서, 데이터의 품질 확보를 위해 프로세스 정형화, 표준화을 위한 공정관리 자동화가 필요하다. 따라서 대상업무 별 가이드라인, 지침을 탑재(작업자가 쉽게 참조할 수 있도록)한 공정관리 시스템을 활용하여, 인공지능 학습용 데이터의 최상의 품질을 확보할 수 있다. 공정관리 시스템은 그 과정의 일부에 사람이 포함된 관리 시스템일 수 있다.In the present invention, a large number of workers and a crowd sourcing method are used to secure a lot of learning data in a short period of time. Therefore, in order to secure the quality of data, it is necessary to standardize the process and automate process management for standardization. Therefore, it is possible to secure the best quality of AI learning data by utilizing a process management system equipped with guidelines and guidelines for each target task (so that workers can easily refer to them). A process control system can be a control system that involves people as part of the process.

본 발명의 일 양상에 따라 제공되는 학습데이터 생성기술은, 데이터 수집, 데이터 전처리, 데이터 가공, 데이터 검증, 학습데이터 세트 생성의 단계로 구성될 수 있다. Learning data generation technology provided according to an aspect of the present invention may be composed of steps of data collection, data preprocessing, data processing, data verification, and learning data set generation.

이때, 상기 데이터 가공 단계는 사람인 검수자의 검증과 AI의 협업 프로세스로 이루어질 수 있다. 내부 인원의 검수를 통해 높은 정확도를 가진 작업자를 검수자로 선별하여 다수교차 검사 기준을 통과한 데이터만 최종 생산 완료 처리될 수 있다. 수집된 데이터의 모든 과정을 공정관리 플랫폼과 아노테이션 툴에 의해 수행될 수 있다. 1차 아노테이션(객체 추출과 메타, 그리고 대분류 동영상 분류)은 인공지능으로 수행하며, 2차 검증 및 수정을 인력에 의해 수행될 수 있다. 최종 AI 알고리즘 학습 후 데이터 세트 유효성 검증 추가 수행하여 품질을 확보할 수 있다.At this time, the data processing step may consist of a verification of a human inspector and a collaborative process of AI. Through inspection by internal personnel, workers with high accuracy are selected as inspectors, and only data that passes multiple cross-examination standards can be processed for final production completion. All processes of collected data can be performed by process management platform and annotation tool. The first annotation (object extraction, meta, and large category video classification) is performed by artificial intelligence, and the second verification and correction can be performed by human resources. After training the final AI algorithm, data set validation can be additionally performed to ensure quality.

이때, 상술한 데이터 수집 분석 시스템은, 상기 공정관리 시스템의 일부 과정에 참여하는 시스템으로서, 획득한 AI 학습용 데이터를 AI 요소기술을 적용하여 대상 데이터를 자동으로 분류하고 검색할 수 있도록 학습할 수 있다. At this time, the above-described data collection and analysis system is a system that participates in some processes of the process management system, and learns to automatically classify and search target data by applying AI element technology to the acquired AI learning data. .

영상데이터 전처리 단계에서, 수집된 사용자 동영상 데이터에서 예컨대 164개 클래스에 대한 객체를 인식하여, 인식된 객체에 따라 동영상 데이터를 대분류에 따라 자동 분류 및 아노테이션 자동화 기능(메타 생성)을 수행할 수 있다.In the video data pre-processing step, objects for, for example, 164 classes are recognized in the collected user video data, and automatic classification and annotation automation functions (meta creation) can be performed according to the major classification of video data according to the recognized objects. .

본 발명의 일 양상에 따른 원천데이터 확보 방법은, 첫째, 크라우드소싱 기반 기초 데이터 수집 방법으로서 일반 사용자가 자신의 블랙박스로 기촬영한 영상을 수집하여 수집된 데이터를 전처리하는 기술을 포함하며, 둘째, 모집된 상용차(택시, 화물차, 버스)와 전문 촬영 패널 고용을 통해 영상데이터를 보완하여 수집하는 기술을 포함하며, 셋째, 영상 데이터 보유 기관 조사를 통한 요구 영상을 직접 구매하는 방법을 포함할 수 있다. The source data securing method according to one aspect of the present invention is, first, a crowdsourcing-based basic data collection method, which includes a technique of pre-processing the collected data by collecting images previously taken by a general user with a black box; Third, it can include a method of directly purchasing the requested video through an investigation of the institution holding the video data. there is.

본 발명의 일 양상에 따라 제공되는 텍스트 및 아노테이션 생성방법은, AI 학습용 데이터셋 저작도구를 이용하여 확보된 원천데이터를 자동으로 분류하고 검색하는 단계 및 원천데이터 내에 존재하는 문자 및 이미지 인식하여 이로부터 텍스트 및 아노테이션 자동 생성하는 단계를 포함할 수 있다. The text and annotation generation method provided according to one aspect of the present invention includes the steps of automatically classifying and searching source data obtained using an AI learning dataset authoring tool and recognizing characters and images present in the source data, thereby It may include automatically generating text and annotations from

본 발명의 일 관점에 따라 제공하는, 자율주행 및 차세대 지능형 교통서비스에서 객체 인지 AI 학습데이터에 필수적인 원천 데이터에 대한 공간적 범위는 고속도로, 국도, 수도권 및 광역권의 도시고속화도로 및 6차선 이상의 도로를 포함할 수 있다.The spatial range of source data essential for object recognition AI learning data in autonomous driving and next-generation intelligent transportation services provided according to one aspect of the present invention includes highways, national highways, urban expressways in the metropolitan and metropolitan areas, and roads with 6 or more lanes. can do.

본 발명의 일 관점에 따라 제공하는, 자율주행 및 차세대 지능형 교통서비스에서 객체 인지 AI 학습데이터에 필수적인 원천 데이터에 대한 내용적 범위는 노면표시 (차선) 및 횡단지시, 신호등, 도로교통표지판, 규제 표지, 지시 표지, 기타 표지판, 도로공사 구간 전용 표지, 노면 색깔 유도선, 및 ITS 시설물을 포함할 수 있다. According to one aspect of the present invention, the scope of content for source data essential for object recognition AI learning data in autonomous driving and next-generation intelligent transportation services is road marking (lane) and crossing indications, traffic lights, road traffic signs, and regulatory signs. , instruction signs, other signs, signs dedicated to road construction sections, road color guidance lines, and ITS facilities.

구체적으로, 상기 노면표시 (차선) 및 횡당지시는 노면표시는 도로교통의 안전과 원활한 소통을 도모하고 도로 구조를 보존하기 위한 목적으로 제시된 것으로서, 독자적으로 또는 교통안전표지와 신호기를 보완하여 도로이용자에게 규제 또는 지시의 내용을 전달하는 기능을 제공할 수 있다. Specifically, the road surface markings (lanes) and crossing indications are presented for the purpose of promoting the safety and smooth communication of road traffic and preserving the road structure, and are independently or supplemented with traffic safety signs and signals to help road users It can provide the function of delivering the contents of regulations or instructions to the

구체적으로, 상기 신호등은 도로에서의 위험 방지 및 교통안전과 원활한 소통 확보를 위한 복적으로 설치된 것으로서, 도로교통에 관하여 문자ㅇ기호 또는 등화로써 진행ㅇ정지ㅇ방향전환ㅇ주의 등 신호를 표시하여 다양한 교통류에 우선권을 할당하는 기능을 수행할 수 있다.Specifically, the traffic lights are installed to prevent danger on the road and ensure traffic safety and smooth communication, and display signals such as progress ㅇ stop ㅇ direction change ㅇ caution with letters ㅇ symbols or lights in relation to road traffic, so that various types of traffic flow It can perform the function of assigning priority to.

구체적으로, 상기 도로표지판은, 도로이용자에게 일관성 있고 통일된 방법으로 교통안전과 원활한 소통을 도모하고 도로구조와 도로시설물을 보호하기 위해 필요한 각종 정보를 제공하는 목적으로 제공된 것으로서, 교통안전표지는 단독으로 설치되거나, 노면표시 및 신호기와 유기적, 보완적으로 결합하여 설치되는 교통안전시설물로서 교통안전표지의 목적을 달성할 수 있도록 도로이용자에게 주의, 규제, 지시 등의 내용을 전달하는 기능을 제공할 수 있다.Specifically, the road signs are provided for the purpose of providing road users with various information necessary to promote traffic safety and smooth communication in a consistent and unified way and to protect road structures and road facilities. As a traffic safety facility that is installed as a road surface or organically and complementarily installed with road markings and signals, it provides the function of conveying the contents of caution, regulation, instructions, etc. to road users so that the purpose of traffic safety signs can be achieved. can

구체적으로, 상기 기타 항목으로 분류된 원천 데이터는 자율주행차량 주행 시 운행판단에 영향을 미치는 정적 데이터로 결정될 수 있다. 예컨대 도로공사 구간 전용 표지, 노면 색깔 유도선, 기타 ITS 시설물 등으로 분류될 수 있다. Specifically, the original data classified into the other items may be determined as static data that affects driving decisions when driving an autonomous vehicle. For example, it can be classified as a road construction section dedicated sign, road surface color guidance line, and other ITS facilities.

본 발명의 일 관점에 따라 수집되는 자료는, 블랙 박스 영상으로서 차량 내 설치된 영상 촬영 장치로 획득 가능한 실주행 영상일 수 있다. 일반적인 블랙박스 영상 데이터인 30fps, HD(1366x768) 또는 FHD(1920x1080) 수준의 영상자료가 수집될 수 있다. 차량에서 촬영한 영상 데이터로부터 학습용 이미지 데이터 추출하여 학습데이터 셋으로 가공할 수 있다.Data collected according to one aspect of the present invention may be actual driving images obtained by an image capturing device installed in a vehicle as a black box image. 30 fps, HD (1366x768) or FHD (1920x1080) level video data, which are general black box video data, can be collected. Image data for learning may be extracted from image data captured in a vehicle and processed into a learning data set.

블랙박스 기반 주행 영상 데이터는, 첫째, 날씨(비, 눈, 흐림 등)와 시간(야간, 주간)에 영향을 받으며, 둘째, 유리, 빗방울에 의한 빛 번짐 현상 심하며, 셋째, 촬영 카메라 모듈 성능에 따라 수집 영상 품질이 상이하며, 넷째, 블랙박스 자체 시간 설정이 잘못된 경우, 영상 녹화 시간 매핑이 어려우며, 다섯째, GPS 정보 기록을 위해서 별도 외장 모듈 설치 필요하며 (대부분 GPS 모듈 별도), 여섯째, 광시야각을 지원하는 경우, 영상 좌우 왜곡이 있으며, 일곱째, 촬영 영상 상단 또는 하단에 영상 촬영 시간과 위치, 속도 등이 동시 기록된다는 문제점이 있다. Black box-based driving video data is, firstly, affected by weather (rain, snow, cloudy, etc.) and time (night, daytime), secondly, light smearing caused by glass and raindrops is severe, and thirdly, the camera module performance is affected. Fourth, if the black box's own time setting is incorrect, it is difficult to map the video recording time. Fifth, a separate external module is required to record GPS information (in most cases, a separate GPS module). Sixth, a wide viewing angle In the case of supporting, there is a left and right distortion of the image, and seventh, there is a problem that the image capture time, location, speed, etc. are simultaneously recorded at the top or bottom of the captured image.

본 발명의 일 관점에 따라 수집되는 사용자 영상은 크라우드소싱을 통해 수십한 교통 정보 영상일 수 있다. 이를 위해 본 발명에 따라 제공되는 장치는 교통 정보 수집 참여에 따라 참여자에게 포인트 및 혜택을 제공하도록 되어 있을 수 있다. User images collected according to one aspect of the present invention may be dozens of traffic information images through crowdsourcing. To this end, the device provided according to the present invention may provide points and benefits to participants according to their participation in traffic information collection.

본 발명의 일 관점에 따라 제공되는 장치는, 수집된 사용자 영상 데이터에 대해 GPS 매칭을 통해 데이터 정제하는 단계를 수행하도록 되어 있을 수 있다. 이때, 지역별, 시간별, 날씨별, 차종별, 도로유형별 데이터 편향이 방지된, 주어진 시간 예컨대 1,000시간의 영상 데이터를 획득할 수 있다. An apparatus provided according to one aspect of the present invention may be configured to perform data refinement through GPS matching on collected user image data. In this case, image data for a given time, for example, 1,000 hours, in which data bias is prevented for each region, time, weather, vehicle type, and road type, may be obtained.

이때, 상기 장치는 개인정보 보호를 위한 영상 비식별화 처리 수행할 수 있다. 예컨대 출발지/도착지 클립을 삭제할 수 있다. 정제된 영상에서 이미지 추출을 통해 이미지 데이터를 확보할 수 있다. 데이터 정제 과정을 통해 대분류 수준 데이터를 분류할 수 있다. 수집된 영상의 사용자 입력 또는 1차 검수를 통해 이동 구간, 날씨 등 정보를 획득할 수 있다.At this time, the device may perform image de-identification processing for personal information protection. For example, you can delete origin/destination clips. Image data can be secured through image extraction from refined images. Through the data refinement process, the large classification level data can be classified. Information such as movement section and weather can be obtained through user input or primary inspection of the collected images.

<전체 시스템><whole system>

본 발명의 일 관점에 따라 제공되는 원천 데이터 수집 방법은, 첫째, 크라우드소싱 방식을 통해 블랙박스 영상을 우선 확보하는 단계, 둘째, 데이터 수집 편향을 방지하기 위해서 상기 확보된 블랙박스 영상을 GPS 매칭을 통해 지역별, 차종별, 도로유형별로 분류하는 단계, 셋째, 패널을 선정하여 선정된 패널의 차량에 촬영장치를 설치하고 설치된 촬영장치로부터 영상 데이터를 수거함으로써 패널을 통해 영상 데이터를 보완하는 단계, 넷째, 영상 공급업체의 서버로부터 획들한 영상으로부터 요구 영상을 식별하여 식별된 요구 영상을 구매함으로써 영상 데이터를 보완하는 단계를 포함할 수 있다. The source data collection method provided according to one aspect of the present invention includes, firstly, first securing a black box image through a crowdsourcing method, and second, performing GPS matching on the obtained black box image to prevent data collection bias. Third, selecting a panel, installing a photographing device in the vehicle of the selected panel, and collecting image data from the installed photographing device to supplement the image data through the panel. Fourth, The method may include supplementing image data by identifying a requested image from an image obtained from a server of an image supplier and purchasing the identified requested image.

구체적으로 상기 크라우드소싱 플랫폼을 활용하는 경우, 저렴한 가격에 빠르게 많은 데이터 확보 가능지만, 데이터 편향 방지를 위해서 학습데이터 가공 전 활용 가능한 데이터 전처리를 할 수 있고, 별도 개인정보활용 동의 절차를 수행하기 위한 단계를 실행할 수 있다. Specifically, when using the crowdsourcing platform, it is possible to quickly secure a lot of data at a low price, but in order to prevent data bias, it is possible to pre-process available data before processing learning data, and to perform a separate consent procedure for use of personal information. can run

구체적으로 상기 패널 활용의 경우, 패널 모집을 통해 원천 데이터 편향 수집 방지 가능하다는 장점 및 별도 장비 설치를 통해 원천 데이터 품질 관리 가능하다는 장점이 있으나, 원천 데이터 확보 시간이 오래 걸린다.Specifically, in the case of using the panel, it has the advantage of being able to prevent source data bias collection through panel recruitment and the advantage of being able to manage the quality of source data through the installation of separate equipment, but it takes a long time to obtain source data.

구체적으로 상기 데이터 직접 구매 방법의 경우, 원천 데이터 확보 기업 조사가 필요하며, 며, 크라우드소싱이나 패널 활용에 비해 비싸다. 그러나 별도 패널 고용 없이 빠른 영상 데이터 확보가 가능하며 별도 인력 고용이 필요 없다. Specifically, in the case of the direct data purchase method, it is necessary to investigate the source data securing company, and it is expensive compared to crowdsourcing or panel utilization. However, it is possible to secure image data quickly without hiring a separate panel, and there is no need to hire additional personnel.

<크라우드소싱 플랫폼> <Crowdsourcing Platform>

본 발명의 일 관점에 따라 제공되는 크라우드소싱 플랫폼 시스템은, (1) 영상 추가 수집 프로모션을 통해 영상 제공에 따른 추가 포인트(또는 현금)를 개인에게 지급하기 위한 프로모션 서버, (2) 대용량 영상 데이터 전송을 위해 제공되는 파일 업로드 및 추가 서버 스토리지 장치, 및 (3) 원천 데이터 확보 서버를 포함할 수 있다. The crowdsourcing platform system provided according to one aspect of the present invention includes (1) a promotion server for paying additional points (or cash) according to video provision to individuals through additional video collection promotion, (2) transmission of large-capacity video data. It may include a file upload and additional server storage device provided for, and (3) a source data acquisition server.

상기 원천 데이터 확보 서버는 (1) 기수집된 주행정보와 영상 정보를 서로 매칭하여 분류함으로써 영상과 주행 정보를 서로 매칭하는 매칭 파트, 및 (2) 지역, 사용자, 주행 정보 매칭을 이용하여 데이터 수집 편향 방지를 위한 기능을 수행하는 편향제거 파트를 포함할 수 있다.The original data securing server collects data by using (1) a matching part that matches images and driving information by matching and classifying previously collected driving information and image information, and (2) region, user, and driving information matching. It may include a deflection removal part that performs a function for preventing deflection.

상기 프로모션 서버는 (1) 영상 활용 및 보상 지급에 대한 개인의 개인정보 활용 동의 프로세스를 처리하는 개인정보활용동의 파트, (2) 주어진 현금 보상 체계에 따라 포인트 대신 현금을 상기 개인에게 제공하는 보상 파트, 및 (3) 영상 수집 프로모션 안내 콘텐츠를 상기 개인에게 제공하는 콘텐츠 파트를 포함할 수 있다. The promotion server includes (1) a personal information usage consent part that handles the individual's personal information use agreement process for video use and reward payment, (2) a reward part that provides cash instead of points to the individual according to a given cash reward system , and (3) a content part for providing video collection promotion guide content to the individual.

상기 크라우드소싱 플랫폼 시스템은 학습데이터 대비 10배수의 영상 데이터를 수집하도록 되어 있을 수 있다. 이때, (1) 정적객체를 포함하는 영상 조건에 따라 영상을 수집하고, (2) 데이터 매칭 분류를 위해 영상 메타데이터를 분석하고, 사용자 입력을 가능하게 하는 기능을 더 포함할 수 있다.The crowdsourcing platform system may be configured to collect image data 10 times greater than learning data. In this case, functions of (1) collecting images according to image conditions including static objects, (2) analyzing image metadata for data matching classification, and enabling user input may be further included.

상기 크라우드소싱 플랫폼 시스템은 영상 데이터 수집을 위하여, 상기 파일 업로드 및 추가 서버 스토리지 장치와 같은 웹하드를 이용하여 상기 영상 데이터를 수집할 수 있다. The crowdsourcing platform system may collect the image data by using web hard such as the file upload and additional server storage devices for image data collection.

이때, 상기 개인정보활용동의 파트는 영상 정보 활용에 대한 동의를 상기 개인으로부터 입력받을 수 있다. In this case, the consent to use of personal information part may receive consent to use of image information from the individual.

이때, 상기 매칭 파트는 GPS 정보 매칭 여부를 검증함으로써, 영상과 주행정보가 서로 매칭되었는지 여부를 인증할 수 있으며, 영상 내 포함 정보 식별을 위하여 사용자 입력 방식의 1차 입력을 받아들일 수 있다. 상기 1차 입력은 지역도로인지 아니면 고속도로 또는 국도인지 여부를 구분하는 입력일 수 있다. At this time, the matching part can verify whether the GPS information matches, thereby authenticating whether the video and the driving information match each other, and can accept a primary input of a user input method to identify information included in the video. The first input may be an input for distinguishing whether it is a local road, a highway, or a national road.

이때, 상기 보상 파트는 상기 매칭 결과에 따라 포인트 또는 현금 보상을 상기 개인이게 제공하는 프로세스를 수행하도록 되어 있을 수 있다.At this time, the compensation part may be configured to perform a process of providing points or cash compensation to the individual according to the matching result.

이때, 상기 파일 업로드 및 추가 서버 스토리지 장치와 같은 웹하드를 통해 영상 데이터가 상기 개인으로부터 업로드될 수 있다. 업로드된 영상은 상기 원천 데이터 확보 서버가 이용할 수 있다. At this time, image data may be uploaded from the individual through a web hard such as the file upload and additional server storage device. The uploaded video can be used by the original data securing server.

이때, 상기 편향제거 파트는 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지 기능을 수행할 수 있다. At this time, the deflection removal part may perform a deflection prevention function by matching previously held driving information with additionally collected image information.

<패널 모집 방식의 영상 데이터 보완><Supplementation of video data of panel recruitment method>

상기 크라우드소싱 플랫폼 시스템을 통해 획득한 영상 데이터에는 원하는 영상 데이터가 포함되어 있지 않을 수 있다. 이를 극복하기 위하여 본 발명의 일 관점에 따른 영상 데이터 보완 방법에서는 모집된 패널을 이용할 수 있다. Image data obtained through the crowdsourcing platform system may not include desired image data. In order to overcome this problem, a recruited panel may be used in the method for supplementing image data according to one aspect of the present invention.

상기 크라우드소싱 플랫폼 시스템을 통해 획득한 원천 데이터를 분류하고, 시내/시외, 고속도로/국도, 날씨, 시간대별 수집 데이터를 한정하여 패널 모집을 통해 초기 수집 데이터 보완할 수 있다. The original data obtained through the crowdsourcing platform system can be classified, and the initial collected data can be supplemented through panel recruitment by limiting collected data by city/outside city, highway/national road, weather, and time zone.

패널의 선정은 상기 크라우드소싱 플랫폼 시스템을 통해 획득한 원천 데이터에 따라 이루어질 수 있다. Selection of the panel may be made according to original data acquired through the crowdsourcing platform system.

패널은 상용차 운전자 패널와 전문 패널로 구분될 수 있다.Panels can be divided into commercial vehicle driver panels and specialized panels.

상기 상용차 운전자 패널은 운행거리가 상대적으로 긴 운전자 대상으로 선정될 수 있다. 상기 전문 패널은 일종의 고용된 패널로서 QHD급 블랙박스 설치를 통해 고화질 영상 데이터 수집하는 패널을 의미할 수 있다. 패널들이 확보한 영상 데이터는 웹하드를 이용한 온라인 접수하거나 또는 직접 수거할 수 있다.The driver panel of the commercial vehicle may be selected for a driver having a relatively long driving distance. The professional panel is a kind of hired panel and may mean a panel that collects high-definition image data through the installation of a QHD-level black box. The video data secured by the panelists can be received online using webhard or directly collected.

<데이터 직접 구매 방식의 영상 데이터 보완><Supplementation of video data by purchasing data directly>

여객 자동차 운송 사업에 사용되는 차량의 경우, 교통사고 상황 파악, 범죄 예방 및 증거 확보를 위해 영상기록장치가 의무 장착될 수 있다. 시내/시외버스 운송사업자와 같은 여객 자동차 운송 사업자 대상으로 데이터를 직접 구매할 수 있다.In the case of vehicles used in the passenger car transport business, video recording devices can be installed for the purpose of identifying traffic accident situations, preventing crimes, and securing evidence. Data can be purchased directly from passenger vehicle transport operators, such as city/intercity bus transport operators.

구매한 영상 데이터와 이미지 데이터는 정제될 수 있다. 구매한 상기 영상 데이터의 정제과정에서, 블랙박스 영상과 GPS 정보 매칭을 통해 지역, 차종, 도로유형 분류, 비식별화 처리를 통해 원본 영상 데이터 확보할 수 있다. 구매한 상기 영상 데이터로부터 영상 프레임 단위 이미지를 추출하고, 전처리 영상 인식을 통해 대분류 수준(횡단보도, 표지판, 신호등) 분류, 이미지 데이터 확보를 실행할 수 있다.The purchased image data and image data may be refined. In the process of refining the purchased image data, it is possible to secure original image data through region, vehicle type, road type classification, and de-identification processing through matching black box image and GPS information. It is possible to extract an image frame unit image from the purchased image data, classify a large classification level (crosswalk, sign, traffic light) and secure image data through preprocessing image recognition.

<데이터 정제 프로세스><Data cleaning process>

본 발명의 일 관점에 따라 제공되는 데이터 정제 방법은, 상술한 상기 크라우드소싱 플랫폼 시스템을 이용하여 확보한 영상 데이터와 이미지 데이터를 정제할 수 있다. A data purification method provided according to one aspect of the present invention may refine image data and image data secured using the crowdsourcing platform system described above.

상기 원천 데이터 확보 서버는 블랙박스 영상과 GPS 정보 매칭을 통해 지역, 차종, 도로유형 분류, 비식별화 처리를 통해 원본 영상 데이터를 확보할 수 있다. 또한 영상 프레임 단위 이미지를 추출하고, 전처리 영상 인식을 통해 대분류 수준(횡단보도, 표지판, 신호등) 분류하여 이미지 데이터를 확보할 수 있다. The source data securing server may secure original image data through region, vehicle type, road type classification, and non-identification processing through matching black box image and GPS information. In addition, it is possible to secure image data by extracting image frame units and classifying large classification levels (crosswalks, signs, traffic lights) through preprocessing image recognition.

상기 원천 데이터 확보 서버는, (1) 크라우드소싱 기반 블랙박스 영상을 수집하는 단계, (2) 수집된 영상에 있어서의 데이터 편향을 제거하는 단계, (3) 수집된 영상에서 일부 정보의 비식별처리를 수행하는 단계, (4) 수집된 영상에서 이미지를 추출하는 단계, 및 (5) 추출한 이미지로부터 정제된 데이터를 획득하는 단계를 실행하도록 되어 있을 수 있다.The original data securing server includes (1) collecting black box images based on crowdsourcing, (2) removing data bias from the collected images, (3) de-identifying some information from the collected images. , (4) extracting images from the collected images, and (5) obtaining refined data from the extracted images.

상기 원천 데이터 확보 서버는, 수집 영상 데이터에 대한 편향 방지를 위하여, (1) 최초 블랙박스 영상 수집 시 수도권/광역시별 참여자 인원수를 제한하는 단계, (2) 제보된 블랙박스 영상 데이터와 GPS 정보 매칭을 통해 ① 수도권/광역시 권역 분류, ② 고속도로/국도 분류, ③ 자동차 DB를 통해 차종 분류를 수행할 수 있다. The source data securing server, in order to prevent bias in collected image data, (1) limiting the number of participants by metropolitan area/metropolitan city when collecting black box images for the first time, (2) matching reported black box image data and GPS information Through, it is possible to perform ① metropolitan/metropolitan area classification, ② highway/national highway classification, and ③ vehicle type classification through the car DB.

상기 원천 데이터 확보 서버는, 수집 영상 데이터에 대해 다음과 같은 단계를 포함하는 비식별화 처리를 수행하는 프로세스를 실행할 수 있다. 첫째 단계에서, 수집 영상으로부터 출발지 및 도착지 시점의 전/후 구간을 삭제하고, 둘째 단계에서, 수집 영상으로부터 영상 외 음성 정보 삭제하고, 셋째 단계에서, 수집 영상으로부터 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별처리할 수 있고, 넷째 단계에서, AI 학습데이터 가공 전에 교통사고 장면을 삭제하고, 다섯째 단계에서, 횡단보도 정차 시 보행자 비식별 처리를 수행하고, 여섯째 단계에서, 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리할 수 있다. 위 둘째 내지 여섯째 단계는 차량의 출발 및 도착을 제외한 사이 구간에서의 주행 영상에 대하여 실행하는 것일 수 있다.The source data securing server may execute a process of performing de-identification processing including the following steps on the collected image data. In the first step, the sections before and after the point of departure and destination are deleted from the collected images, in the second step, audio information other than the images are deleted from the collected images, and in the third step, the forward driving vehicle and the vehicle in the next lane are deleted from the collected images. The number can be de-identified, in the fourth step, the traffic accident scene is deleted before AI learning data processing, in the fifth step, pedestrian de-identification is performed when stopping at a crosswalk, and in the sixth step, a black box video is captured Time and location information can be de-identified. The second to sixth steps above may be executed for driving images in intervals other than the departure and arrival of the vehicle.

<인공지능 학습용 데이터 설계><Designing Data for AI Learning>

본 발명의 일 관점에 따라 제공되는 인공지능 학습용 데이터는 다음과 같은 특징을 가질 수 있다.The artificial intelligence learning data provided according to one aspect of the present invention may have the following characteristics.

본 발명의 일 관점에 의해 완성된 AI 학습데이터는 외부에 공개하여 누구라도 쉽게 활용할 수 있도록 제공될 수 있다. 따라서 데이터 접근성을 충분히 고려하여 AI 학습데이터를 설계할 수 있다. The AI learning data completed by one aspect of the present invention can be disclosed to the outside and provided so that anyone can easily utilize it. Therefore, AI learning data can be designed with sufficient consideration of data accessibility.

본 발명에서 이용되는 메타정보는 자율주행 AI 학습을 위한 정보를 저장하도록 설계될 수 있다. 또한, 작업자에 의한 아노테이션과 AI 인식결과 비교, 검사를 위한 기능을 고려하여 설계될 수 있다. Meta information used in the present invention can be designed to store information for self-driving AI learning. In addition, it can be designed considering the function for comparison and inspection of annotation by the operator and AI recognition result.

본 발명의 일 관점에 의해 완성된 AI 학습데이터는, 표지판, 차선 및 횡단보도, 신호등, 및 기타표식으로 지칭되는 대분류(카테고리)로 구분될 수 있다. 상기 표지판 대분류는 규제 표지판과 지시 표지판이라는 중분류로 더 나뉠 수 있다. 상기 차선 및 횡단보도 대분류는 중앙선, 버스전용차선, 유턴, 일반 차선, 길가장자리구역, 진로변경제한선, 스태거드 횡단보도, 대각선 횡단보도, 및 일반 횡단보도라는 중분류로 더 나뉠 수 있다. 상기 신호등 대분류는, 차량신호 4색등, 차량신호 3색등, 차량신호 3색등, 차량신호 2색등, 및 보행신호 2색등이라는 중분류로 더 나뉠 수 있다. 상기 기타 표식 대분류는 공사표지판과 가변정보판이라는 중분류로 더 나뉠 수 있다. 상기 각각의 중분류들은 각각 소정의 1개 이상의 소분류로 나뉠 수 있다.AI learning data completed by one aspect of the present invention can be divided into major categories (categories) referred to as signs, lanes and crosswalks, traffic lights, and other signs. The main classification of signs may be further divided into a middle category of regulatory signs and instruction signs. The main classification of lanes and crosswalks can be further divided into intermediate categories such as center lines, bus-only lanes, U-turns, general lanes, road edge areas, route change restrictions, staggered crosswalks, diagonal crosswalks, and general crosswalks. The main classification of traffic lights may be further divided into secondary categories such as 4-color vehicle signal lights, 3-color vehicle signal lights, 3-color vehicle signal lights, 2-color vehicle signal lights, and 2-color walking signal lights. The major classification of other signs may be further divided into a middle category of construction signs and variable information boards. Each of the middle categories may be divided into one or more predetermined sub-categories.

본 발명의 일 실시예에서, 카테고리별 각 클래스에 대한 충분한 학습데이터를 수집하기 위해, 크라우드 소싱 기반 데이터 수집 플랫폼을 이용하여 예컨대 3,000 시간 이상의 동영상 원천 데이터를 수집할 수 있다. 일 실시예에서 원천 영상 데이터를 지역별 그리고 카테고리의 대분류와 중분류의 분류 기준별로 분류하고, 중분류의 클래스별로 학습데이터를 구축할 수 있다. In one embodiment of the present invention, in order to collect sufficient learning data for each class for each category, for example, more than 3,000 hours of video source data may be collected using a crowdsourcing-based data collection platform. In an embodiment, source image data may be classified according to regions and classification criteria for major categories and intermediate categories, and training data may be constructed for each intermediate category class.

<AI 데이터의 현태><Current status of AI data>

본 발명의 일 관점에 따라 제공되는 AI 시스템에서 사용되는 데이터는 다음과 같은 특정을 가질 수 있다. Data used in the AI system provided according to one aspect of the present invention may have the following characteristics.

본 발명의 일 관점에 따라 제공되는 데이터 세트는 (1) 원본 동영상(FHD 해상도), (2) 이미지(jpg), (3) 아노테이션(json)(=주석), (4) 데이터 셋 목록(json-클래스 종류 포함)이다.Data sets provided according to one aspect of the present invention include (1) original video (FHD resolution), (2) image (jpg), (3) annotation (json) (= annotation), (4) data set list ( json-class types included).

아노테이션 항목은 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류(트럭/버스/승용차 등), 촬영 시간, 촬영된 도로의 유형(고속도로/국도), 촬영된 지역(수도권/광역권)의 기록을 위해 제공될 수 있다. 또한 상기 동영상에서 추출된 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 라벨링된 이미지를 포함 URL의 기록을 위해 제공될 수 있다. 또한, 각 이미지에서 추출되는 다수 N개의 클래스에 대해, 클래스 ID (대분류 -> 중분류 -> 클래스)와 바운딩 박스의 위치(왼쪽 상단의 좌표(x,y)와 폭과 높이)를 정의하여 제시할 수 있다.Annotation items include source location for video data, resolution, type of vehicle (truck/bus/passenger car, etc.), recording time, type of road (highway/national highway), and region (metropolitan/metropolitan area) captured. may be provided for the record. In addition, it can be provided for the recording of URLs including the file name, shooting time, shooting location, vehicle speed at the time of shooting, weather at the time of shooting, number of lanes on the road taken, and labeled images for each image data extracted from the video. there is. In addition, for a number of N classes extracted from each image, the class ID (major classification -> middle classification -> class) and the location of the bounding box (coordinates (x,y) and width and height of the upper left corner) are defined and presented. can

본 발명의 일 관점에서는, 아노테이션 형식으로서 json 형식을 사용할 수 있다. 오픈 데이터 세트에는 매트랩(matlab)과 같은 별도의 툴이 있어야 가능한 형태가 있으나 본 발명에서는 범용성을 고려하여 별도의 툴이 없이 가능한 json 형식을 이용할 수 있다. In one aspect of the present invention, a json format may be used as an annotation format. An open data set has a form that requires a separate tool such as matlab, but in the present invention, a json format that is possible without a separate tool can be used in consideration of versatility.

<인공지능 학습용 데이터 구축><Building Data for AI Learning>

본 발명이 일 관점에 따라 제공되는 학습데이터 제작 프로세스는 데이터 수집 단계(S10), 데이터 전처리 단계(S20), 데이터 가공 단계(S30), 데이터 검증 단계(S40), 및 학습데이터세트 생성의 단계(S50)를 포함할 수 있다. The learning data production process provided according to one aspect of the present invention includes data collection step (S10), data preprocessing step (S20), data processing step (S30), data verification step (S40), and learning data set generation step ( S50) may be included.

상기 데이터 수집 단계(S10)에서는, 크라우드 소싱 기반 블랙박스 영상 수집, 수집된 영상에 대한 편향 제거, 그리고 영상 비식별 처리 과정이 순차적으로 수행될 수 있다. 이는 상술한 데이터 정제 프로세스를 포함할 수 있다. In the data collection step (S10), crowd sourcing-based black box image collection, bias removal on the collected image, and image de-identification processing may be sequentially performed. This may include the data cleansing process described above.

이때, 사용자 대상 블랙박스 영상과 해당 영상의 주행 시간과 주행 경로(GPS 모듈 설치 시) 데이터 수집하고, 크라우드소싱 플랫폼을 통한 해당 사용자의 주행 트립단위 OD 데이터(주행 시간, 주행 경로, 주행 거리) 수집이 가능하다. 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지, 원천 데이터 확보가 가능하다.At this time, the black box video for the user and the driving time and driving route (when the GPS module is installed) of the video are collected, and the user's driving trip unit OD data (driving time, driving route, driving distance) is collected through a crowdsourcing platform this is possible It is possible to prevent bias and secure original data by matching the previously held driving information with additionally collected image information.

이때, 수집 영상 데이터에 대한 데이터 편향 제거를 위하여, 최초 블랙박스 영상 수집 시 수도권/광역시별 참여자 인원수를 제한하고, 제보된 블랙박스 영상 데이터와 GPS 정보 매칭을 통해 ① 수도권/광역시 권역 분류, ② 고속도로/국도 분류, 및 ③ 자동차 DB를 통해 차종 분류를 실행할 수 있다. 수집된 영상을 권역, 도로 유형, 자동차 유형에 따라 분류하고 편향이 생기지 않도록 수집된 동영상에 대한 필터링 수행이 이루어질 수 있다.At this time, in order to remove data bias for the collected video data, the number of participants per metropolitan area/metropolitan city is limited when the black box video is collected for the first time, and the reported black box video data and GPS information are matched to ① classify the metropolitan area/metropolitan city area, ② highway / National highway classification, and ③ Vehicle type classification can be executed through the vehicle DB. Collected images may be classified according to region, road type, and vehicle type, and filtering may be performed on the collected images to prevent bias.

그리고 상술한 바와 같이, 개인정보보호를 위해 수집 영상 데이터에 대해 비식별화 처리 수행이 이루어질 수 있다.And, as described above, de-identification processing may be performed on the collected image data to protect personal information.

한편, 획득한 동영상 데이터에서 스틸사진 추출 시 다음이 고려될 수 있다. 이미 그 위치를 확보하여 저장하고 있는 도로 상의 정적객체 대상으로부터 차량의 속도 기준으로 거리를 고려하여 특정 지점 또는 교통정체로 발생하는 중복사진을 제거할 수 있다. Meanwhile, the following may be considered when extracting still pictures from acquired video data. Duplicate photos occurring at a specific point or traffic congestion can be removed by considering the distance based on the speed of the vehicle from the static object target on the road whose location has already been secured and stored.

상기 데이터 전처리 단계(S20)에서, 수집 및 정제된 영상 데이터에 대해, 학습데이터의 카테고리 중 대분류인 차선/횡단보도, 신호등, 교통표지판, 기타표식을 분류하고, 영상 데이터로부터 유효한 이미지 데이터를 추출할 수 있다. In the data pre-processing step (S20), for the collected and refined image data, lanes/crosswalks, traffic lights, traffic signs, and other signs, which are major categories of learning data, are classified, and valid image data is extracted from the image data. can

상기 데이터 전처리 단계(S20)는 다음 단계들을 포함할 수 있다. The data preprocessing step (S20) may include the following steps.

즉, 단계(S21)에서, 준비된 대분류 카테고리를 기준으로 분류를 수행할 학습 모델을 위한 학습데이터 세트(예컨대 4개의 대분류와 56개의 중분류에 대한 총 109개의 클래스에 대한)을 구축하며, 학습을 통해 학습 모델을 생성할 수 있다.That is, in step S21, a learning data set (eg, for a total of 109 classes for 4 major classifications and 56 intermediate classifications) for a learning model to be classified based on the prepared major classification categories is built, and through learning A learning model can be created.

상기 대분류 카테고리(클래스)들은 각각 복수 개의 서브 카테고리들(중분류, 소분류)로 더 구분될 수 있다. Each of the major classification categories (classes) may be further divided into a plurality of subcategories (middle class and small class).

단계(S22)에서, 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터로부터 상기 복수 개의 서브 카테고리에 관한 정적객체를 추출하고, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스(bounding box), 상기 바운딩 박스에 관한 아노테이션을 자동으로 생성할 수 있다.In step S22, static objects related to the plurality of subcategories are extracted from the valid image data by using the generated learning model, and information about the position where the extracted static objects exist in the valid image data A bounding box and annotations related to the bounding box may be automatically generated.

단계(S23)에서, 상기 생성된 아노테이션에 따라 해당 동영상과 이미지를 대분류에 따라 분류를 수행함으로서, 대분류 항목에 따른 동영상과 전처리된 이미지 데이터를 생성할 수 있다.In step S23, the corresponding video and image are classified according to the major classification according to the generated annotation, thereby generating video and preprocessed image data according to the major classification.

상기 데이터 가공 단계(S30)에서는, 상기 데이터 전처리 단계(S20)에서 생성된 bounding box와 아노테이션을 검수자가 확인 및 수정을 수행할 수 있다. 모든 확인 및 수정 작업은 모든 입력작업은 빠르고 정확한 입력을 위해 Key-In방식, Selection방식, 후검증방식, Preset방식, 자동입력방식, Cross Field Check, Related Field Copy, Reject Packet, Reject Page등 다양한 입력방식을 지원할 수 있다.In the data processing step (S30), the inspector can check and modify the bounding box and annotation created in the data preprocessing step (S20). All checks and corrections are performed through various inputs such as Key-In method, Selection method, Post-verification method, Preset method, Automatic input method, Cross Field Check, Related Field Copy, Reject Packet, Reject Page, etc. for fast and accurate input. method can be supported.

상기 데이터 검증 단계(S40)에서, 데이터 검증은 딥러닝 알고리즘을 활용한 에러율 검출로 전수 검사를 수행하며, 에러 검출 등 이상이 있는 학습데이터에 대하여 검수자가 직접 확인하고 수정하는 절차로 진행될 수 있다. In the data verification step (S40), the data verification may proceed with a procedure in which a total inspection is performed by error rate detection using a deep learning algorithm, and an inspector directly checks and corrects abnormal learning data such as error detection.

딥 러닝 학습모델을 통해 비정상 아노테이션 데이터를 자동으로 검색할 수 있고, 학습로그에 에러가 검출된 데이터는 데이터 검증과정으로 통해 수정 요청될 수 있으며, 최종 검수를 마친 데이터를 통해 학습데이터 세트를 생성할 수 있으며, 그리고 최종 검수된 학습데이터 세트를 통한 딥러닝 학습 모델의 고도화 수행을 할 수 있다.Abnormal annotation data can be automatically searched through the deep learning learning model, data with errors detected in the learning log can be requested for correction through the data verification process, and a training data set is created through the data that has been finally inspected. And it is possible to perform advanced deep learning learning model through the finally verified training data set.

<학습데이터 제작 및 저장을 위한 인프라><Infrastructure for producing and storing learning data>

본 발명의 일 양상에 따라 학습데이터 제작 및 저장을 위한 인프라 시스템이 제공될 수 있다. 상기 인프라 시스템은 (1) 인공지능과 작업자 간의 협력을 적용한 공정관리 시스템과 (2) 인공지능 AI 인식엔진을 활용한 데이터 수집 분석 시스템을 포함할 수 있다According to one aspect of the present invention, an infrastructure system for producing and storing learning data may be provided. The infrastructure system may include (1) a process management system applying artificial intelligence and cooperation between workers and (2) a data collection and analysis system using an artificial intelligence AI recognition engine.

기존 학습데이터 구축과정은 보통 이미지 처리, 색인정보 입력 및 등록 등 일련의 과정에서 전문적 작업자에 의존한 품질 관리를 하고 있다. In the existing learning data construction process, quality control relied on professional workers in a series of processes such as image processing, index information input and registration.

본 발명에서는 단기간에 많은 학습데이터를 확보해야 할 수 있도록, 다수의 작업자 및 크라우드 소싱 방식을 활용한다. 따라서, 데이터의 품질 확보를 위해 프로세스 정형화, 표준화를 위한 공정관리 자동화가 필요하다. 따라서 대상업무 별 가이드라인, 지침을 탑재(작업자가 쉽게 참조할 수 있도록)한 공정관리 시스템을 활용하여, 인공지능 학습용 데이터의 최상의 품질을 확보할 수 있다. 공정관리 시스템은 그 과정의 일부에 사람이 포함된 관리 시스템일 수 있다.In the present invention, a large number of workers and a crowd sourcing method are used to secure a lot of learning data in a short period of time. Therefore, in order to secure the quality of data, it is necessary to standardize the process and automate process management for standardization. Therefore, it is possible to secure the best quality of AI learning data by utilizing a process management system equipped with guidelines and guidelines for each target task (so that workers can easily refer to them). A process control system can be a control system that involves people as part of the process.

본 발명의 일 양상에 따라 제공되는 학습데이터 생성기술은, 데이터 수집, 데이터 전처리, 데이터 가공, 데이터 검증, 학습데이터 세트 생성의 단계로 구성될 수 있다. Learning data generation technology provided according to an aspect of the present invention may be composed of steps of data collection, data preprocessing, data processing, data verification, and learning data set generation.

이때, 상기 데이터 가공 단계는 사람인 검수자의 검증과 AI의 협업 프로세스로 이루어질 수 있다. 내부 인원의 검수를 통해 높은 정확도를 가진 작업자를 검수자로 선별하여 다수교차 검사 기준을 통과한 데이터만 최종 생산 완료 처리될 수 있다. 수집된 데이터의 모든 과정을 공정관리 플랫폼과 아노테이션 툴에 의해 수행될 수 있다. 1차 아노테이션(객체 추출과 메타, 그리고 대분류 동영상 분류)은 인공지능으로 수행하며, 2차 검증 및 수정을 인력에 의해 수행될 수 있다. 최종 AI 알고리즘 학습 후 데이터 세트 유효성 검증 추가 수행하여 품질을 확보할 수 있다.At this time, the data processing step may consist of a verification of a human inspector and a collaborative process of AI. Through inspection by internal personnel, workers with high accuracy are selected as inspectors, and only data that passes multiple cross-examination standards can be processed for final production completion. All processes of collected data can be performed by process management platform and annotation tool. The first annotation (object extraction, meta, and large category video classification) is performed by artificial intelligence, and the second verification and correction can be performed by human resources. After training the final AI algorithm, data set validation can be additionally performed to ensure quality.

이때, 상술한 데이터 수집 분석 시스템은, 상기 공정관리 시스템의 일부 과정에 참여하는 시스템으로서, 획득한 AI 학습용 데이터를 AI 요소기술을 적용하여 대상 데이터를 자동으로 분류하고 검색할 수 있도록 학습할 수 있다. At this time, the above-described data collection and analysis system is a system that participates in some processes of the process management system, and learns to automatically classify and search target data by applying AI element technology to the acquired AI learning data. .

영상데이터 전처리 단계에서, 수집된 사용자 동영상 데이터에서 예컨대 164개 클래스에 대한 객체를 인식하여, 인식된 객체에 따라 동영상 데이터를 대분류에 따라 자동 분류 및 아노테이션 자동화 기능(메타 생성)을 수행할 수 있다.In the video data pre-processing step, objects for, for example, 164 classes are recognized in the collected user video data, and automatic classification and annotation automation functions (meta creation) can be performed according to the major classification of video data according to the recognized objects. .

본 발명에 따르면, 이미 수집되어 있는 도로와 관련된 다양한 정적객체에 관한 정보를 이용하여 도로의 포장상태에 따른 운전자 및 자율주행 차량의 이미지 검출 및 시인성 정도 판단하는 기술을 제공할 수 있고, 또한 식별이 어려운 노면 표시, 차선 등 에 대한 이미지 예측을 통해 실시간으로 표시내용을 보완하여 제공할 수 있으며, 예측된 정보와 실제 관측된 정보 간의 차이를 도로 상의 정적객체 관리시스템의 관리자에게 제공하는 기술을 제공할 수 있다.According to the present invention, it is possible to provide a technique for detecting an image of a driver and an autonomous vehicle according to the pavement condition of the road and determining the degree of visibility by using information on various static objects related to the road that has already been collected, and also for identification. Through image prediction of difficult road markings, lanes, etc., the display contents can be supplemented and provided in real time, and the difference between the predicted information and the actually observed information can be provided to the manager of the static object management system on the road. can

본 발명을 통해 제공하는 도로 교면(노면) 표시정보의 실시간 모니터링 서비스와 이미지 예측을 통한 사용자 정보로 인하여 국민의 교통 안전향상을 제고할 수 있을 것이다. Due to the real-time monitoring service of the road bridge surface (road surface) display information provided through the present invention and user information through image prediction, it will be possible to improve public traffic safety.

도 1은 본 발명의 일 실시예에 따른 차량 내의 구성들 및 차량 내의 구성들과 서버간의 관계를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 도로 상 정적객체의 관리 스케줄을 생성하기 위해 서버에게 제공하기 위한 데이터의 선정방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 일 실시예에 따른 서버에서 도로 상 정적객체의 관리 스케줄을 생성하는 방법에 대한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 손실객체에 대한 수리 또는 교체 스케줄 생성 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 크라우드소싱 플랫폼 시스템을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 학습데이터세트 처리방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 원천 영상 데이터 확보를 위한 과정을 구분하여 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따라 학습데이터 처리방법을 간략하게 도시한 것이다.
도 9는 본 발명의 일 실시예에 따른 데이터 정제 프로세스를 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따라 아노테이션을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따라 임의의 이미지에서 추출되는 클래스 ID 및 바운딩 박스의 위치에 대한 정보를 나타낸 것이다.
도 12는 도 6의 단계(S20)의 데이터 전처리 단계의 수행 과정을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따른 학습모델의 생성과정을 설명하기 위한 도면이다.
1 is a diagram for explaining a relationship between components in a vehicle and a server and components in a vehicle according to an embodiment of the present invention.
2 is a flowchart illustrating a method of selecting data to be provided to a server to generate a management schedule of static objects on a road according to an embodiment of the present invention.
3 is a flowchart of a method for generating a management schedule of static objects on a road in a server according to an embodiment of the present invention.
4 is a flowchart illustrating a method of generating a repair or replacement schedule for a lost object according to an embodiment of the present invention.
5 is a diagram for explaining a crowdsourcing platform system according to an embodiment of the present invention.
6 is a diagram for explaining a learning dataset processing method according to an embodiment of the present invention.
7 is a diagram for separately explaining a process for obtaining source image data according to an embodiment of the present invention.
8 schematically illustrates a learning data processing method according to an embodiment of the present invention.
9 is a diagram for explaining a data purification process according to an embodiment of the present invention.
10 is a diagram for explaining annotations according to an embodiment of the present invention.
11 illustrates information about a location of a class ID and a bounding box extracted from an image according to an embodiment of the present invention.
FIG. 12 is a diagram for explaining the process of performing the data pre-processing step of step S20 of FIG. 6 .
13 is a diagram for explaining a process of generating a learning model according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부한 도면을 참고하여 설명한다. 그러나 본 발명은 본 명세서에서 설명하는 실시예에 한정되지 않으며 여러 가지 다른 형태로 구현될 수 있다. 본 명세서에서 사용되는 용어는 실시예의 이해를 돕기 위한 것이며, 본 발명의 범위를 한정하고자 의도된 것이 아니다. 또한, 이하에서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be implemented in various other forms. Terms used in this specification are intended to aid understanding of the embodiments, and are not intended to limit the scope of the present invention. Also, the singular forms used herein include the plural forms unless the phrases clearly dictate the contrary.

도 1은 본 발명의 일 실시예에 따른 차량 내의 구성들 및 차량 내의 구성들과 서버간의 관계를 설명하기 위한 도면이다.1 is a diagram for explaining a relationship between components in a vehicle and a server and components in a vehicle according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 도로 상 정적객체의 관리 스케줄을 생성하기 위해 서버에게 제공하기 위한 데이터의 선정방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of selecting data to be provided to a server to generate a management schedule of static objects on a road according to an embodiment of the present invention.

이하, 도 1 및 도 2를 함께 참조하여 설명한다.Hereinafter, it will be described with reference to FIGS. 1 and 2 together.

차량(200)에는 차량 단말기(210) 및 자율주행장치(220)가 설치될 수 있다. A vehicle terminal 210 and an autonomous driving device 220 may be installed in the vehicle 200 .

차량 단말기(210)는 처리장치(211), 촬영장치(212), 저장장치(213), 및 예측장치(214)를 포함할 수 있다.The vehicle terminal 210 may include a processing device 211 , a photographing device 212 , a storage device 213 , and a prediction device 214 .

저장장치(213)에는 객체정보 테이블, 및 복수 개의 기준참조 이미지들이 저장될 수 있다.An object information table and a plurality of reference reference images may be stored in the storage device 213 .

상기 객체정보 테이블은, 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블일 수 있다. 상기 객체정보 테이블은 상기 복수 개의 정적객체들의 지구위치들을 포함할 수 있다.The object information table may be an object information table including data about a plurality of static objects having one of predetermined types existing on a moving route of the vehicle. The object information table may include geolocations of the plurality of static objects.

상기 복수 개의 기준참조 이미지들은, 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 것일 수 있다.The plurality of standard reference images may be provided according to the Road Traffic Act as images representing the respective static objects.

예측장치(214)는 지도학습 방법에 따라 학습된 신경망을 포함할 수 있다. The prediction device 214 may include a neural network trained according to a supervised learning method.

상기 신경망은 정보수집차량에서 촬영하여 획득한 학습용 이미지들을 학습용 입력정보로서 이용하고, 각각의 상기 획득한 학습용 이미지 내에서 지정되어 있는 한 개 이상의 객체이미지들 각각에 대한 라벨을 이용하여 지도학습된 것일 수 있다. The neural network is supervised using images for learning acquired by photographing from an information collection vehicle as input information for learning, and using a label for each of one or more object images specified in each of the acquired images for learning. can

자율주행장치(220)는, 차량(200)의 자율주행을 지원할 수 있다.The autonomous driving device 220 may support autonomous driving of the vehicle 200 .

처리장치(211)는 아래의 단계(S200) 내지 단계(S230)을 실행하도록 되어 있을 수 있다.The processing device 211 may be configured to execute steps S200 to S230 below.

단계(S200)에서, 처리장치(211)가, 차량(200)의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량(200)의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치(212)를 이용한 촬영을 시작할 수 있다.In step S200, the processing device 211 determines the vehicle 200 obtained from the GPS device and the first geolocation, which is the geographic location of a first static object existing on the predicted first movement route of the vehicle 200. The photographing using the photographing device 212 can be started from the time when the difference between the current vehicle position, which is the current geographic position of ), has a value within a predetermined threshold value.

단계(S210)에서, 처리장치(211)가, 촬영장치(212)가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출할 수 있다.In step S210, the processing device 211 extracts a first object image estimated to be the static object having any one of the predetermined types from the first image photographed by the photographing device 212. can do.

이때, 단계(S210)는, 처리장치(211)가 상기 촬영한 제1이미지를 상기 학습된 신경망에 입력하여 상기 학습된 신경망의 출력을 이용하는 단계를 포함할 수 있다.At this time, step S210 may include a step in which the processing device 211 inputs the photographed first image to the learned neural network and uses the output of the learned neural network.

단계(S220)에서, 처리장치(211)가, 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택할 수 있다.In step S220, the processing device 211 may select a first reference image corresponding to the extracted first object image from among the reference images.

단계(S230)에서, 처리장치(211)가, 상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치(예컨대, 자율주행장치(220), 또는 서버(300))에게 제공할 수 있다. In step S230, the processing device 211 transfers at least one of the extracted first object image and the selected first reference reference image to another computing device (eg, the autonomous driving device 220 or the server 300). ) can be provided.

이때, 상기 다른 컴퓨팅 장치가 자율주행장치(220)인 경우, 자율주행장치(220)는 상기 차량(200)에 포함된 디스플레이 장치(미도시)에 상기 추출된 제1객체이미지 또는 상기 선택된 제1기준참조 이미지를 표시하도록 되어 있을 수 있다.At this time, when the other computing device is the autonomous driving device 220, the autonomous driving device 220 displays the extracted first object image or the selected first object image on a display device (not shown) included in the vehicle 200. It may be configured to display a fiducial reference image.

상기 단계(S220)은 아래의 단계(S221) 내지 단계(S223)를 포함할 수 있다.The step S220 may include the following steps S221 to S223.

이때, 처리장치(211)는 저장장치(213)에 액세스할 수 있다.At this time, the processing device 211 may access the storage device 213 .

단계(S221)에서, 처리장치(211)가, 상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택할 수 있다.In step S221, the processing device 211 may select a first group of static objects existing within a predetermined distance from the first geolocation from among the static objects stored in the object information table.

단계(S222)에서, 처리장치(211)가, 상기 복수 개의 기준참조 이미지들 중, 상기 선택된 제1그룹의 정적객체들에 대응하는 제1그룹의 기준참조 이미지들을 선택할 수 있다. In step S222, the processing device 211 may select a first group of reference images corresponding to the selected first group of static objects from among the plurality of reference images.

단계(S223)에서, 처리장치(211)가, 상기 선택된 제1그룹의 기준참조 이미지들 중에서 상기 제1객체이미지와의 유사도가 가장 높은 것을 상기 제1기준참조 이미지로 결정할 수 있다.In step S223, the processing unit 211 may determine, as the first reference image, one having the highest similarity with the first object image among the selected reference images of the first group.

도 3은 본 발명의 일 실시예에 따른 서버에서 도로 상 정적객체의 관리 스케줄을 생성하는 방법에 대한 순서도이다.3 is a flowchart of a method for generating a management schedule of static objects on a road in a server according to an embodiment of the present invention.

아래의 단계(S300) 내지 단계(S330)는 상기 단계(S230)의 상기 다른 컴퓨팅 장치가 원격의 서버(300)일 경우, 서버(300)에서 수행되는 단계들일 수 있다.Steps S300 to S330 below may be steps performed by the server 300 when the other computing device of the step S230 is the remote server 300 .

단계(S300)에서, 서버(300)가, 차량 단말기(210)로부터 제1객체이미지 및 제1기준참조 이미지를 수신할 수 있다.In step S300 , the server 300 may receive a first object image and a first reference reference image from the vehicle terminal 210 .

단계(S310)에서, 서버(300)가, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출할 수 있다. In step S310, the server 300 may calculate a similarity between the extracted first object image and the selected first reference reference image.

단계(S320)에서, 서버(300)가, 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출할 수 있다.In step S320, the server 300 may calculate the degree of deterioration of the first static object represented by the first object image based on the calculated similarity.

단계(S330)에서, 서버(300)가, 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성할 수 있다.In step S330, the server 300 may create a repair or replacement schedule for the first static object according to the calculated degree of deterioration.

도 4는 본 발명의 일 실시예에 따른 손실객체에 대한 수리 또는 교체 스케줄 생성 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a method of generating a repair or replacement schedule for a lost object according to an embodiment of the present invention.

서버(300)는 상기 객채정보 테이블을 포함하는 데이터베이스에 접근하도록 되어 있을 수 있다.The server 300 may be configured to access a database including the object information table.

단계(S400)에서, 차량단말기(210)가, 차량(200)의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량(200)의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치(212)를 이용한 촬영을 시작할 수 있다.In step S400, the vehicle terminal 210 determines the vehicle 200 obtained from the first geolocation, which is the geographic location of a first static object existing on the predicted first movement path of the vehicle 200, and the GPS device. The photographing using the photographing device 212 can be started from the time when the difference between the current vehicle position, which is the current geographic position of ), has a value within a predetermined threshold value.

단계(S410)에서, 차량단말기(210)가, 촬영장치(212)가 촬영한 상기 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 모든 객체이미지들인 제1그룹의 객체 이미지들을 추출할 수 있다.In step S410, the vehicle terminal 210 determines all object images estimated to be the static object having one of the predetermined types from the first image photographed by the photographing device 212. One group of object images can be extracted.

단계(S420)에서, 차량단말기(210)가, 상기 제1지구위치 및 상기 추출한 제1그룹의 객체 이미지들에 관한 정보를 상기 다른 컴퓨팅 장치(즉, 서버(300))에게 제공할 수 있다.In step S420, the vehicle terminal 210 may provide information about the first geolocation and the extracted object images of the first group to the other computing device (ie, the server 300).

단계(S430)에서, 서버(300)가, 상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택할 수 있다. In step S430, the server 300 may select a first group of static objects existing within a predetermined distance from the first geolocation from among the static objects stored in the object information table.

단계(S440)에서, 서버(300)가, 상기 제1그룹의 정적객체들 중 상기 제1그룹의 객체 이미지들에 대응하지 않는 정적객체인 손실객체가 존재하는지 판단할 수 있다.In step S440, the server 300 may determine whether there is a loss object, which is a static object that does not correspond to the object images of the first group, among the static objects of the first group.

단계(S450)에서, 서버(300)가, 상기 손실객체에 대한 수리 또는 교체 스케줄을 생성할 수 있다.In step S450, the server 300 may generate a repair or replacement schedule for the lost object.

도 5는 본 발명의 일 실시예에 따른 크라우드소싱 플랫폼 시스템을 설명하기 위한 도면이다.5 is a diagram for explaining a crowdsourcing platform system according to an embodiment of the present invention.

크라우드소싱 플랫폼 시스템(100)은 주행환경에서의 정적객체를 인지하는 인공지능의 학습데이터세트를 처리할 수 있다. The crowdsourcing platform system 100 may process an artificial intelligence learning dataset that recognizes static objects in a driving environment.

크라우드소싱 플랫폼 시스템(100)은 원천 데이터 확보 서버(1), 프로모션 서버(2), 및 스토리지 장치(3)를 포함할 수 있다.The crowdsourcing platform system 100 may include a source data securing server 1 , a promotion server 2 , and a storage device 3 .

원천 데이터 확보 서버(1)는 매칭 파트(11) 및 편향제거 파트(12)를 포함할 수 있다.The source data acquisition server 1 may include a matching part 11 and a deflection removal part 12 .

매칭 파트(11)는 기수집된 주행정보와 영상 정보를 서로 매칭하여 분류함으로써 영상과 주행 정보를 서로 매칭할 수 있다. 또한, 상기 매칭 파트(11)는 GPS 정보 매칭 여부를 검증함으로써, 영상과 주행정보가 서로 매칭되었는지 여부를 인증할 수 있으며, 영상 내 포함 정보 식별을 위하여 사용자 입력 방식의 1차 입력을 받아들일 수 있다. 상기 1차 입력은 지역도로인지 아니면 고속도로 또는 국도인지 여부를 구분하는 입력일 수 있다. The matching part 11 may match the previously collected driving information and the video information to each other by matching and classifying the collected driving information and driving information. In addition, the matching part 11 can verify whether the video and driving information match each other by verifying whether the GPS information matches, and can accept a primary input of a user input method to identify information included in the video. there is. The first input may be an input for distinguishing whether it is a local road, a highway, or a national road.

편향제거 파트(12)는 지역, 사용자, 주행 정보 매칭을 이용하여 데이터 수집 편향 방지를 위한 기능을 수행할 수 있다. 즉, 편향제거 파트(12)는 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지 기능을 수행할 수 있다. The deflection removal part 12 may perform a function to prevent bias in data collection by using region, user, and driving information matching. That is, the deflection removal part 12 can perform a deflection prevention function by matching pre-owned driving information with additionally collected image information.

프로모션 서버(2)는 영상 추가 수집 프로모션을 통해 영상 제공에 따른 추가 포인트(또는 현금)를 개인에게 지급할 수 있다. 이를 위하여, 프로모션 서버(2)는 개인정보활용동의 파트(21), 보상 파트(22), 및 콘텐츠 파트(23)를 포함할 수 있다. The promotion server 2 may pay additional points (or cash) according to the video provision to the individual through additional video collection promotion. To this end, the promotion server 2 may include a personal information utilization agreement part 21, a reward part 22, and a content part 23.

개인정보활용동의 파트(21)는 영상 활용 및 보상 지급에 대한 개인의 개인정보 활용 동의 프로세스를 수행할 수 있다.Part 21 of consent to use of personal information may perform a process of consent to use of personal information of individuals for video use and payment of compensation.

보상 파트(22)는 주어진 현금 보상 체계에 따라 포인트 대신 현금을 상기 개인에게 제공하는 프로세스를 수행할 수 있다. 또는, 보상 파트(22)는 원천 데이터 확보 서버(1)의 매칭 파트(11)의 매칭 결과에 따라 포인트 또는 현금 보상을 상기 개인에게 제공하는 프로세스를 수행할 수 있다. The compensation part 22 may perform a process of providing cash instead of points to the individual according to a given cash compensation scheme. Alternatively, the compensation part 22 may perform a process of providing points or cash compensation to the individual according to the matching result of the matching part 11 of the source data securing server 1 .

콘텐츠 파트(23)는 영상 수집 프로모션 안내 콘텐츠를 상기 개인에게 제공하는 프로세스를 수행할 수 있다.The content part 23 may perform a process of providing video collection promotion guide content to the individual.

스토리지 장치(3)는 대용량 영상 데이터 전송을 위해 파일 업로드 및 추가 기능을 제공할 수 있다.The storage device 3 may provide file upload and additional functions for transmitting large-capacity image data.

스토리지 장치(3)는 영상 DB(31), 주행기술 DB(32), 및 차종식별 데이터베이스(33)를 포함할 수 있다. The storage device 3 may include an image DB 31 , a driving technology DB 32 , and a vehicle model identification database 33 .

영상 DB(31)에는 원본 영상 예컨대, 블랙박스 영상으로서 차량 내 설치된 영상 촬영 장치로 획득한 실주행 영상이 저장될 수 있다. 일반적인 블랙박스 영상 데이터인 30fps, HD(1366x768) 또는 FHD(1920x1080) 수준의 영상자료가 수집될 수 있다. 그리고 영상 DB(31)에는 예컨대, 크라우드소싱을 통해 수집한 교통 정보 영상이 저장될 수도 있다. 또한, 영상 DB(31)에는 모집된 패널을 통해 수집한 영상이 저장될 수도 있다.The image DB 31 may store original images, for example, actual driving images acquired by an image capturing device installed in a vehicle as a black box image. 30 fps, HD (1366x768) or FHD (1920x1080) level video data, which are general black box video data, can be collected. Also, traffic information images collected through crowdsourcing, for example, may be stored in the image DB 31 . In addition, images collected through recruited panels may be stored in the image DB 31 .

주행기술 DB(32)는 주행정보를 저장하고 있을 수 있다. 주행정보는 크라우드소싱 플랫폼을 통한 해당 사용자의 주행 트립단위 OD 데이터로서 주행시간, 주행경로, 주행거리 등의 정보를 포함할 수 있다. The driving technology DB 32 may store driving information. The driving information is OD data of a driving trip unit of a corresponding user through a crowdsourcing platform, and may include information such as driving time, driving route, and driving distance.

차종식별 DB(33)는 블랙박스 영상 데이터에 대하여 차종을 분류하여 저장할 수 있다. The vehicle model identification DB 33 may classify and store the vehicle model with respect to the black box image data.

도 6은 본 발명의 일 실시예에 따른 학습데이터세트 처리방법을 설명하기 위한 도면이다. 6 is a diagram for explaining a learning dataset processing method according to an embodiment of the present invention.

단계(S10)에서, 원천 데이터 확보 서버(1)가, 크라우드소싱에 기반하여 블랙박스 영상을 수집하여, 수집된 상기 블랙박스 영상에서 데이터 편향을 제거하고 개인정보를 비식별 처리함으로써, 상기 수집된 블랙박스 영상으로부터 정제된 영상 데이터를 생성할 수 있다.In step S10, the source data securing server 1 collects black box images based on crowdsourcing, removes data bias from the collected black box images, and de-identifies personal information, thereby removing the collected black box images. Refined image data can be generated from the black box image.

이때, 원천 데이터 확보 서버(1)는, 상용차 운전자인 운전자 패널이 운행하는 상용차에 설치된 블랙박스로부터 영상 데이터를 수집하고, 고화질 블랙박스를 장착한 차량을 운행하는 전문 패널이 운행하는 차량으로부터 영상 데이터를 수집하여 상기 블랙박스 영상을 보완할 수 있다. 그리고 원천 데이터 확보 서버(1)는, 여객 자동차 운송 사업자의 서버로부터 구매한 영상 데이터로 상기 블랙박스 영상을 보완할 수 있다.At this time, the original data acquisition server 1 collects image data from a black box installed in a commercial vehicle operated by a driver panel, a commercial vehicle driver, and image data from a vehicle operated by a professional panel operating a vehicle equipped with a high-definition black box. It is possible to supplement the black box image by collecting. Further, the source data securing server 1 may supplement the black box image with image data purchased from a server of a passenger transport service provider.

이때, 영상 데이터 보완의 경우, 원천 데이터 확보 서버(1)가 획득한 원천 데이터를 먼저 분류하고, 시내/시외, 고속도로/국도, 날씨, 시간대별 수집 데이터를 한정하여 패널 모집을 통해 초기 수집 데이터 보완할 수 있다. At this time, in the case of video data supplementation, the original data acquired by the source data securing server 1 is first classified, and the collected data is limited to city/outside, highway/national road, weather, and time zone, and the initial collected data is supplemented through panel recruitment. can do.

단계(S20)에서, 원천 데이터 확보 서버(1)가, 학습데이터를 구성하는 대분류 카테고리들을 기준으로 상기 정제된 영상 데이터를 분류하고, 상기 정제된 영상 데이터로부터 유효한 이미지 데이터를 추출할 수 있다.In step S20, the original data securing server 1 classifies the refined image data based on the large classification categories constituting the learning data, and extracts valid image data from the refined image data.

단계(S30)에서, 상기 데이터 전처리 단계인 단계(S20)에서 생성된 바운딩 박스(bounding box)와 아노테이션을 검수자가 확인 및 수정을 수행할 수 있다. 모든 확인 및 수정 작업은 모든 입력작업은 빠르고 정확한 입력을 위해 Key-In방식, Selection방식, 후검증방식, Preset방식, 자동입력방식, Cross Field Check, Related Field Copy, Reject Packet, Reject Page등 다양한 입력방식을 지원할 수 있다.In step S30, the inspector may check and modify the bounding box and annotation generated in step S20, which is the data preprocessing step. All checks and corrections are performed through various inputs such as Key-In method, Selection method, Post-verification method, Preset method, Automatic input method, Cross Field Check, Related Field Copy, Reject Packet, Reject Page, etc. for fast and accurate input. method can be supported.

이때, 단계(S30)를 수행하기 위하여 단계(S30')에서, 검수자 관리가 이루어질 수 있다. 검수자 관리 단계는 사용자를 등록하는 단계, 검수자를 배정하는 단계, 및 데이터를 배정하는 단계를 포함할 수 있다. At this time, in step (S30') to perform step (S30), inspector management may be made. The inspector management step may include registering a user, allocating an inspector, and allocating data.

데이터 검증 단계(S40)에서, 데이터 검증은 딥러닝 알고리즘을 활용한 에러율 검출로 전수 검사를 수행하며, 에러 검출 등 이상이 있는 학습데이터에 대하여 검수자가 직접 확인하고 수정하는 절차로 진행될 수 있다. In the data verification step (S40), data verification can be performed by performing a total inspection by detecting an error rate using a deep learning algorithm, and proceeding with a procedure in which the inspector directly checks and corrects the learning data with errors such as error detection.

단계(S50)에서, 상기 검증 절차가 완료된 데이터를 기반으로 학습데이터세트(데이터 세트 A, B 등)를 생성할 수 있다.In step S50, a learning data set (data set A, B, etc.) may be created based on the data for which the verification procedure has been completed.

도 7은 본 발명의 일 실시예에 따른 원천 영상 데이터 확보를 위한 과정을 구분하여 설명하기 위한 도면이다.7 is a diagram for separately explaining a process for obtaining source image data according to an embodiment of the present invention.

원천 영상 데이터 확보를 위하여 크게 세 개의 단계를 구분하여 설명할 수 있다.In order to secure source image data, three steps can be largely classified and explained.

제1단계에서, 원천 데이터 확보 서버(1)가 크라우드소싱 기반으로 기초 데이터를 확보할 수 있다. 이때, 영상 수집 인프라를 구축하고, 크라우드소싱 기반 영상 데이터를 수집한 후, 데이터를 정제 및 분류하여 크라우드소싱 영상 데이터를 준비할 수 있다.In the first step, the original data securing server 1 may secure basic data based on crowdsourcing. At this time, after constructing an image collection infrastructure and collecting crowdsourcing-based image data, the crowdsourced image data may be prepared by refining and classifying the data.

제2단계에서, 제1단계의 보완으로서, 패널 모집 방식의 영상 데이터를 확보할 수 있다. 이때, 패널(상용차(택시, 화물차, 버스) 등)을 모집하여 선정한 후 선정된 패널의 차량에 촬영장치를 설치할 수 있다. 설치된 촬영장치로부터 영상 데이터를 수거함으로써 패널을 통해 영상 데이터를 추가적으로 준비할 수 있다. In the second step, as a supplement to the first step, image data of the panel recruiting method may be secured. At this time, after recruiting and selecting panels (commercial vehicles (taxi, truck, bus), etc.), a photographing device may be installed in the vehicle of the selected panel. By collecting image data from the installed photographing device, image data may be additionally prepared through a panel.

제3단계에서, 제1단계 및 제2단계의 추가적인 보완으로서, 데이터를 직접 구매할 수 있다. 이때, 영상 공급업체를 조사하고, 요구 영상을 식별하여 영상 데이터를 구매함으로써 영상 데이터를 추가적으로 준비할 수 있다.In step 3, as an additional complement to steps 1 and 2, data can be purchased directly. At this time, image data may be additionally prepared by researching image suppliers, identifying requested images, and purchasing image data.

원천 영상 데이터는 상술한 제1단계, 제2단계, 제3단계에서 각각 확보한 크라우드소싱 영상 데이터, 패널 수집 영상 데이터, 및 구매한 영상 데이터를 포함할 수 있다. The original image data may include crowdsourced image data, panel collection image data, and purchased image data obtained in the above-described first step, second step, and third step, respectively.

도 8은 본 발명의 일 실시예에 따라 학습데이터 처리방법을 간략하게 도시한 것이다.8 schematically illustrates a learning data processing method according to an embodiment of the present invention.

크라우드소싱을 통해 교통 영상 데이터를 수집할 수 있다. 이때, 교통 영상 제공자(즉, 교통 정보 수집 참여자)에게 포인트 및 혜택을 제공할 수 있다. Traffic image data can be collected through crowdsourcing. In this case, points and benefits may be provided to traffic image providers (ie, traffic information collection participants).

수집된 영상 데이터는 영상DB(31)에 저장될 수 있다.Collected image data may be stored in the image DB 31 .

영상DB(31), 주행기록DB(32), 및 차종식별DB(33)를 종합하여, 지역, 유형, 시간, 날짜 등의 조건으로 영상 필터링을 진행할 수 있다. 이렇게 필터링 된 영상은 AI 학습 데이터 가공을 위한 원천 데이터로 이용될 수 있다. By combining the image DB 31, driving record DB 32, and vehicle type identification DB 33, image filtering can be performed based on conditions such as region, type, time, and date. The filtered image can be used as source data for AI learning data processing.

도 9는 본 발명의 일 실시예에 따른 데이터 정제 프로세스를 설명하기 위한 도면이다.9 is a diagram for explaining a data purification process according to an embodiment of the present invention.

이하의 단계들은, 원천 데이터 확보 서버(1)가 수행하는 단계들일 수 있다.The following steps may be steps performed by the original data securing server 1.

단계(S110)에서, 크라우드소싱에 기반하여 블랙박스 영상을 수집할 수 있다. 이때, 최초 블랙박스 영상 수집 시 수도권/광역시별로 제한된 인원수의 참여자로부터 상기 블랙박스 영상을 수집할 수 있다.In step S110, black box images may be collected based on crowdsourcing. In this case, when the black box image is first collected, the black box image may be collected from a limited number of participants for each metropolitan area/metropolitan city.

단계(S120)에서, 상기 블랙박스 영상에서 데이터 편향을 제거할 수 있다.In step S120, data bias can be removed from the black box image.

구체적으로 단계(S120)은 아래의 단계(S121) 내지 단계(S124)를 포함할 수 있다.Specifically, step S120 may include steps S121 to S124 below.

단계(S121)에서, 상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터의 권역(수도권/광역시)을 분류할 수 있다.In step S121, the region (metropolitan area/metropolitan city) of each image data may be classified through matching the collected black box image data and GPS information.

단계(S122)에서, 상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터가 수집된 장소의 도로 유형(고속도로/국도)을 분류할 수 있다.In step S122, the road type (highway/national road) of the place where each image data was collected can be classified through matching the collected black box image data and GPS information.

단계(S123)에서, 미리 저장된 자동차 DB(차종식별DB)를 통해 상기 각각의 블랙박스 영상을 제공한 차량의 자동차 유형의 분류를 수행할 수 있다. In step S123, it is possible to classify the car type of the vehicle providing each of the black box images through a pre-stored car DB (vehicle type identification DB).

단계(S124)에서, 상기 수집한 블랙박스 영상을 상기 권역, 상기 도로 유형, 및 상기 자동차 유형에 따라 분류하고 편향이 생기지 않도록 상기 수집한 블랙박스 영상에 대한 필터링을 수행할 수 있다.In step S124, the collected black box images may be classified according to the region, the road type, and the vehicle type, and filtering may be performed on the collected black box images to prevent bias.

단계(S130)에서, 상기 편향이 제거된 영상에서 개인정보를 비식별 처리할 수 있다.In step S130, personal information may be de-identified in the image from which the deflection is removed.

구체적으로 단계(S130)은 아래의 단계(S131) 내지 단계(S136)를 포함할 수 있다.Specifically, step S130 may include steps S131 to S136 below.

단계(S131)에서, 상기 수집한 각각의 블랙박스 영상의 출발지 및 도착지 시점의 전후 구간을 삭제할 수 있다. 이때, 상기 수집한 각각의 블랙박스 영상은 편향이 제거된 영상을 의미할 수 있다.In step S131, it is possible to delete the section before and after the point of departure and destination of each black box image collected. In this case, each of the collected black box images may refer to an image from which deflection is removed.

단계(S132)에서, 상기 수집한 각각의 블랙박스 영상에서 영상 외의 음성 정보 삭제할 수 있다.In step S132, audio information other than video may be deleted from each of the collected black box images.

단계(S133)에서, 상기 수집한 각각의 블랙박스 영상에서 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별 처리할 수 있다.In step S133, vehicle numbers of vehicles traveling in front and vehicles in the next lane may be de-identified in each of the collected black box images.

단계(S134)에서, 상기 수집한 각각의 블랙박스 영상에서 교통사고 장면을 삭제할 수 있다.In step S134, the traffic accident scene may be deleted from each of the collected black box images.

단계(S135)에서, 상기 수집한 각각의 블랙박스 영상에서 횡단보도 정차 시 보행자 비식별 처리를 수행할 수 있다.In step S135, pedestrian de-identification processing may be performed when stopping at a crosswalk in each of the collected black box images.

단계(S136)에서, 상기 수집한 각각의 블랙박스 영상에서 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리할 수 있다.In step S136, the photographing time and location information in the black box image may be de-identified in each of the collected black box images.

단계(S140)에서, 비식별 처리된 영상에서 이미지를 추출할 수 있다. 즉, 영상 프레임 단위의 이미지를 추출할 수 있다.In step S140, an image may be extracted from the de-identified image. That is, an image in units of image frames may be extracted.

단계(S150)에서, 추출된 이미지에서 유효한 이미지 데이터를 선정하고, 상기 선정된 유효한 이미지에서 각 서브 카테고리에 관한 정적객체를 추출할 수 있다. In step S150, valid image data may be selected from the extracted image, and static objects for each subcategory may be extracted from the selected valid image.

도 10은 본 발명의 일 실시예에 따라 아노테이션을 설명하기 위한 도면이다.10 is a diagram for explaining annotations according to an embodiment of the present invention.

단계(S150) 이후에, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스(bounding box)에 관한 아노테이션을 생성할 수 있다.After step S150, an annotation about a bounding box, which is information about a location where the extracted static object exists in the valid image data, may be generated.

아노테이션 항목은 동영상 정보, 이미지 정보, 및 클래스정보의 기록을 위해 제공될 수 있다. Annotation items may be provided for recording video information, image information, and class information.

동영상 정보의 경우, 아노테이션 항목은 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류(트럭/버스/승용차 등), 촬영 시간, 촬영된 도로의 유형(고속도로/국도), 촬영된 지역(수도권/광역권)의 기록을 위해 제공될 수 있다. In the case of video information, annotation items include source location for video data, resolution, type of vehicle (truck/bus/passenger car, etc.), recording time, type of road (highway/country road), and region ( metropolitan area/metropolitan area) may be provided for records.

이미지 정보의 경우, 아노테이션 항목은 상기 동영상에서 추출된 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 라벨링된 이미지를 포함 URL의 기록을 위해 제공될 수 있다. In the case of image information, the annotation items include the file name for each image data extracted from the video, shooting time, shooting location, vehicle speed at the time of shooting, weather at the time of shooting, number of lanes on the road taken, and labeled images. Can be provided for logging of URLs.

또한, 아노테이션 항목은 각 이미지에서 추출되는 다수 N개의 클래스에 대해, 클래스 ID (대분류 -> 중분류 -> 클래스)와 바운딩 박스의 위치(왼쪽 상단의 좌표(x,y)와 폭과 높이)를 정의하여 제시할 수 있다.In addition, the annotation item includes the class ID (major classification -> middle classification -> class) and the location of the bounding box (coordinates (x,y) and width and height of the upper left corner) for a number of N classes extracted from each image. can be defined and presented.

도 11은 본 발명의 일 실시예에 따라 임의의 이미지에서 추출되는 클래스 ID 및 바운딩 박스의 위치에 대한 정보를 나타낸 것이다.11 illustrates information about a location of a class ID and a bounding box extracted from an image according to an embodiment of the present invention.

참조부호 B1~B4는 바운딩 박스를 나타낸 것이고, 참조부호 C1~C4는 각 바운딩 박스(B1~B4)에 대한 아노테이션을 나타낸 것이다.Reference numerals B1 to B4 denote bounding boxes, and reference numerals C1 to C4 denote annotations for each bounding box B1 to B4.

아노테이션은 클래스 ID와 바운딩 박스의 위치에 대한 정보를 제시할 수 있다. 예컨대, 참조부호 C1은 바운딩 박스(B1)에 관한 것으로서 클래스 ID는 가변정보판이고, 바운딩 박스(B1)의 위치 정보는 (x=570, y=274)(폭=618,높이=310)일 수 있다. 예컨대, 참조부호 C2는 바운딩 박스(B2)에 관한 것으로서 클래스 ID는 중앙선이고, 바운딩 박스(B2)의 위치 정보는 (x=242, y=550)(폭=523, 높이=380)일 수 있다. Annotation can present information about the class ID and location of the bounding box. For example, reference numeral C1 relates to the bounding box B1, the class ID is a variable information board, and the location information of the bounding box B1 is (x = 570, y = 274) (width = 618, height = 310). can For example, reference numeral C2 relates to the bounding box B2, the class ID is the center line, and the location information of the bounding box B2 may be (x = 242, y = 550) (width = 523, height = 380) .

도 12는 도 6의 단계(S20)의 데이터 전처리 단계의 수행 과정을 설명하기 위한 도면이다.FIG. 12 is a diagram for explaining the process of performing the data pre-processing step of step S20 of FIG. 6 .

이때, 대분류 카테고리들은 차선/횡단보도, 신호등, 교통표지판, 기타표식을 포함할 수 있다. In this case, the major classification categories may include lanes/crosswalks, traffic lights, traffic signs, and other signs.

상기 대분류 카테고리들은 각각 복수 개의 서브 카테고리들로 더 구분될 수 있다.Each of the major classification categories may be further divided into a plurality of subcategories.

단계(S20)은 아래의 단계(S21) 내지 단계(S23)를 포함할 수 있다.Step S20 may include steps S21 to S23 below.

단계(S21)에서, 상기 대분류 카테고리를 기준으로 분류를 수행할 학습 모델을 위한 학습데이터 세트를 구축하여 상기 구축된 학습데이터 세트를 이용하여 학습 모델을 생성할 수 있다. In step S21, a learning data set for a learning model to be classified based on the major classification category may be built, and a learning model may be created using the built learning data set.

단계(S22)에서, 상기 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터로부터 상기 복수 개의 서브 카테고리에 관한 정적객체를 추출하고, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보(좌표)인 바운딩 박스(bounding box)에 관한 아노테이션을 생성할 수 있다.In step S22, static objects related to the plurality of subcategories are extracted from the valid image data by using the generated learning model, and information on locations where the extracted static objects exist within the valid image data. You can create an annotation about a bounding box that is (coordinates).

단계(S23)에서, 상기 생성된 아노테이션에 따라, 상기 아노테이션에 대응하는 이미지 및 상기 이미지에 대응하는 동영상을 상기 대분류 카테고리들 중 어느 하나의 카테고리로 분류함으로써, 상기 대분류 카테고리에 따른 동영상과 전처리된 이미지 데이터를 생성할 수 있다. In step S23, according to the generated annotation, the image corresponding to the annotation and the video corresponding to the image are classified into any one of the major classification categories, thereby pre-processing the video according to the major classification category. image data can be created.

도 13은 본 발명의 일 실시예에 따른 학습모델의 생성과정을 설명하기 위한 도면이다.13 is a diagram for explaining a process of generating a learning model according to an embodiment of the present invention.

단계(S10) 내지 단계(S40)은 도 6을 통해 상술한 바와 동일하다.Steps S10 to S40 are the same as those described above with reference to FIG. 6 .

단계(S40)에서, 배정된 검수자가 좌표를 통한 데이터 검색 및 전수 검수를 수행할 수 있다. In step S40, the assigned inspector may perform data search and total inspection through coordinates.

이후, 학습로그를 확인하여 에러가 검출된 경우, 다시 데이터 검증 단계인 단계(S40)을 수행하고, 에러가 검출되지 않은 경우, 학습모델을 생성할 수 있다. 즉, 최종 검수를 마친 데이터를 통해 학습데이터세트를 생성할 수 있으며, 이를 통해 딥러닝 학습 모델의 고도화 수행이 가능하다.Thereafter, when an error is detected by checking the learning log, step S40, which is a data verification step, is performed again, and when an error is not detected, a learning model may be generated. That is, a learning dataset can be created through data that has undergone final inspection, and through this, it is possible to perform advanced deep learning learning models.

상기 생성된 학습데이터세트는 표지판, 차선 및 횡단보도, 신호등, 및 기타표식 중 어느 하나의 카테고리로 분류될 수 있다.The generated training data set may be classified into any one category among signs, lanes and crosswalks, traffic lights, and other signs.

상기 생성된 학습데이터세트는 수집된 상기 블랙박스 영상의 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류, 촬영 시간, 촬영된 도로의 유형, 및 촬영된 지역에 관한 정보를 포함할 수 있다.The generated learning dataset may include information about the source location, resolution, type of vehicle captured, recording time, type of road captured, and information about the area captured for the video data of the collected black box image. .

또한, 상기 생성된 학습데이터세트는 수집된 상기 블랙박스 영상의 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 및 라벨링된 이미지를 포함 URL에 관한 정보를 포함할 수 있다.In addition, the generated learning dataset includes the file name, shooting time, shooting location, vehicle speed at the time of shooting, weather at the time of shooting, number of lanes on the road where the image was taken, and labeling of each image data of the collected black box images. You can include information about the URL containing the image.

또한, 상기 생성된 학습데이터세트는 상기 각 이미지 데이터로부터 추출되는 정적 개체의 영역을 한정하는 바운딩 박스의 폭, 높이, 및 좌상단의 x,y좌표, 및 상기 바운딩 박스에 포함된 정적객체의 클래스 ID를 포함할 수 있다.In addition, the generated training dataset includes the width and height of the bounding box defining the region of the static object extracted from each image data, the x, y coordinates of the upper left corner, and the class ID of the static object included in the bounding box. can include

상술한 본 발명의 실시예들을 이용하여, 본 발명의 기술 분야에 속하는 자들은 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에 다양한 변경 및 수정을 용이하게 실시할 수 있을 것이다. 특허청구범위의 각 청구항의 내용은 본 명세서를 통해 이해할 수 있는 범위 내에서 인용관계가 없는 다른 청구항에 결합될 수 있다.Using the above-described embodiments of the present invention, those belonging to the technical field of the present invention will be able to easily implement various changes and modifications without departing from the essential characteristics of the present invention. The content of each claim of the claims may be combined with other claims without reference relationship within the scope understandable through this specification.

Claims (8)

처리장치;
촬영장치;
예측장치; 및
차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치;
를 포함하며,
상기 처리장치가,
상기 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계;
상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계;
상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계; 및
상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치에게 제공하는 단계;
를 실행하도록 되어 있고,
상기 예측장치는 지도학습 방법에 따라 학습된 신경망을 포함하며,
상기 신경망은 정보수집차량에서 촬영하여 획득한 학습용 이미지들을 학습용 입력정보로서 이용하고, 각각의 상기 획득한 학습용 이미지 내에서 지정되어 있는 한 개 이상의 객체이미지들 각각에 대한 라벨을 이용하여 지도학습된 것이며,
상기 제1객체이미지를 추출하는 단계는 상기 촬영한 제1이미지를 상기 학습된 신경망에 입력하여 상기 학습된 신경망의 출력을 이용하는 단계를 포함하며,
상기 학습된 신경망은 소정의 학습데이터세트를 이용하여 학습된 것이며,
상기 학습데이터세트를 생성하는 방법은,
상기 정보수집차량을 포함하는 차량들에 설치된 블랙박스로 촬영된 영상들을 수집하여 상기 촬영된 영상들의 데이터 편향을 제거하고, 상기 편향이 제거된 영상들에 대해 개인정보를 비식별 처리하는, 데이터 수집 단계(S10);
상기 데이터 수집 단계에서 상기 비식별 처리된 영상들로부터 유효한 이미지 데이터를 추출하는 데이터 전처리 단계(S20)로서, 준비된 대분류 카테고리를 기준으로 학습데이터 세트를 구축하여 학습을 통해 학습 모델을 생성하는 단계(S21), 상기 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터 내의 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스, 상기 바운딩 박스에 대한 아노테이션을 생성하는 단계(S22), 및 상기 생성된 아노테이션에 따라 상기 촬영된 영상들을 상기 대분류 카테고리에 따라 분류를 수행하여 상기 대분류 카테고리에 따른 동영상과 전처리된 이미지 데이터를 생성하는 단계(S23)를 포함하는, 상기 데이터 전처리 단계(S20);
상기 생성된 바운딩 박스와 아노테이션을 검수자가 확인할 수 있도록 상기 생성된 바운딩 박스와 아노테이션을 상기 검수자가 이용하는 장치에게 제공하는, 데이터 가공 단계(S30);
딥러닝 알고리즘을 이용하여 에러가 존재하는 아노테이션 데이터를 자동으로 검출하고, 상기 검출된 에러가 존재하는 아노테이션 데이터를 상기 검수자가 확인하고 수정할 수 있도록, 상기 검출된 에러가 존재하는 아노테이션 데이터를 상기 검수자가 이용하는 장치에게 제공하는, 데이터 검증 단계(S40); 및
상기 데이터 가공 단계와 상기 데이터 검증 단계에 의한 검증 절차가 완료된 데이터를 기초로 상기 학습데이터세트를 생성하는, 학습데이터세트의 생성단계(S50);
를 포함하며,
상기 데이터 수집 단계에서,
상용차 운전자인 운전자 패널이 운행하는 상용차에 설치된 블랙박스로부터 영상 데이터를 수집하고, 고화질 블랙박스를 장착한 차량을 운행하는 전문 패널이 운행하는 차량으로부터 영상 데이터를 수집하여 상기 수집된 블랙박스 영상을 보완하는 단계; 및
여객 자동차 운송 사업자의 서버로부터 구매한 영상 데이터로 상기 수집된 블랙박스 영상을 보완하는 단계;
를 더 포함하며,
최초 블랙박스 영상 수집 시, 수도권/광역시별로 제한된 인원수의 참여자로부터 상기 블랙박스 영상을 수집하도록 되어 있으며,
상기 수집된 블랙박스 영상에서 데이터 편향을 제거하고 개인정보를 비식별 처리하는 단계는,
상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터의 권역을 분류하는 단계;
상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터가 수집된 장소의 도로 유형을 분류하는 단계;
미리 저장된 자동차 DB를 통해 상기 각각의 블랙박스 영상을 제공한 차량의 자동차 유형의 분류를 수행하는 단계;
상기 수집한 블랙박스 영상을 상기 권역, 상기 도로 유형, 및 상기 자동차 유형에 따라 분류하고 편향이 생기지 않도록 상기 수집한 블랙박스 영상에 대한 필터링을 수행하는 단계;
상기 수집한 각각의 블랙박스 영상의 출발지 및 도착지 시점의 전후 구간을 삭제하는 단계;
상기 수집한 각각의 블랙박스 영상에서 영상 외의 음성 정보 삭제하는 단계;
상기 수집한 각각의 블랙박스 영상에서 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별 처리하는 단계;
상기 수집한 각각의 블랙박스 영상에서 교통사고 장면을 삭제하는 단계;
상기 수집한 각각의 블랙박스 영상에서 횡단보도 정차 시 보행자 비식별 처리를 수행하는 단계; 및
상기 수집한 각각의 블랙박스 영상에서 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리하는 단계
를 더 포함하는 것을 특징으로 하는,
차량 단말기.
processing device;
filming device;
predictor; and
An object information table including data on a plurality of static objects having one of predetermined types existing on a moving route of a vehicle, the object information table including geolocations of the plurality of static objects; and a storage device storing a plurality of standard reference images provided according to the Road Traffic Act as images representing each of the static objects.
Including,
The processing device,
The difference between the first geolocation, which is the geolocation of the first static object existing on the predicted first movement path of the vehicle, and the current vehicle location, which is the current geolocation of the vehicle obtained from the GPS device, is within a predetermined threshold value. starting photographing using the photographing device from a time point having a value;
extracting a first object image estimated to be the static object having one of the predetermined types from a first image captured by the photographing device;
selecting a first reference image corresponding to the extracted first object image from among the reference images; and
providing at least one of the extracted first object image and the selected first reference reference image to another computing device;
is supposed to run
The prediction device includes a neural network learned according to a supervised learning method,
The neural network uses learning images obtained by photographing from an information collection vehicle as input information for learning, and is supervised using a label for each of one or more object images designated in each of the acquired learning images. ,
The step of extracting the first object image includes inputting the captured first image to the learned neural network and using an output of the learned neural network;
The trained neural network is trained using a predetermined training data set,
The method for generating the learning data set,
Data collection, which collects images captured by a black box installed in vehicles including the information collection vehicle, removes data bias from the captured images, and de-identifies personal information on the images from which the bias is removed. Step (S10);
As a data pre-processing step (S20) of extracting valid image data from the de-identified images in the data collection step, creating a learning model through learning by constructing a learning data set based on the prepared large classification category (S21 ), generating a bounding box, which is information about the location of the static object in the valid image data, and an annotation for the bounding box using the generated learning model (S22), and in the generated annotation The data pre-processing step (S20) including the step (S23) of classifying the captured images according to the major classification category and generating a video and pre-processed image data according to the major classification category;
A data processing step (S30) of providing the generated bounding box and annotation to a device used by the inspector so that the inspector can check the generated bounding box and annotation;
Annotation data with errors is automatically detected using a deep learning algorithm, and the annotation data with errors is detected so that the inspector can check and correct the annotation data with errors. Provided to the device used by the inspector, data verification step (S40); and
a learning data set creation step (S50) of generating the learning data set based on the data for which the verification process by the data processing step and the data verification step is completed;
Including,
In the data collection step,
Image data is collected from a black box installed in a commercial vehicle operated by a driver panel, a commercial vehicle driver, and image data is collected from a vehicle driven by a professional panel equipped with a high-definition black box to supplement the collected black box image. doing; and
Supplementing the collected black box image with image data purchased from a server of a passenger transport service provider;
Including more,
When collecting black box images for the first time, the black box images are collected from a limited number of participants per metropolitan area/metropolitan city,
The step of removing data bias from the collected black box images and de-identifying personal information,
Classifying a region of each image data through matching the collected data of the black box image and GPS information;
Classifying a road type of a place where each image data was collected through matching the collected black box image data and GPS information;
Classifying the car type of the vehicle providing each of the black box images through a pre-stored car DB;
classifying the collected black box images according to the region, the road type, and the vehicle type, and performing filtering on the collected black box images to prevent bias;
deleting sections before and after the point of departure and destination of each of the collected black box images;
deleting audio information other than video from each of the collected black box images;
De-identifying the license plate number of the forward driving vehicle and the next lane vehicle in each of the collected black box images;
deleting traffic accident scenes from each of the collected black box images;
Performing pedestrian de-identification processing when stopping at a crosswalk in each of the collected black box images; and
De-identifying the shooting time and location information in the black box image from each of the collected black box images
Characterized in that it further comprises,
vehicle terminal.
제1항에 있어서,
상기 다른 컴퓨팅 장치는 상기 차량의 자율주행을 지원하는 자율주행장치이며,
상기 자율주행장치는 상기 차량에 포함된 디스플레이 장치에 상기 추출된 제1객체이미지 또는 상기 선택된 제1기준참조 이미지를 표시하도록 되어 있는,
차량 단말기.
According to claim 1,
The other computing device is an autonomous driving device supporting autonomous driving of the vehicle,
The autonomous driving device is configured to display the extracted first object image or the selected first reference reference image on a display device included in the vehicle.
vehicle terminal.
제1항에 있어서,
상기 제1기준참조 이미지를 선택하는 단계는,
상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택하는 단계;
상기 복수 개의 기준참조 이미지들 중, 상기 선택된 제1그룹의 정적객체들에 대응하는 제1그룹의 기준참조 이미지들을 선택하는 단계; 및
상기 선택된 제1그룹의 기준참조 이미지들 중에서 상기 제1객체이미지와의 유사도가 가장 높은 것을 상기 제1기준참조 이미지로 결정하는 단계;
를 포함하는,
차량 단말기.
According to claim 1,
The step of selecting the first reference reference image,
selecting static objects of a first group existing within a predetermined distance from the first geolocation from among the static objects stored in the object information table;
selecting a first group of standard reference images corresponding to the selected first group of static objects from among the plurality of standard reference images; and
determining an image having the highest similarity with the first object image among the selected reference images of the first group as the first reference image;
including,
vehicle terminal.
제1항에 있어서,
상기 다른 컴퓨팅 장치는 원격의 서버이며,
상기 서버는,
상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계;
상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및
상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;
를 실행하도록 되어 있는,
차량 단말기.
According to claim 1,
The other computing device is a remote server,
The server,
calculating a similarity between the extracted first object image and the selected first reference reference image;
calculating a degree of deterioration of the first static object represented by the first object image based on the calculated similarity; and
generating a repair or replacement schedule for the first static object according to the calculated degree of deterioration;
which is supposed to run
vehicle terminal.
삭제delete 제1항에 있어서,
상기 처리장치는,
상기 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 모든 객체이미지들인 제1그룹의 객체 이미지들을 추출하는 단계; 및
상기 제1지구위치 및 상기 추출한 제1그룹의 객체 이미지들에 관한 정보를 상기 다른 컴퓨팅 장치에게 제공하는 단계;
를 더 실행할 수 있으며,
상기 다른 컴퓨팅 장치는, 상기 객체정보 테이블을 포함하는 데이터베이스에 접근하도록 되어 있는 서버이며,
상기 서버는,
상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택하는 단계;
상기 제1그룹의 정적객체들 중 상기 제1그룹의 객체 이미지들에 대응하지 않는 정적객체인 손실객체가 존재하는지 판단하는 단계; 및
상기 손실객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;
를 실행하도록 되어 있는,
차량 단말기.
According to claim 1,
The processing device,
extracting object images of a first group, which are all object images estimated to be the static object having one of the predetermined types, from the first image; and
providing information about the first geolocation and the extracted object images of the first group to the other computing device;
You can run more
The other computing device is a server configured to access a database including the object information table,
The server,
selecting static objects of a first group existing within a predetermined distance from the first geolocation from among the static objects stored in the object information table;
determining whether a loss object, which is a static object that does not correspond to the object images of the first group, exists among the static objects of the first group; and
generating a repair or replacement schedule for the lost object;
which is supposed to run
vehicle terminal.
삭제delete 삭제delete
KR1020210044447A 2021-04-06 2021-04-06 Prediction and recognition method of road marking information and road maintenance method KR102562757B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210044447A KR102562757B1 (en) 2021-04-06 2021-04-06 Prediction and recognition method of road marking information and road maintenance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210044447A KR102562757B1 (en) 2021-04-06 2021-04-06 Prediction and recognition method of road marking information and road maintenance method

Publications (2)

Publication Number Publication Date
KR20220138894A KR20220138894A (en) 2022-10-14
KR102562757B1 true KR102562757B1 (en) 2023-08-02

Family

ID=83599673

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210044447A KR102562757B1 (en) 2021-04-06 2021-04-06 Prediction and recognition method of road marking information and road maintenance method

Country Status (1)

Country Link
KR (1) KR102562757B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102631777B1 (en) * 2023-09-12 2024-02-01 한국건설기술연구원 Route guidance method and route guidance system
KR102638589B1 (en) * 2023-09-27 2024-02-20 주식회사 모바휠 Apparatus for estimating of road surface type using pre-installed sensor of vehicle and method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102119033B1 (en) * 2019-09-27 2020-06-05 한국건설기술연구원 Apparatus and method for providing road marking information using image data and vibration
JP2020126359A (en) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 Information processing device, server, and traffic management system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102074209B1 (en) * 2013-08-12 2020-02-06 현대모비스 주식회사 Apparatus and method for guiding caution information of driving

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126359A (en) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 Information processing device, server, and traffic management system
KR102119033B1 (en) * 2019-09-27 2020-06-05 한국건설기술연구원 Apparatus and method for providing road marking information using image data and vibration

Also Published As

Publication number Publication date
KR20220138894A (en) 2022-10-14

Similar Documents

Publication Publication Date Title
RU2649847C2 (en) Method for reading vehicle license plates
CN103824452B (en) A kind of peccancy parking detector based on panoramic vision of lightweight
US20240046653A1 (en) Identifying suspicious entities using autonomous vehicles
CN109782364B (en) Traffic sign board missing detection method based on machine vision
US20150227965A1 (en) Method and system for evaluting signage
CN112447041B (en) Method and device for identifying operation behavior of vehicle and computing equipment
KR102562757B1 (en) Prediction and recognition method of road marking information and road maintenance method
Hadjidemetriou et al. Vision-and entropy-based detection of distressed areas for integrated pavement condition assessment
Trivedi et al. Vision-based real-time vehicle detection and vehicle speed measurement using morphology and binary logical operation
US20190096254A1 (en) Method and system for capturing operation variables for vehicles
WO2020007589A1 (en) Training a deep convolutional neural network for individual routes
US20220101272A1 (en) System and Method for Optimized Road Maintenance Planning
WO2021076573A1 (en) Systems and methods for assessing infrastructure
CN113868492A (en) Visual OD (origin-destination) analysis method based on electric police and checkpoint data and application
Pappalardo et al. Assessing the operational design domain of lane support system for automated vehicles in different weather and road conditions
Guerrieri et al. Flexible and stone pavements distress detection and measurement by deep learning and low-cost detection devices
Růžička et al. Big data application for urban transport solutions
KR102493800B1 (en) Driving environment static object recognition AI data processing method and device therefor
CN116457800A (en) Architecture for map change detection in an autonomous vehicle
Charouh et al. Video analysis and rule-based reasoning for driving maneuver classification at intersections
CN114693722B (en) Vehicle driving behavior detection method, detection device and detection equipment
KR102400842B1 (en) Service methods for providing information on traffic accidents
Sharma et al. Deep Learning-Based Object Detection and Classification for Autonomous Vehicles in Different Weather Scenarios of Quebec, Canada
JP4572823B2 (en) Route guidance system and route guidance method
Exner et al. Monitoring Street Infrastructures with Artificial Intelligence

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant