KR20220138894A - Prediction and recognition method of road marking information and road maintenance method - Google Patents

Prediction and recognition method of road marking information and road maintenance method Download PDF

Info

Publication number
KR20220138894A
KR20220138894A KR1020210044447A KR20210044447A KR20220138894A KR 20220138894 A KR20220138894 A KR 20220138894A KR 1020210044447 A KR1020210044447 A KR 1020210044447A KR 20210044447 A KR20210044447 A KR 20210044447A KR 20220138894 A KR20220138894 A KR 20220138894A
Authority
KR
South Korea
Prior art keywords
image
data
vehicle
static
images
Prior art date
Application number
KR1020210044447A
Other languages
Korean (ko)
Other versions
KR102562757B1 (en
Inventor
김현
Original Assignee
한국교통대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국교통대학교산학협력단 filed Critical 한국교통대학교산학협력단
Priority to KR1020210044447A priority Critical patent/KR102562757B1/en
Publication of KR20220138894A publication Critical patent/KR20220138894A/en
Application granted granted Critical
Publication of KR102562757B1 publication Critical patent/KR102562757B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • B60K2370/152
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are a vehicle terminal and a method for managing a static object on a vehicle movement path using the same, wherein the vehicle terminal executes the following steps of: extracting a first object image estimated to be a static object on a road having one of predetermined types from a first image taken by a photographing device of a vehicle; selecting a first reference image corresponding to the extracted first object image among a plurality of reference images provided according to traffic laws as images respectively representing static objects; and providing at least one of the extracted first object image and the selected first reference image to another computing device. According to the present invention, provided is a technology for detecting an image of a driver and autonomous vehicle and determining visibility according to a pavement condition of a road using pre-collected information on various static objects related to the road.

Description

노면표시 정보의 예측 및 인식방법 및 도로 유지관리 방법{Prediction and recognition method of road marking information and road maintenance method}Prediction and recognition method of road marking information and road maintenance method

본 발명은 컴퓨팅 기술을 이용하여, 차선/횡단보도, 신호등, 도로표지판 등 도로 주행과 관련하여 획득한 정적객체인지 AI데이터를 기반으로 노면표시 정보를 인식하고, 인식된 노면표시 정보를 이용하여 도로 유지관리를 위한 정보를 생성하는 기술에 관한 것이다.The present invention recognizes road marking information based on AI data that is a static object obtained in relation to road driving such as lane/crosswalk, traffic lights, and road signs using computing technology, and uses the recognized road marking information to recognize the road It relates to technology for generating information for maintenance.

주행환경 정적객체인지 AI 데이터는 자율자동차의 적성검사 항목에 해당한다. 자율주행자동차가 주행하기 위해, 인지-판단-제어 단계 중에서 첫 번째 항목이 인지이며, 주행환경 정적객체(차로의 차선, 횡단보도, 신호등, 도로표지)는 "자율주행자동차 운전면허 시험제도"중 학과시험 항목에 해당한다. 자율주행자동차가 상용화되기 위한 첫 걸음으로서 정적객체 인식기술의 발전이 요구되고 있다.AI data, which is a static object in the driving environment, is an aptitude test item for autonomous vehicles. For autonomous vehicles to drive, the first item in the cognitive-judgment-control stage is cognition, and static objects in the driving environment (lanes, crosswalks, traffic lights, road signs) are in the "Autonomous Driving Vehicle Driver's License Test System" It corresponds to the subject of the department exam. As the first step toward commercialization of autonomous vehicles, the development of static object recognition technology is required.

자율주행자동차 관련 기술이 발전함에 따라 국내ㆍ외에서 자율주행에 필요한 각종 단말기와 센서 등 장착의 순차적 의무화가 추진되고 있으며, 이를 바탕으로 해외에서부터 2020년대 초중반에 걸쳐 자율주행 상용화에 필요한 면허ㆍ보험ㆍ안전 및 보안ㆍ인증 분야의 법 및 제도가 완비될 것으로 예상된다. With the development of autonomous vehicle-related technologies, the sequential compulsory installation of various terminals and sensors necessary for autonomous driving is being promoted at home and abroad. It is expected that laws and systems in the field of security and authentication will be complete.

현재 운전을 보조하는 수준의 레벨 2 자율주행 기술인 첨단 운전자 지원 시스템(Advanced Driver Assistance System, ADAS) 상용화 완료 후 해외 완성차 제조업체를 중심으로 일부 레벨 3~4 자율주행 기술의 구현이 확대되고 있다.After the completion of commercialization of the Advanced Driver Assistance System (ADAS), which is a level 2 autonomous driving technology that is at the level of current driving assistance, the implementation of some level 3~4 autonomous driving technologies is expanding, centering on overseas automakers.

대표적인 자율주행 기술은, 영상인식센서를 통하여 전방 차선을 인식하고 스티어링 휠(핸들)을 제어하여 차선을 유지하는 차선유지지원시스템(Lane Keeping Assist System, LKAS) 기술, 표지판을 인식하여 속도조절, 방향전환 및 추월을 지원하는 도로표지판인식(Traffic Sign Recognition, TSR) 기술, 차간거리 제어기능과 차선유지기능 등을 조합하여 차선이 보이지 않는 경우에도 주변 차량의 주행 궤적을 인지하여 선행차량과 일정한 간격을 유지하는 혼잡구간주행지원시스템(Traffic Jam Assist, TJA) 기술 등이 있다. 본 발명은 상기 차선유지지원시스템 및 도로표지판인식에 관련되어 있다. The representative autonomous driving technology is the Lane Keeping Assist System (LKAS) technology that recognizes the front lane through an image recognition sensor and maintains the lane by controlling the steering wheel (steering wheel), speed control by recognizing signs, and direction By combining Traffic Sign Recognition (TSR) technology that supports switching and overtaking, the inter-vehicle distance control function and the lane keeping function, it recognizes the driving trajectory of nearby vehicles and maintains a certain distance from the preceding vehicle even when the lane is not visible. There is a traffic jam assist (TJA) technology that maintains the traffic jam. The present invention relates to the lane keeping support system and road sign recognition.

운전자의 책임소재가 급격하게 감소되는 레벨 3~4 이상의 자율주행자동차 제작을 위해서는 정적ㆍ동적 장애물을 인식하는 카메라ㆍ레이더(Radio Detection and Ranging, RADAR)ㆍ라이다(Light Detection and Ranging, LIDAR) 등의 주행환경 인식센서와 GPS 기반 측위, 도로시설ㆍ신호ㆍ표지 등의 정보를 제공하는 정밀도로지도, 각종 시설ㆍ환경 및 교통정보를 교환하는 V2V(Vehicle to Vehicle) 및 V2I(Vehicle to Infra) 등의 요소 기술이 추가적으로 필요하다. For the production of autonomous vehicles of level 3 or 4 or higher, where the driver's responsibility is rapidly reduced, cameras, radars (Radio Detection and Ranging, RADAR), and LIDAR (Light Detection and Ranging, LIDAR) that recognize static and dynamic obstacles are required. Driving environment recognition sensor and GPS-based positioning, maps with precision that provides information such as road facilities, signals, and signs, V2V (Vehicle to Vehicle) and V2I (Vehicle to Infra), etc. that exchange various facilities, environment and traffic information of the element technology is additionally required.

자율주행 기술 완성도 제고를 위해서는 차선 및 횡단보도와 신호등/도로표지와 같은 도로 상의 정적객체에 대한 자동차 AI의 인식성능 향상이 필요하다. 자율주행 단계가 올라갈수록 인공지능 의존도는 계속 증가할 것이며, 자율주행 주행은 정적객체 인식이 아주 중요하며 차선을 인식하여 주행하는 것이 제어 완성도를 높이는 방법이다. 이에 따라 차선정보 획득을 위한 데이터세트 확보 및 Ground Truth 정보가 필요하다. In order to improve the completeness of autonomous driving technology, it is necessary to improve the recognition performance of automobile AI for static objects on the road such as lanes, crosswalks, and traffic lights/road signs. As the level of autonomous driving increases, the dependence on artificial intelligence will continue to increase. In autonomous driving, static object recognition is very important, and driving by recognizing the lane is a way to improve control. Accordingly, it is necessary to secure a dataset for obtaining lane information and obtain ground truth information.

자율주행 고도화를 위해서 주변 인프라 정보를 획득하여 자기차량센서와 융합을 통해 제어를 수행하는 자율협력 주행이 도입되고 있어 차량간 통신을 통해 신호등 정보 등에 대해 획득이 가능하여 자율주행의 수준을 높이고 있다. 이와 같이 자율협력 주행이 도입되고 있어 차량 간 통신을 통해 신호등 정보 등에 대해 획득이 가능하지만 통신지연 등 데이터의 완결성을 보장하기는 어렵다. 이에 신호등 정보에 대한 인식을 통해 교차로 등에서의 딜레마 현상은 해소가 가능하지만 자율주행차량의 최종 제어판단은 차량의 자기 센서를 통해 판단하는 것이 필요하여 영상센서를 이용한 신호등 인식 등에 개발이 필수적으로 대두되고 있어 딥러닝 기반 개발을 위해 많은 다양한 환경에서의 양질의 신호등 데이터셋이 필요하다. 정밀지도의 도입으로 다양한 서비스가 가능하지만, 센서만으로 자율주행차량의 위치를 정확히 판단하기는 어려운 상황이 존재할 수 있다. 보행자를 보호를 위해 횡단보도에 정확히 정차하는 것은 정밀지도 정보기반으로도 가능하지만 최종적으로 차량에서의 정지선 판단이 필요해 보이며 많은 다양한 환경에서의 양질의 데이터가 필요한 상황이다.In order to advance autonomous driving, autonomous cooperative driving, which acquires surrounding infrastructure information and performs control through convergence with own vehicle sensors, is being introduced. As such, autonomous cooperative driving is being introduced, so it is possible to obtain traffic light information through communication between vehicles, but it is difficult to guarantee the integrity of data such as communication delay. Accordingly, the dilemma at intersections can be resolved through recognition of traffic light information, but the final control panel of an autonomous vehicle needs to be judged through the vehicle's magnetic sensor, so development of traffic light recognition using an image sensor is essential. Therefore, high-quality traffic light datasets in many different environments are needed for deep learning-based development. Although various services are possible with the introduction of precision maps, there may be situations in which it is difficult to accurately determine the location of an autonomous vehicle with only a sensor. Accurately stopping at a crosswalk to protect pedestrians is possible even with precision map information, but ultimately, it is necessary to determine the stop line in the vehicle, and high-quality data in many different environments is required.

자율주행 및 차세대 지능형 교통서비스(C-ITS)를 위해서는 자동차가 주행하면서 카메라를 통해 센싱하는 다양한 정적객체를 인지하는 것이 요구된다. 자율주행에서는 주행 가능 경로를 판단하고 해당 경로로 주행하기 위한 횡방향 차량 제어를 위해서는, 다양한 환경에서 다양한 형태의 차선을 인지하는 것이 필요하다. 또한, 자율주행차량은 다양한 도로 교통상황을 인지하기 위해 교통 신호등, 도로표지판, 횡단보도 등을 카메라를 통해 센싱 및 인지하는 것이 필요하다. For autonomous driving and next-generation intelligent transportation service (C-ITS), it is required to recognize various static objects sensed through a camera while driving. In autonomous driving, in order to determine a drivable path and control a lateral vehicle to drive on the corresponding path, it is necessary to recognize various types of lanes in various environments. In addition, the autonomous vehicle needs to sense and recognize traffic lights, road signs, crosswalks, etc. through a camera in order to recognize various road traffic conditions.

자동차가 주행하면서 카메라를 통해 도로관련정보를 획득하고 인지하는 것은, 도로 및 그 주변에 해당 정보가 훼손되지 않은 상태로 유지되고 있을 것을 전제로 한다. 시간이 흐름에 따라 예컨대 횡단보도와 같은 표식이 훼손되거나 일분 표지판이 훼손될 수 있다. 이러한 훼손 사실을 신속히 파악하여 복구해야 하는데 이러한 사실의 파악을 지원하는 기술이 요구된다.Acquiring and recognizing road-related information through a camera while driving a vehicle assumes that the information is maintained undamaged on the road and its surroundings. Over time, signs such as crosswalks, for example, may be damaged, or one-minute signs may be damaged. Such damage needs to be quickly identified and restored, and a technology that supports the identification of this fact is required.

일례로, 1년간 교통사고 2건 이상 발생 또는 사망자 1명이상 발생한 '교통사고 다발스쿨존' 126 개소의 조사결과 전체의 75.4%가 노면표시 등의 노후화로 발생된 문제인 것으로 나타나 있다(2020년, 행안부). 따라서 노면 표시의 적절한 모니터링과 관리 그리고 이에 해당하는 적절한 운전자 정보 보조수단이 필요하다. For example, as a result of a survey of 126 'School Zones with Multiple Traffic Accidents' in which two or more traffic accidents occurred or one or more fatalities occurred in one year, 75.4% of the total were problems caused by deterioration of road markings, etc. (2020, Ministry of Public Administration and Security). Therefore, proper monitoring and management of road markings and appropriate driver information assistance means are required.

본 발명에서는, 이미 수집되어 있는 도로와 관련된 다양한 정적객체에 관한 정보를 이용하여 도로의 포장상태에 따른 운전자 및 자율주행 차량의 이미지 검출 및 시인성 정도 판단하는 기술을 제공할 수 있고, 또한 식별이 어려운 노면 표시, 차선 등 에 대한 이미지 예측을 통해 실시간으로 표시내용을 보완하여 제공할 수 있으며, 예측된 정보와 실제 관측된 정보 간의 차이를 도로 상의 정적객체 관리시스템의 관리자에게 제공하는 기술을 제공하고자 한다.In the present invention, it is possible to provide a technology for detecting images and determining the degree of visibility of drivers and autonomous vehicles according to the pavement condition of the road by using the information about various static objects related to the road that has already been collected, and it is also difficult to identify It is intended to provide a technology that can supplement and provide display contents in real time through image prediction of road surface markings and lanes, and provide the difference between predicted information and actual observed information to the administrator of the static object management system on the road. .

본 발명의 일 관점에 따라 제공되는 도로상의 정적객체 인식방법은, 합성곱 신경망(CNN) 알고리즘을 이용하여 구현될 수 있다. 상기 합성곱 신경망은 인공 신경망의 일종이다. 상기 인공 신경망은 기계학습과 인지과학에서 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘이다. 인공 신경망은 시냅스의 결합으로 네트워크를 형성한 인공뉴런이 학습을 통해 시냅스의 결합세기를 변화시켜, 문제해결능력을 갖는 모델이다. The static object recognition method on the road provided according to an aspect of the present invention may be implemented using a convolutional neural network (CNN) algorithm. The convolutional neural network is a kind of artificial neural network. The artificial neural network is a statistical learning algorithm inspired by neural networks in biology in machine learning and cognitive science. An artificial neural network is a model that has problem-solving ability by changing the strength of synaptic bonding through learning in which artificial neurons that form a network through synaptic bonding.

본 발명의 일 관점에 따라 제공되는 도로관리정보 생성방법은, 노면표시 재도색 필요 여부, 안전표지 노후화 여부, 신호기 노후화 여부, 및 미끄럼 방지포장 노후화 여부에 관한 정보를 생성하여 제공할 수 있다.The method for generating road management information provided according to an aspect of the present invention may generate and provide information on whether road surface markings need repainting, whether safety signs are aging, whether signal signs are aging, and whether or not anti-slip pavement is aging.

인공 신경망에서 다수의 은닉측(hidden layer)을 사용하는 것이 최근 빅데이터 기반 기계학습에서 대두되고 있는 딥러닝이다. 딥러닝은 선형회귀분석에서는 추출하기 어려운 비선형 패턴을 찾는데 용이하며, 이와 같은 특성 때문에 컴퓨터 비전이나 언어학습 등에 매우 강력한 기술이 되었다. 컴퓨터 비전의 경우, 이미지를 입력 데이터로 활용하기 때문에 단순 정형 데이터를 다룰 때와는 다른 구조를 필요로 하며, 이를 반영한 것이 합성곱 신경망이다. 합성곱 신경망은 합성곱이라는 추가적인 은닉측과 맥스 풀링(max pooling)이라는 패턴 인식을 위한 장치가 포함된다.The use of multiple hidden layers in artificial neural networks is a deep learning emerging in big data-based machine learning. Deep learning is easy to find non-linear patterns that are difficult to extract in linear regression analysis. In the case of computer vision, since images are used as input data, a structure different from that when dealing with simple structured data is required, and the convolutional neural network reflects this. A convolutional neural network includes an additional hidden side called convolution and a device for pattern recognition called max pooling.

본 발명에서는, 촬영된 이미지와 데이터 셋에서 노면표시 정보의 노후정도 그리고 시인성에 관련된 특정 패턴들을 자동적으로 인식하기 위해, 이미지 내 패턴 인식에 이용되는 합성곱 신경망 기술을 이용한다.In the present invention, in order to automatically recognize specific patterns related to the degree of aging and visibility of road marking information in a photographed image and data set, a convolutional neural network technique used for pattern recognition in an image is used.

본 발명의 일 관점에 따라 채택되는 합성곱 신경망 기술은 기존의 이미지 패턴 인식모델을 활용하며, 이 구조에는 서포트 벡터 머신 알고리즘이 보편적으로 사용된다. 서포트 벡터 머신 알고리즘은 이미지 내에 존재하는 다수의 오브젝트 중 분석에 필요한 오브젝트를 인식하고 오브젝트의 위치를 박스(box) 형태로 제약함으로써 분석의 정확도를 높이기 위해 활용된다. The convolutional neural network technology adopted according to an aspect of the present invention utilizes an existing image pattern recognition model, and a support vector machine algorithm is commonly used for this structure. The support vector machine algorithm is used to increase the accuracy of analysis by recognizing an object required for analysis among a plurality of objects existing in an image and restricting the position of the object in a box shape.

본 발명의 일 과점에 따라 제공되는 도로관리정보 생성방법은 이미지를 기반으로 노면표시의 노후 정도를 인식하는 것뿐만 아니라 해당 이미지들을 기반으로 해당 노면표시정보를 예측하는 모델을 제공하며, 여기에는 지도학습이 이용된다.The method for generating road management information provided in accordance with an aspect of the present invention provides a model for predicting the corresponding road marking information based on the images as well as recognizing the degree of aging of the road markings based on the images, and includes a map learning is used

지도학습은 비지도학습과 달리 학습 데이터에 라벨이 있어야 하며, 학습 데이터의 "정답"을 기반으로 모델을 학습시킨다. 본 발명에서는 도로교통법에서 제시하는 정답 데이터와 이미지 데이터를 기반으로 학습 데이터 생성을 하게 되며, 이를 기반으로 이미지 기반 딥러닝 모델의 분석 결과와 노후표시-정답데이터 간의 연관성 및 패턴을 찾을 수 있게 된다.Unlike unsupervised learning, supervised learning requires that the training data be labeled, and the model is trained based on the "correct answer" of the training data. In the present invention, learning data is generated based on the correct answer data and image data presented by the Road Traffic Act, and based on this, the correlation and pattern between the analysis result of the image-based deep learning model and the aging indication-correct answer data can be found.

본 발명의 일 관점에 따라 지속가능한 도로 유지 관리 및 개선을 위한 데이터가 제공될 수 있다. Data for sustainable road maintenance and improvement may be provided in accordance with an aspect of the present invention.

이때, 특히, 시설노후화 여부를 평가할 수 있는 데이터가 제공될 수 있다. 이를 위한 구체적인 기술로서, ① 노후화 교면(노면)표시의 이미지 예측기술, ② 도로시설물 안전도 평가 기술, 및 ③ 교면(노면)포장 및 시인성 정도 모니터링을 통한 성능변화 추정 및 정정 개축시기 예측기술을 제공할 수 있다.In this case, in particular, data for evaluating whether the facility is aging may be provided. As specific technologies for this, ① image prediction technology of aging bridge surface (road surface) markings, ② road facility safety evaluation technology, and ③ performance change estimation and correction through monitoring the degree of visibility and correction of bridge surfaces (road surface) are provided. can do.

또한, 특히, 자율주행을 지원하기 위한 데이터가 제공될 수 있다. 구체적으로는 자율주행 차량을 위한 최적의 교면(노면)포장 휘도 및 시인성 판단 기술이 제공될 수 있다.Also, in particular, data for supporting autonomous driving may be provided. Specifically, an optimal bridge surface (road surface) pavement luminance and visibility determination technology for an autonomous vehicle may be provided.

본 발명의 일 관점에 따라 제공되는 도로 상의 정적객체 예측방법은, 이미지 인식기반 합성곱 신경망 알고리즘을 이용하여, 노후화되어 식별이 어려운 노면표시 이미지를 도로교통법에서 제공하는 정합데이터와 비교를 통해 노후화정도 측정 및 예측을 통해 운전자 또는 자율주행 서비스에 해당 노면 표시정보를 API로 실시간 전달할 수 있다.The static object prediction method on the road provided according to an aspect of the present invention uses an image recognition-based convolutional neural network algorithm to compare the aged and difficult-to-identify road surface display image with the matching data provided by the Road Traffic Act. Through measurement and prediction, the relevant road surface indication information can be delivered to the driver or autonomous driving service in real time as an API.

또한, 본 발명의 일 관점에 따라 제공되는 도로시설물 안전도 평가 방법은, 노후화 교면(노면) 표시의 이미지 예측기술에서 얻은 산출물을 바탕으로, 노면 표시의 주ㅇ야간, 악천후의 상황에서의 시인성과 노후도를 단계별로 (최상-보통-개선필요-시급) 판단기준을 제시하여 안전도를 평가할 수 있도록 도로환경을 평가하는 솔루션을 제공할 수 있다. 또한 상기 정적객체에 관한 교면(노면)포장 및 시인성 정도 모니터링을 수행하여 그 결과에 따라, 상기 정적객체의 성능 변화를 추정하고, 누후화 된 정적객체의 수리를 위한 정정 개축시기를 예측할 수 있다.In addition, the road facility safety evaluation method provided according to an aspect of the present invention is based on the output obtained from the image prediction technology of the aging bridge surface (road surface) mark, the visibility and It is possible to provide a solution to evaluate the road environment so that the level of safety can be evaluated by presenting the criteria for determining the level of deterioration in stages (best - average - need for improvement - urgently). In addition, it is possible to estimate the performance change of the static object by performing monitoring of the bridge surface (road surface) pavement and the degree of visibility on the static object, and predict the corrective reconstruction time for repairing the leaking static object.

또한, 본 발명의 일 관점에 따라 제공되는 모니터링 방법은, 도로시설물 안전도 평가 방법에서 얻은 산출물을 바탕으로 기존 데이터의 수집시기와 지구위치정보 데이터(Geo data)의 안전도 평가 이력(history) 관리를 통해 민간 기관, 관청 기관에게 상기 정적객체의 재포장, 수리 필요 여부를 실시간으로 제공한다. In addition, the monitoring method provided according to one aspect of the present invention manages the collection time of existing data and the safety evaluation history of geo data based on the output obtained from the road facility safety evaluation method It provides real-time information on whether the static object needs to be repackaged or repaired to private and government agencies through the

또한, 본 발명의 일 관점에 따라 제공되는, 자율주행 차량을 위한 최적의 교면(노면)포장 휘도 및 시인성 판단 지원 정보 제공방법은, 노후화 교면(노면)표시의 이미지 예측기술의 산출물을 바탕으로 자율주행차량의 카메라를 통한 이미지인식의 정확도 향상에 기여할 수 있도록 노면포장의 이미지 센서의 인식율 향상에 관련된 추가적인 정보를 제공할 수 있다.In addition, the optimal bridge surface (road surface) pavement brightness and visibility determination support information providing method for an autonomous vehicle provided according to an aspect of the present invention is autonomous based on the output of image prediction technology of aging bridge surface (road surface) display Additional information related to the improvement of the recognition rate of the image sensor of the pavement can be provided so as to contribute to the improvement of the accuracy of image recognition through the camera of the driving vehicle.

본 발명의 일 관점에 따라 제공되는 차량 단말기는, 처리장치; 촬영장치; 및 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치;를 포함한다. A vehicle terminal provided according to an aspect of the present invention includes: a processing device; photographing device; and an object information table including data on a plurality of static objects having any one of predetermined types existing on a movement path of a vehicle, and the object information table including geolocations of the plurality of static objects and a storage device in which a plurality of reference reference images provided according to the Road Traffic Act are stored as images representing each of the static objects.

이때, 상기 처리장치가, 상기 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계; 상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계; 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계; 및 상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치에게 제공하는 단계;를 실행하도록 되어 있다. At this time, the difference between the first earth position, which is the earth position of the first static object existing on the predicted first movement path of the vehicle, by the processing device, and the current vehicle position, which is the current earth position of the vehicle obtained from the GPS device starting photographing using the photographing device from a point in time when α has a value within a predetermined threshold value; extracting a first object image estimated to be the static object having any one of the predetermined types from the first image photographed by the photographing device; selecting a first reference reference image corresponding to the extracted first object image from among the reference reference images; and providing at least one of the extracted first object image and the selected first reference reference image to another computing device.

이때, 상기 다른 컴퓨팅 장치는 상기 차량의 자율주행을 지원하는 자율주행장치이며, 상기 자율주행장치는 상기 차량에 포함된 디스플레이 장치에 상기 추출된 제1객체이미지 또는 상기 선택된 제1기준참조 이미지를 표시하도록 되어 있을 수 있다.In this case, the other computing device is an autonomous driving device supporting autonomous driving of the vehicle, and the autonomous driving device displays the extracted first object image or the selected first reference reference image on a display device included in the vehicle. may be made to do.

이때, 상기 제1기준참조 이미지를 선택하는 단계는, 상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택하는 단계; 상기 복수 개의 기준참조 이미지들 중, 상기 선택된 제1그룹의 정적객체들에 대응하는 제1그룹의 기준참조 이미지들을 선택하는 단계; 및 상기 선택된 제1그룹의 기준참조 이미지들 중에서 상기 제1객체이미지와의 유사도가 가장 높은 것을 상기 제1기준참조 이미지로 결정하는 단계;를 포함할 수 있다.In this case, the selecting of the first reference reference image may include: selecting a first group of static objects existing within a predetermined distance from the first earth location from among the static objects stored in the object information table; selecting a first group of reference reference images corresponding to the selected first group of static objects from among the plurality of reference reference images; and determining, among the selected first group of reference reference images, the one having the highest similarity with the first object image as the first reference reference image.

이때, 상기 다른 컴퓨팅 장치는 원격의 서버이며, 상기 서버는, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계; 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;를 실행하도록 되어 있을 수 있다.In this case, the other computing device is a remote server, and the server may include: calculating, by the server, a degree of similarity between the extracted first object image and the selected first reference reference image; calculating an aging degree of the first static object represented by the first object image based on the calculated similarity; and generating a repair or replacement schedule for the first static object according to the calculated degree of deterioration.

이때, 상기 차량 단말기는 예측장치를 더 포함하며, 상기 예측장치는 지도학습 방법에 따라 학습된 신경망을 포함하며, 상기 신경망은 정보수집차량에서 촬영하여 획득한 학습용 이미지들을 학습용 입력정보로서 이용하고, 각각의 상기 획득한 학습용 이미지 내에서 지정되어 있는 한 개 이상의 객체이미지들 각각에 대한 라벨을 이용하여 지도학습된 것일 수 있다. 그리고 상기 제1객체이미지를 추출하는 단계는 상기 촬영한 제1이미지를 상기 학습된 신경망에 입력하여 상기 학습된 신경망의 출력을 이용하는 단계를 포함할 수 있다.In this case, the vehicle terminal further includes a prediction device, and the prediction device includes a neural network learned according to a supervised learning method, and the neural network uses images for learning obtained by shooting an information collection vehicle as input information for learning, It may be supervised learning using a label for each of one or more object images designated in each of the acquired learning images. The extracting of the first object image may include inputting the photographed first image to the learned neural network and using an output of the learned neural network.

이때, 상기 처리장치는, 상기 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 모든 객체이미지들인 제1그룹의 객체 이미지들을 추출하는 단계; 상기 제1지구위치 및 상기 추출한 제1그룹의 객체 이미지들에 관한 정보를 상기 다른 컴퓨팅 장치에게 제공하는 단계;를 더 실행할 수 있다. 그리고 상기 다른 컴퓨팅 장치는, 상기 객채정보 테이블을 포함하는 데이터베이스에 접근하도록 되어 있는 서버일 수 있다. 이때, 상기 서버는, 상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택하는 단계; 상기 제1그룹의 정적객체들 중 상기 제1그룹의 객체 이미지들에 대응하지 않는 정적객체인 손실객체가 존재하는지 판단하는 단계; 및 상기 손실객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;를 실행하도록 되어 있을 수 있다.In this case, the processing apparatus may include: extracting, from the first image, a first group of object images, which are all object images estimated to be the static objects having any one of the predetermined types; The step of providing information about the first earth position and the extracted first group of object images to the other computing device; may be further executed. The other computing device may be a server configured to access a database including the object information table. In this case, the server selects, among the static objects stored in the object information table, a first group of static objects existing within a predetermined distance from the first earth location; determining whether there is a lost object that is a static object that does not correspond to the object images of the first group among the static objects of the first group; and generating a repair or replacement schedule for the lost object.

본 발명의 다른 관점에 따라 제공되는 도로 상 정적객체의 관리 스케줄 생성방법은, 서버가, 차량 단말기로부터 제1객체이미지 및 제1기준참조 이미지를 수신하는 단계; 상기 서버가, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계; 상기 서버가, 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및 상기 서버가, 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;를 포함한다. According to another aspect of the present invention, there is provided a method for generating a management schedule for a static object on a road, the method comprising: receiving, by a server, a first object image and a first reference reference image from a vehicle terminal; calculating, by the server, a degree of similarity between the extracted first object image and the selected first reference reference image; calculating, by the server, a degree of deterioration of the first static object represented by the first object image based on the calculated similarity; and generating, by the server, a repair or replacement schedule for the first static object according to the calculated degree of deterioration.

이때, 상기 차량 단말기는, 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치에 액세스하도록 되어 있다. In this case, the vehicle terminal determines the geolocations of the plurality of static objects as an object information table including data on a plurality of static objects having any one type among predetermined types existing on the movement path of the vehicle. A plurality of reference reference images provided in accordance with the Road Traffic Act as images representing the object information table including the static objects and each of the static objects are accessed to a storage device stored therein.

그리고 이때, 상기 차량 단말기는, 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계; 상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계; 및 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계를 실행하도록 되어 있다. And at this time, the vehicle terminal, the difference between the first earth position that is the earth position of the first static object existing on the predicted first movement path of the vehicle and the current vehicle position that is the current earth position of the vehicle obtained from the GPS device starting photographing using the photographing device from a point in time when α has a value within a predetermined threshold value; extracting a first object image estimated to be the static object having any one of the predetermined types from the first image photographed by the photographing device; and selecting a first reference reference image corresponding to the extracted first object image from among the reference reference images.

본 발명의 일 관점에 따라 제공되는 차량 이동경로 상의 정적객체 관리방법은, 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치를 포함하는 차량 단말기를 이용하도록 되어 있다. A method for managing static objects on a vehicle movement path provided according to an aspect of the present invention is an object including data about a plurality of static objects having any one type among predetermined types existing on a vehicle movement path. A vehicle terminal including the object information table including the earth positions of the plurality of static objects as an information table, and a storage device in which a plurality of reference reference images provided according to the Road Traffic Act as an image representing each static object are stored. is intended to be used.

상기 차량 이동경로 상의 정적객체 관리방법은, 상기 차량 단말기가, 상기 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계; 상기 차량 단말기가, 상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계; 상기 차량 단말기가, 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계; 및 상기 차량 단말기가, 상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치에게 제공하는 단계;를 포함한다. In the method for managing static objects on the vehicle movement path, the vehicle terminal includes: a first earth position that is the earth position of a first static object existing on the predicted first movement path of the vehicle; and a GPS device of the vehicle. starting photographing using the photographing device from a point in time when a difference between current vehicle positions, which is a current earth position, has a value within a predetermined threshold value; extracting, by the vehicle terminal, a first object image estimated to be the static object having any one of the predetermined types from the first image photographed by the photographing device; selecting, by the vehicle terminal, a first reference reference image corresponding to the extracted first object image from among the reference reference images; and providing, by the vehicle terminal, at least one of the extracted first object image and the selected first reference reference image to another computing device.

그리고 또한, 상기 차량 이동경로 상의 정적객체 관리방법은, 서버가, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계; 상기 서버가, 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및 상기 서버가, 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;를 포함한다.In addition, the method for managing a static object on a vehicle movement path may include: calculating, by a server, a degree of similarity between the extracted first object image and the selected first reference reference image; calculating, by the server, a degree of deterioration of the first static object represented by the first object image based on the calculated similarity; and generating, by the server, a repair or replacement schedule for the first static object according to the calculated degree of deterioration.

본 발명의 일 관점에 따라 원천 데이터 확보 서버(1)를 포함하는 크라우드소싱 플랫폼 시스템에서, 주행환경에서의 정적객체를 인지하는 인공지능의 학습데이터세트를 처리하는 학습데이터세트 처리방법이 제공될 수 있다. 상기 처리방법은, 상기 원천 데이터 확보 서버(1)가, 크라우드 소싱에 기반하여 블랙박스 영상을 수집하여, 수집된 상기 블랙박스 영상에서 데이터 편향을 제거하고 개인정보를 비식별 처리함으로써, 상기 수집된 블랙박스 영상으로부터 정제된 영상 데이터를 생성하는 데이터 수집 단계(S10); 상기 원천 데이터 확보 서버(1)가, 학습데이터를 구성하는 대분류 카테고리들을 기준으로 상기 정제된 영상 데이터를 분류하고, 상기 정제된 영상 데이터로부터 유효한 이미지 데이터를 추출하는 단계(S20); 및 상기 정제된 영상 데이터 및 상기 유효한 이미지 데이터로부터 학습데이터세트를 생성하는 단계(S50);를 포함한다. According to an aspect of the present invention, in a crowdsourcing platform system including a source data securing server 1, a learning dataset processing method for processing a learning dataset of artificial intelligence that recognizes a static object in a driving environment can be provided. have. In the processing method, the source data securing server 1 collects black box images based on crowd sourcing, removes data bias from the collected black box images, and de-identifies personal information, so that the collected A data collection step of generating refined image data from the black box image (S10); classifying, by the source data securing server 1, the refined image data based on the large classification categories constituting the learning data, and extracting effective image data from the refined image data (S20); and generating a training dataset from the refined image data and the valid image data (S50).

이때, 상기 데이터 수집 단계는, 상기 원천 데이터 확보 서버(1)가, 상용차 운전자인 운전자 패널이 운행하는 상용차에 설치된 블랙박스로부터 영상 데이터를 수집하고, 고화질 블랙박스를 장착한 차량을 운행하는 전문 패널이 운행하는 차량으로부터 영상 데이터를 수집하여 상기 블랙박스 영상을 보완하는 단계; 및 상기 원천 데이터 확보 서버(1)가, 여객 자동차 운송 사업자의 서버로부터 구매한 영상 데이터로 상기 블랙박스 영상을 보완하는 단계;를 포함할 수 있다. In this case, in the data collection step, the source data securing server 1 collects image data from a black box installed in a commercial vehicle operated by a driver panel, which is a commercial vehicle driver, and operates a vehicle equipped with a high-definition black box. Compensating the black box image by collecting image data from the moving vehicle; and supplementing, by the source data securing server 1, the black box image with image data purchased from a server of a passenger vehicle transport company.

이때, 상기 데이터 수집 단계는, 상기 원천 데이터 확보 서버(1)가, 수집된 상기 블랙박스 영상에서 데이터 편향을 제거하기 위하여, 최초 블랙박스 영상 수집 시 수도권/광역시별로 제한된 인원수의 참여자로부터 상기 블랙박스 영상을 수집하는 단계; 상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터의 권역을 분류하는 단계; 상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터가 수집된 장소의 도로 유형을 분류하는 단계; 미리 저장된 자동차 DB를 통해 상기 각각의 블랙박스 영상을 제공한 차량의 자동차 유형의 분류를 수행하는 단계; 및 상기 수집한 블랙박스 영상을 상기 권역, 상기 도로 유형, 및 상기 자동차 유형에 따라 분류하고 편향이 생기지 않도록 상기 수집한 블랙박스 영상에 대한 필터링을 수행하는 단계;를 포함할 수 있다.In this case, in the data collection step, in order for the source data securing server 1 to remove data bias from the collected black box image, the black box is collected from a limited number of participants for each metropolitan area/metropolitan city when the first black box image is collected. collecting images; classifying regions of each image data by matching the collected data of the black box image with GPS information; classifying a road type of a place where each image data is collected by matching the collected data of the black box image with GPS information; classifying the vehicle type of the vehicle providing each of the black box images through a pre-stored vehicle DB; and classifying the collected black box images according to the region, the road type, and the vehicle type, and performing filtering on the collected black box images to prevent bias.

이때, 상기 데이터 수집 단계는, 상기 원천 데이터 확보 서버(1)가, 상기 개인정보를 비식별 처리하기 위하여, 상기 수집한 각각의 블랙박스 영상의 출발지 및 도착지 시점의 전후 구간을 삭제하는 단계; 상기 수집한 각각의 블랙박스 영상에서 영상 외의 음성 정보 삭제하는 단계; 상기 수집한 각각의 블랙박스 영상에서 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별 처리하는 단계; 상기 수집한 각각의 블랙박스 영상에서 교통사고 장면을 삭제하는 단계; 상기 수집한 각각의 블랙박스 영상에서 횡단보도 정차 시 보행자 비식별 처리를 수행하는 단계; 및 상기 수집한 각각의 블랙박스 영상에서 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리하는 단계;를 포함할 수 있다. In this case, the data collection step may include: deleting, by the source data securing server 1, a section before and after the starting point and the destination point of each of the collected black box images in order to de-identify the personal information; deleting audio information other than the video from each of the collected black box images; de-identifying the vehicle numbers of the vehicle driving ahead and the vehicle in the next lane from each of the collected black box images; deleting a traffic accident scene from each of the collected black box images; performing pedestrian de-identification processing when stopping at a crosswalk on each of the collected black box images; and de-identifying the photographing time and location information in the black box image from each of the collected black box images.

이때, 상기 생성된 학습데이터세트는 표지판, 차선 및 횡단보도, 신호등, 및 기타표식 중 어느 하나의 카테고리로 분류되어 있을 수 있다. At this time, the generated learning dataset may be classified into any one category of signs, lanes and crosswalks, traffic lights, and other marks.

이때, 상기 생성된 학습데이터세트는, 수집된 상기 블랙박스 영상의 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류, 촬영 시간, 촬영된 도로의 유형, 및 촬영된 지역에 관한 정보를 포함하며, 수집된 상기 블랙박스 영상의 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 및 라벨링된 이미지를 포함 URL에 관한 정보를 포함하며, 상기 각 이미지 데이터로부터 추출되는 정적객체의 영역을 한정하는 바운딩 박스의 폭, 높이, 및 좌상단의 x,y좌표, 및 상기 바운딩 박스에 포함된 정적객체의 클래스 ID를 포함할 수 있다.In this case, the generated learning data set includes information on the source location, resolution, type of the photographed vehicle, recording time, the type of the photographed road, and the photographed area for the video data of the collected black box image. Information on URLs including the file name, shooting time, shooting location, vehicle speed at the time of shooting, weather at the time of shooting, the number of lanes on the captured road, and labeled images for each image data of the collected black box image Including, the width and height of the bounding box defining the area of the static object extracted from the respective image data, and the x and y coordinates of the upper left corner, and the class ID of the static object included in the bounding box. .

이때, 상기 대분류 카테고리들은 각각 복수 개의 서브 카테고리들로 더 구분되고, 상기 데이터를 추출하는 단계는, 상기 대분류 카테고리를 기준으로 분류를 수행할 학습 모델을 위한 학습데이터 세트를 구축하여 상기 구축된 학습데이터 세트를 이용하여 학습 모델을 생성하는 단계; 상기 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터로부터 상기 복수 개의 서브 카테고리에 관한 정적객체를 추출하고, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스(bounding box), 상기 바운딩 박스에 관한 아노테이션을 생성하는 단계;를 포함할 수 있다.In this case, the large classification categories are further divided into a plurality of subcategories, respectively, and the step of extracting the data comprises building a learning data set for a learning model to be classified based on the large classification category, and the constructed learning data generating a learning model using the set; A static object related to the plurality of sub-categories is extracted from the valid image data by using the generated learning model, and a bounding box is information about a location of the extracted static object in the valid image data. ), generating an annotation on the bounding box.

이때, 상기 데이터를 추출하는 단계는, 상기 생성된 아노테이션에 따라, 상기 아노테이션에 대응하는 이미지 및 상기 이미지에 대응하는 동영상을 상기 대분류 카테고리들 중 어느 하나의 카테고리로 분류함으로써, 상기 대분류 카테고리에 따른 동영상과 전처리된 이미지 데이터를 생성하는 단계;를 더 포함할 수 있다.In this case, the step of extracting the data includes classifying an image corresponding to the annotation and a video corresponding to the image into any one of the large classification categories according to the generated annotation. It may further include; generating a moving picture and pre-processed image data.

이때, 상기 크라우드소싱 플랫폼 시스템은 프로모션 서버(2)를 더 포함하며, 상기 프로모션 서버는, 영상 활용 및 보상 지급에 대한 개인의 개인정보 활용 동의 프로세스를 처리하는 개인정보활용동의 파트; 주어진 현금 보상 체계에 따라 포인트 대신 현금을 상기 개인에게 제공하는 보상 파트; 및 영상 수집 프로모션 안내 콘텐츠를 상기 개인에게 제공하는 콘텐츠 파트;를 포함할 수 있다.At this time, the crowdsourcing platform system further includes a promotion server (2), the promotion server, the personal information use agreement part for processing the personal information use consent process for image use and compensation payment; a reward part that provides cash to the individual in lieu of points according to a given cash reward system; and a content part that provides video collection promotion guide content to the individual.

본 발명의 일 양상에 따른 원천데이터 확보 방법은, 첫째, 크라우드소싱 기반 기초 데이터 수집 방법으로서 일반 사용자가 자신의 블랙박스로 기촬영한 영상을 수집하여 수집된 데이터를 전처리하는 기술을 포함하며, 둘째, 모집된 상용차(택시, 화물차, 버스)와 전문 촬영 패널 고용을 통해 영상데이터를 보완하여 수집하는 기술을 포함하며, 셋째, 영상 데이터 보유 기관 조사를 통한 요구 영상을 직접 구매하는 방법을 포함할 수 있다. A method for securing source data according to an aspect of the present invention is, first, a crowdsourcing-based basic data collection method, and includes a technology of pre-processing the collected data by collecting images previously taken by a general user with his/her own black box, and secondly, , includes technology to supplement and collect image data through the hiring of recruited commercial vehicles (taxi, truck, bus) and professional filming panels; have.

본 발명의 일 양상에 따라 제공되는 텍스트 및 아노테이션 생성방법은, AI 학습용 데이터셋 저작도구를 이용하여 확보된 원천데이터를 자동으로 분류하고 검색하는 단계 및 원천데이터 내에 존재하는 문자 및 이미지 인식하여 이로부터 텍스트 및 아노테이션 자동 생성하는 단계를 포함할 수 있다. The method for generating text and annotations provided according to an aspect of the present invention includes the steps of automatically classifying and searching source data obtained using a dataset authoring tool for AI learning, and recognizing characters and images existing in the source data. It may include the step of automatically generating text and annotations from

본 발명의 일 관점에 따라 제공하는, 자율주행 및 차세대 지능형 교통서비스에서 객체 인지 AI 학습데이터에 필수적인 원천 데이터에 대한 공간적 범위는 고속도로, 국도, 수도권 및 광역권의 도시고속화도로 및 6차선 이상의 도로를 포함할 수 있다.The spatial scope for source data essential for object recognition AI learning data in autonomous driving and next-generation intelligent transportation service provided according to an aspect of the present invention includes highways, national roads, urban expressways in metropolitan areas and metropolitan areas, and roads with more than 6 lanes can do.

본 발명의 일 관점에 따라 제공하는, 자율주행 및 차세대 지능형 교통서비스에서 객체 인지 AI 학습데이터에 필수적인 원천 데이터에 대한 내용적 범위는 노면표시 (차선) 및 횡단지시, 신호등, 도로교통표지판, 규제 표지, 지시 표지, 기타 표지판, 도로공사 구간 전용 표지, 노면 색깔 유도선, 및 ITS 시설물을 포함할 수 있다. According to an aspect of the present invention, the content scope of the source data essential for object recognition AI learning data in autonomous driving and next-generation intelligent transportation service is road markings (lanes) and crossing indications, traffic lights, road traffic signs, and regulatory signs. , indicator signs, other signs, road construction section-specific signs, road surface colored guide lines, and ITS facilities.

구체적으로, 상기 노면표시 (차선) 및 횡당지시는 노면표시는 도로교통의 안전과 원활한 소통을 도모하고 도로 구조를 보존하기 위한 목적으로 제시된 것으로서, 독자적으로 또는 교통안전표지와 신호기를 보완하여 도로이용자에게 규제 또는 지시의 내용을 전달하는 기능을 제공할 수 있다. Specifically, the road markings (lanes) and crossing directions are presented for the purpose of promoting the safety and smooth communication of road traffic and preserving the road structure. It can provide a function to convey the content of regulations or directives to

구체적으로, 상기 신호등은 도로에서의 위험 방지 및 교통안전과 원활한 소통 확보를 위한 목적으로 설치된 것으로서, 도로교통에 관하여 문자ㆍ기호 또는 등화로써 진행ㆍ정지ㆍ방향전환ㆍ주의 등 신호를 표시하여 다양한 교통류에 우선권을 할당하는 기능을 수행할 수 있다.Specifically, the traffic lights are installed for the purpose of preventing danger on the road and securing traffic safety and smooth communication, and display signals such as progress, stop, change of direction, and caution with letters, symbols, or lights in relation to road traffic to display various types of traffic. It can perform the function of allocating priority to .

구체적으로, 상기 도로표지판은, 도로이용자에게 일관성 있고 통일된 방법으로 교통안전과 원활한 소통을 도모하고 도로구조와 도로시설물을 보호하기 위해 필요한 각종 정보를 제공하는 목적으로 제공된 것으로서, 교통안전표지는 단독으로 설치되거나, 노면표시 및 신호기와 유기적, 보완적으로 결합하여 설치되는 교통안전시설물로서 교통안전표지의 목적을 달성할 수 있도록 도로이용자에게 주의, 규제, 지시 등의 내용을 전달하는 기능을 제공할 수 있다.Specifically, the road sign is provided for the purpose of providing road users with various information necessary to promote traffic safety and smooth communication in a consistent and unified way and to protect road structures and road facilities. It is a traffic safety facility installed as a traffic safety facility or installed in organic and complementary combination with road markings and signals, providing a function to deliver cautions, regulations, and instructions to road users to achieve the purpose of traffic safety signs. can

구체적으로, 상기 기타 항목으로 분류된 원천 데이터는 자율주행차량 주행 시 운행판단에 영향을 미치는 정적 데이터로 결정될 수 있다. 예컨대 도로공사 구간 전용 표지, 노면 색깔 유도선, 기타 ITS 시설물 등으로 분류될 수 있다. Specifically, the source data classified into the other items may be determined as static data that affects the driving decision when the autonomous vehicle is driven. For example, it may be classified as a road construction section exclusive sign, road surface color guide line, and other ITS facilities.

본 발명의 일 관점에 따라 수집되는 자료는, 블랙박스 영상으로서 차량 내 설치된 영상 촬영 장치로 획득 가능한 실주행 영상일 수 있다. 일반적인 블랙박스 영상 데이터인 30fps, HD(1366x768) 또는 FHD(1920x1080) 수준의 영상자료가 수집될 수 있다. 차량에서 촬영한 영상 데이터로부터 학습용 이미지 데이터 추출하여 학습데이터 셋으로 가공할 수 있다.The data collected according to an aspect of the present invention may be a real driving image that can be acquired by an image capturing device installed in a vehicle as a black box image. General black box image data of 30fps, HD (1366x768) or FHD (1920x1080) level of image data can be collected. Image data for learning can be extracted from image data taken from the vehicle and processed into a learning data set.

블랙박스 기반 주행 영상 데이터는, 첫째, 날씨(비, 눈, 흐림 등)와 시간(야간, 주간)에 영향을 받으며, 둘째, 유리, 빗방울에 의한 빛 번짐 현상 심하며, 셋째, 촬영 카메라 모듈 성능에 따라 수집 영상 품질이 상이하며, 넷째, 블랙박스 자체 시간 설정이 잘못된 경우, 영상 녹화 시간 매핑이 어려우며, 다섯째, GPS 정보 기록을 위해서 별도 외장 모듈 설치 필요하며 (대부분 GPS 모듈 별도), 여섯째, 광시야각을 지원하는 경우, 영상 좌우 왜곡이 있으며, 일곱째, 촬영 영상 상단 또는 하단에 영상 촬영 시간과 위치, 속도 등이 동시 기록된다는 문제점이 있다. The black box-based driving video data is, firstly, affected by weather (rain, snow, cloudy, etc.) and time (night, day), secondly, severe light scattering by glass and raindrops, and thirdly, on the performance of the shooting camera module. The quality of the collected video is different depending on the model. Fourth, if the time setting of the black box itself is wrong, it is difficult to map the video recording time. In the case of supporting , there is left and right distortion of the image, and seventh, there is a problem that the time, position, and speed of the image are recorded simultaneously at the top or bottom of the captured image.

본 발명의 일 관점에 따라 수집되는 사용자 영상은 크라우드소싱을 통해 수집한 교통 정보 영상일 수 있다. 이를 위해 본 발명에 따라 제공되는 장치는 교통 정보 수집 참여에 따라 참여자에게 포인트 및 혜택을 제공하도록 되어 있을 수 있다. The user image collected according to an aspect of the present invention may be a traffic information image collected through crowdsourcing. To this end, the device provided according to the present invention may be configured to provide points and benefits to participants according to participation in traffic information collection.

본 발명의 일 관점에 따라 제공되는 장치는, 수집된 사용자 영상 데이터에 대해 GPS 매칭을 통해 데이터 정제하는 단계를 수행하도록 되어 있을 수 있다. 이때, 지역별, 시간별, 날씨별, 차종별, 도로유형별 데이터 편향이 방지된, 주어진 시간 예컨대 1,000시간의 영상 데이터를 획득할 수 있다. The apparatus provided according to an aspect of the present invention may be configured to perform data purification on the collected user image data through GPS matching. In this case, it is possible to obtain image data for a given time period, for example, 1,000 hours, in which data deflection is prevented by region, time, weather, vehicle type, and road type.

이때, 상기 장치는 개인정보 보호를 위한 영상 비식별화 처리 수행할 수 있다. 예컨대 출발지/도착지 클립을 삭제할 수 있다. 정제된 영상에서 이미지 추출을 통해 이미지 데이터를 확보할 수 있다. 데이터 정제 과정을 통해 대분류 수준 데이터를 분류할 수 있다. 수집된 영상의 사용자 입력 또는 1차 검수를 통해 이동 구간, 날씨 등 정보를 획득할 수 있다.In this case, the device may perform image de-identification processing for protecting personal information. For example, you can delete origin/destination clips. Image data can be obtained through image extraction from the refined image. Data at the large classification level can be classified through the data refining process. Information such as movement section and weather can be acquired through user input or primary inspection of the collected images.

<전체 시스템><Entire system>

본 발명의 일 관점에 따라 제공되는 원천 데이터 수집 방법은, 첫째, 크라우드소싱 방식을 통해 블랙박스 영상을 우선 확보하는 단계, 둘째, 데이터 수집 편향을 방지하기 위해서 상기 확보된 블랙박스 영상을 GPS 매칭을 통해 지역별, 차종별, 도로유형별로 분류하는 단계, 셋째, 패널을 선정하여 선정된 패널의 차량에 촬영장치를 설치하고 설치된 촬영장치로부터 영상 데이터를 수거함으로써 패널을 통해 영상 데이터를 보완하는 단계, 넷째, 영상 공급업체의 서버로부터 획득한 영상으로부터 요구 영상을 식별하여 식별된 요구 영상을 구매함으로써 영상 데이터를 보완하는 단계를 포함할 수 있다. The source data collection method provided according to an aspect of the present invention includes the steps of firstly securing a black box image through a crowdsourcing method, and secondly performing GPS matching of the secured black box image to prevent data collection bias. Classification by region, vehicle type, and road type through The method may include supplementing the image data by identifying the requested image from the image obtained from the server of the image supplier and purchasing the identified requested image.

구체적으로 상기 크라우드소싱 플랫폼을 활용하는 경우, 저렴한 가격에 빠르게 많은 데이터 확보 가능지만, 데이터 편향 방지를 위해서 학습데이터 가공 전 활용 가능한 데이터 전처리를 할 수 있고, 별도 개인정보활용 동의 절차를 수행하기 위한 단계를 실행할 수 있다. Specifically, when using the crowdsourcing platform, it is possible to obtain a lot of data quickly at a low price, but in order to prevent data bias, it is possible to pre-process the available data before processing the learning data, and to perform a separate personal information use consent procedure can run

구체적으로 상기 패널 활용의 경우, 패널 모집을 통해 원천 데이터 편향 수집 방지 가능하다는 장점 및 별도 장비 설치를 통해 원천 데이터 품질 관리 가능하다는 장점이 있으나, 원천 데이터 확보 시간이 오래 걸린다.Specifically, in the case of using the panel, there is an advantage that it is possible to prevent the collection of biased source data through panel recruitment and the quality of source data can be managed through the installation of separate equipment, but it takes a long time to secure the source data.

구체적으로 상기 데이터 직접 구매 방법의 경우, 원천 데이터 확보 기업 조사가 필요하며, 며, 크라우드소싱이나 패널 활용에 비해 비싸다. 그러나 별도 패널 고용 없이 빠른 영상 데이터 확보가 가능하며 별도 인력 고용이 필요 없다. Specifically, in the case of the direct data purchase method, it is necessary to investigate the source data securing company, and it is more expensive than crowdsourcing or panel utilization. However, it is possible to obtain video data quickly without hiring a separate panel, and there is no need to hire a separate manpower.

<크라우드소싱 플랫폼> <Crowdsourcing Platform>

본 발명의 일 관점에 따라 제공되는 크라우드소싱 플랫폼 시스템은, (1) 영상 추가 수집 프로모션을 통해 영상 제공에 따른 추가 포인트(또는 현금)를 개인에게 지급하기 위한 프로모션 서버, (2) 대용량 영상 데이터 전송을 위해 제공되는 파일 업로드 및 추가 서버 스토리지 장치, 및 (3) 원천 데이터 확보 서버를 포함할 수 있다. The crowdsourcing platform system provided according to an aspect of the present invention includes (1) a promotion server for paying an individual additional points (or cash) according to video provision through additional video collection promotion, (2) large-capacity video data transmission It may include a file upload and additional server storage device provided for, and (3) a source data acquisition server.

상기 원천 데이터 확보 서버는 (1) 기수집된 주행정보와 영상 정보를 서로 매칭하여 분류함으로써 영상과 주행 정보를 서로 매칭하는 매칭 파트, 및 (2) 지역, 사용자, 주행 정보 매칭을 이용하여 데이터 수집 편향 방지를 위한 기능을 수행하는 편향제거 파트를 포함할 수 있다.The source data securing server collects data using (1) matching parts that match images and driving information with each other by matching and classifying previously collected driving information and image information, and (2) matching region, user, and driving information It may include a deflection removing part that performs a function for preventing deflection.

상기 프로모션 서버는 (1) 영상 활용 및 보상 지급에 대한 개인의 개인정보 활용 동의 프로세스를 처리하는 개인정보활용동의 파트, (2) 주어진 현금 보상 체계에 따라 포인트 대신 현금을 상기 개인에게 제공하는 보상 파트, 및 (3) 영상 수집 프로모션 안내 콘텐츠를 상기 개인에게 제공하는 콘텐츠 파트를 포함할 수 있다. The promotion server includes (1) the personal information usage agreement part that handles the personal information usage agreement process for video use and compensation payment, and (2) the compensation part that provides cash to the individual in lieu of points according to the given cash compensation system , and (3) a content part for providing video collection promotion guide content to the individual.

상기 크라우드소싱 플랫폼 시스템은 학습데이터 대비 10배수의 영상 데이터를 수집하도록 되어 있을 수 있다. 이때, (1) 정적객체를 포함하는 영상 조건에 따라 영상을 수집하고, (2) 데이터 매칭 분류를 위해 영상 메타데이터를 분석하고, 사용자 입력을 가능하게 하는 기능을 더 포함할 수 있다.The crowdsourcing platform system may be configured to collect 10 times the image data compared to the training data. In this case, it may further include a function of (1) collecting images according to image conditions including static objects, (2) analyzing image metadata for data matching classification, and enabling user input.

상기 크라우드소싱 플랫폼 시스템은 영상 데이터 수집을 위하여, 상기 파일 업로드 및 추가 서버 스토리지 장치와 같은 웹하드를 이용하여 상기 영상 데이터를 수집할 수 있다. The crowdsourcing platform system may collect the image data by using a web hard such as the file upload and an additional server storage device to collect the image data.

이때, 상기 개인정보활용동의 파트는 영상 정보 활용에 대한 동의를 상기 개인으로부터 입력받을 수 있다. In this case, the part of the consent to use of personal information may receive consent to use of image information from the individual.

이때, 상기 매칭 파트는 GPS 정보 매칭 여부를 검증함으로써, 영상과 주행정보가 서로 매칭되었는지 여부를 인증할 수 있으며, 영상 내 포함 정보 식별을 위하여 사용자 입력 방식의 1차 입력을 받아들일 수 있다. 상기 1차 입력은 지역도로인지 아니면 고속도로 또는 국도인지 여부를 구분하는 입력일 수 있다. In this case, the matching part may verify whether the image and the driving information match each other by verifying whether the GPS information is matched, and may accept the primary input of the user input method for identifying information included in the image. The first input may be an input for discriminating whether it is a local road, a highway, or a national road.

이때, 상기 보상 파트는 상기 매칭 결과에 따라 포인트 또는 현금 보상을 상기 개인이게 제공하는 프로세스를 수행하도록 되어 있을 수 있다.In this case, the reward part may be configured to perform a process of providing points or cash rewards to the individual according to the matching result.

이때, 상기 파일 업로드 및 추가 서버 스토리지 장치와 같은 웹하드를 통해 영상 데이터가 상기 개인으로부터 업로드될 수 있다. 업로드된 영상은 상기 원천 데이터 확보 서버가 이용할 수 있다. In this case, the image data may be uploaded from the individual through a web hard such as the file upload and additional server storage device. The uploaded image can be used by the source data securing server.

이때, 상기 편향제거 파트는 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지 기능을 수행할 수 있다. In this case, the deflection removing part may perform a deflection prevention function by matching the previously owned driving information and additionally collected image information.

<패널 모집 방식의 영상 데이터 보완><Complementing video data of panel recruitment method>

상기 크라우드소싱 플랫폼 시스템을 통해 획득한 영상 데이터에는 원하는 영상 데이터가 포함되어 있지 않을 수 있다. 이를 극복하기 위하여 본 발명의 일 관점에 따른 영상 데이터 보완 방법에서는 모집된 패널을 이용할 수 있다. The desired image data may not be included in the image data acquired through the crowdsourcing platform system. In order to overcome this, the collected panel may be used in the image data supplementation method according to an aspect of the present invention.

상기 크라우드소싱 플랫폼 시스템을 통해 획득한 원천 데이터를 분류하고, 시내/시외, 고속도로/국도, 날씨, 시간대별 수집 데이터를 한정하여 패널 모집을 통해 초기 수집 데이터 보완할 수 있다. By classifying the source data acquired through the crowdsourcing platform system, and limiting the collected data by city/city/city, highway/national road, weather, and time period, the initial collected data can be supplemented through panel recruitment.

패널의 선정은 상기 크라우드소싱 플랫폼 시스템을 통해 획득한 원천 데이터에 따라 이루어질 수 있다. The selection of the panel may be made according to the source data obtained through the crowdsourcing platform system.

패널은 상용차 운전자 패널과 전문 패널로 구분될 수 있다.The panel may be divided into a commercial vehicle operator panel and a professional panel.

상기 상용차 운전자 패널은 운행거리가 상대적으로 긴 운전자 대상으로 선정될 수 있다. 상기 전문 패널은 일종의 고용된 패널로서 QHD급 블랙박스 설치를 통해 고화질 영상 데이터 수집하는 패널을 의미할 수 있다. 패널들이 확보한 영상 데이터는 웹하드를 이용한 온라인 접수하거나 또는 직접 수거할 수 있다.The commercial vehicle driver panel may be selected as a driver with a relatively long driving distance. The professional panel is a kind of hired panel and may mean a panel that collects high-definition image data through the installation of a QHD-class black box. The video data secured by the panels can be submitted online using Webhard or can be collected directly.

<데이터 직접 구매 방식의 영상 데이터 보완><Complementing video data by direct data purchase>

여객 자동차 운송 사업에 사용되는 차량의 경우, 교통사고 상황 파악, 범죄 예방 및 증거 확보를 위해 영상기록장치가 의무 장착될 수 있다. 시내/시외버스 운송사업자와 같은 여객 자동차 운송 사업자 대상으로 데이터를 직접 구매할 수 있다.In the case of vehicles used in passenger car transportation business, video recording devices may be mandatory to identify traffic accidents, prevent crime, and secure evidence. Data can be purchased directly for passenger car transport operators such as city/intercity bus transport companies.

구매한 영상 데이터와 이미지 데이터는 정제될 수 있다. 구매한 상기 영상 데이터의 정제과정에서, 블랙박스 영상과 GPS 정보 매칭을 통해 지역, 차종, 도로유형 분류, 비식별화 처리를 통해 원본 영상 데이터 확보할 수 있다. 구매한 상기 영상 데이터로부터 영상 프레임 단위 이미지를 추출하고, 전처리 영상 인식을 통해 대분류 수준(횡단보도, 표지판, 신호등) 분류, 이미지 데이터 확보를 실행할 수 있다.Purchased image data and image data may be refined. In the process of refining the purchased image data, original image data can be secured through region, vehicle type, road type classification, and de-identification processing through matching of black box image and GPS information. It is possible to extract an image in units of image frames from the purchased image data, and to classify large classification levels (crosswalks, signs, traffic lights) and secure image data through preprocessing image recognition.

<데이터 정제 프로세스><Data purification process>

본 발명의 일 관점에 따라 제공되는 데이터 정제 방법은, 상술한 상기 크라우드소싱 플랫폼 시스템을 이용하여 확보한 영상 데이터와 이미지 데이터를 정제할 수 있다. The data purification method provided according to an aspect of the present invention may purify image data and image data secured using the above-described crowdsourcing platform system.

상기 원천 데이터 확보 서버는 블랙박스 영상과 GPS 정보 매칭을 통해 지역, 차종, 도로유형 분류, 비식별화 처리를 통해 원본 영상 데이터를 확보할 수 있다. 또한 영상 프레임 단위 이미지를 추출하고, 전처리 영상 인식을 통해 대분류 수준(횡단보도, 표지판, 신호등) 분류하여 이미지 데이터를 확보할 수 있다. The source data securing server may secure original image data through region, vehicle type, road type classification, and de-identification processing through matching of the black box image and GPS information. In addition, image data can be obtained by extracting images in units of image frames and classifying them at the major classification level (crosswalks, signs, traffic lights) through pre-processing image recognition.

상기 원천 데이터 확보 서버는, (1) 크라우드소싱 기반 블랙박스 영상을 수집하는 단계, (2) 수집된 영상에 있어서의 데이터 편향을 제거하는 단계, (3) 수집된 영상에서 일부 정보의 비식별처리를 수행하는 단계, (4) 수집된 영상에서 이미지를 추출하는 단계, 및 (5) 추출한 이미지로부터 정제된 데이터를 획득하는 단계를 실행하도록 되어 있을 수 있다.The source data securing server includes the steps of (1) collecting crowdsourcing-based black box images, (2) removing data bias in the collected images, (3) de-identification of some information in the collected images (4) extracting an image from the collected image, and (5) obtaining purified data from the extracted image.

상기 원천 데이터 확보 서버는, 수집 영상 데이터에 대한 편향 방지를 위하여, (1) 최초 블랙박스 영상 수집 시 수도권/광역시별 참여자 인원수를 제한하는 단계, (2) 제보된 블랙박스 영상 데이터와 GPS 정보 매칭을 통해 ① 수도권/광역시 권역 분류, ② 고속도로/국도 분류, ③ 자동차 DB를 통해 차종 분류를 수행할 수 있다. The source data securing server performs the steps of (1) limiting the number of participants in each metropolitan area/metropolitan city when collecting the first black box image, (2) matching the reported black box image data and GPS information in order to prevent bias on the collected image data. Through ① metropolitan/metropolitan region classification, ② expressway/national road classification, and ③ vehicle type classification can be performed through the automobile DB.

상기 원천 데이터 확보 서버는, 수집 영상 데이터에 대해 다음과 같은 단계를 포함하는 비식별화 처리를 수행하는 프로세스를 실행할 수 있다. 첫째 단계에서, 수집 영상으로부터 출발지 및 도착지 시점의 전/후 구간을 삭제하고, 둘째 단계에서, 수집 영상으로부터 영상 외 음성 정보 삭제하고, 셋째 단계에서, 수집 영상으로부터 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별처리할 수 있고, 넷째 단계에서, AI 학습데이터 가공 전에 교통사고 장면을 삭제하고, 다섯째 단계에서, 횡단보도 정차 시 보행자 비식별 처리를 수행하고, 여섯째 단계에서, 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리할 수 있다. 위 둘째 내지 여섯째 단계는 차량의 출발 및 도착을 제외한 사이 구간에서의 주행 영상에 대하여 실행하는 것일 수 있다.The source data securing server may execute a process of performing de-identification processing including the following steps on the collected image data. In the first step, the sections before and after the departure and arrival points are deleted from the collected video, in the second step, audio information other than the video is deleted from the collected video, and in the third step, the vehicle of the vehicle driving ahead and the vehicle in the next lane from the collected video Numbers can be de-identified, and in the fourth step, the traffic accident scene is deleted before AI learning data processing, in the fifth step, pedestrian de-identification processing is performed when stopping at the crosswalk, and in the sixth step, the video is taken in the black box Time and location information can be de-identified. The above second to sixth steps may be executed for the driving image in the interval between the departure and arrival of the vehicle.

<인공지능 학습용 데이터 설계><Data design for artificial intelligence learning>

본 발명의 일 관점에 따라 제공되는 인공지능 학습용 데이터는 다음과 같은 특징을 가질 수 있다.Data for artificial intelligence learning provided according to an aspect of the present invention may have the following characteristics.

본 발명의 일 관점에 의해 완성된 AI 학습데이터는 외부에 공개하여 누구라도 쉽게 활용할 수 있도록 제공될 수 있다. 따라서 데이터 접근성을 충분히 고려하여 AI 학습데이터를 설계할 수 있다. AI learning data completed by one aspect of the present invention can be provided so that anyone can easily utilize it by opening it to the outside. Therefore, AI learning data can be designed by sufficiently considering data accessibility.

본 발명에서 이용되는 메타정보는 자율주행 AI 학습을 위한 정보를 저장하도록 설계될 수 있다. 또한, 작업자에 의한 아노테이션과 AI 인식결과 비교, 검사를 위한 기능을 고려하여 설계될 수 있다. Meta information used in the present invention may be designed to store information for autonomous driving AI learning. In addition, it can be designed in consideration of the functions for the comparison and inspection of the annotation by the operator and the AI recognition result.

본 발명의 일 관점에 의해 완성된 AI 학습데이터는, 표지판, 차선 및 횡단보도, 신호등, 및 기타표식으로 지칭되는 대분류(카테고리)로 구분될 수 있다. 상기 표지판 대분류는 규제 표지판과 지시 표지판이라는 중분류로 더 나뉠 수 있다. 상기 차선 및 횡단보도 대분류는 중앙선, 버스전용차선, 유턴, 일반 차선, 길가장자리구역, 진로변경제한선, 스태거드 횡단보도, 대각선 횡단보도, 및 일반 횡단보도라는 중분류로 더 나뉠 수 있다. 상기 신호등 대분류는, 차량신호 4색등, 차량신호 3색등, 차량신호 3색등, 차량신호 2색등, 및 보행신호 2색등이라는 중분류로 더 나뉠 수 있다. 상기 기타 표식 대분류는 공사표지판과 가변정보판이라는 중분류로 더 나뉠 수 있다. 상기 각각의 중분류들은 각각 소정의 1개 이상의 소분류로 나뉠 수 있다.AI learning data completed by one aspect of the present invention can be divided into large categories (categories) referred to as signs, lanes and crosswalks, traffic lights, and other signs. The major classification of the sign may be further divided into a middle classification of a regulatory sign and an instruction sign. The large classification of lanes and crosswalks can be further divided into mid-classifications of center line, bus-only lane, U-turn, general lane, road edge area, course change restriction line, staggered crosswalk, diagonal crosswalk, and general crosswalk. The major classification of the traffic lights may be further divided into intermediate classifications of a vehicle signal 4 color light, a vehicle signal 3 color light, a vehicle signal 3 color light, a vehicle signal 2 color light, and a walking signal 2 color light. The major classification of other signs can be further divided into a middle classification of construction signs and variable information boards. Each of the major categories may be divided into one or more predetermined sub-categories, respectively.

본 발명의 일 실시예에서, 카테고리별 각 클래스에 대한 충분한 학습데이터를 수집하기 위해, 크라우드 소싱 기반 데이터 수집 플랫폼을 이용하여 예컨대 3,000 시간 이상의 동영상 원천 데이터를 수집할 수 있다. 일 실시예에서 원천 영상 데이터를 지역별 그리고 카테고리의 대분류와 중분류의 분류 기준별로 분류하고, 중분류의 클래스별로 학습데이터를 구축할 수 있다. In one embodiment of the present invention, in order to collect sufficient learning data for each class by category, it is possible to collect, for example, 3,000 hours or more of video source data using a crowdsourcing-based data collection platform. In an embodiment, the source image data may be classified by region and by classification criteria of a large classification and a medium classification of a category, and learning data may be constructed for each class of the intermediate classification.

<AI 데이터의 형태><Type of AI data>

본 발명의 일 관점에 따라 제공되는 AI 시스템에서 사용되는 데이터는 다음과 같은 특정을 가질 수 있다. Data used in the AI system provided according to an aspect of the present invention may have the following characteristics.

본 발명의 일 관점에 따라 제공되는 데이터 세트는 (1) 원본 동영상(FHD 해상도), (2) 이미지(jpg), (3) 아노테이션(json)(=주석), (4) 데이터 셋 목록(json-클래스 종류 포함)이다.The data set provided according to one aspect of the present invention is (1) original video (FHD resolution), (2) image (jpg), (3) annotation (json) (= annotation), (4) data set list ( json - including class types).

아노테이션 항목은 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류(트럭/버스/승용차 등), 촬영 시간, 촬영된 도로의 유형(고속도로/국도), 촬영된 지역(수도권/광역권)의 기록을 위해 제공될 수 있다. 또한 상기 동영상에서 추출된 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 라벨링된 이미지를 포함 URL의 기록을 위해 제공될 수 있다. 또한, 각 이미지에서 추출되는 다수 N개의 클래스에 대해, 클래스 ID (대분류 -> 중분류 -> 클래스)와 바운딩 박스의 위치(왼쪽 상단의 좌표(x,y)와 폭과 높이)를 정의하여 제시할 수 있다.Annotation items include source location for video data, resolution, type of recorded vehicle (truck/bus/car, etc.), recording time, type of recorded road (expressway/national road), and recorded area (metropolitan area/metropolitan area). May be provided for records. In addition, the file name for each image data extracted from the video, the shooting time, the shooting location, the speed of the vehicle when shooting, the weather at the time of shooting, the number of lanes on the taken road, and the labeled image can be provided for recording of URLs. have. In addition, for a number of N classes extracted from each image, the class ID (large class -> middle class -> class) and the location of the bounding box (coordinates (x,y) and width and height of the upper left) are defined and presented. can

본 발명의 일 관점에서는, 아노테이션 형식으로서 json 형식을 사용할 수 있다. 오픈 데이터 세트에는 매트랩(matlab)과 같은 별도의 툴이 있어야 가능한 형태가 있으나 본 발명에서는 범용성을 고려하여 별도의 툴이 없이 가능한 json 형식을 이용할 수 있다. In one aspect of the present invention, a json format may be used as the annotation format. The open data set has a form that requires a separate tool such as matlab, but in the present invention, in consideration of versatility, a possible json format can be used without a separate tool.

<인공지능 학습용 데이터 구축><Building data for artificial intelligence learning>

본 발명이 일 관점에 따라 제공되는 학습데이터 제작 프로세스는 데이터 수집 단계(S10), 데이터 전처리 단계(S20), 데이터 가공 단계(S30), 데이터 검증 단계(S40), 및 학습데이터세트 생성의 단계(S50)를 포함할 수 있다. The learning data production process provided in accordance with an aspect of the present invention includes a data collection step (S10), a data pre-processing step (S20), a data processing step (S30), a data verification step (S40), and the steps of creating a learning dataset ( S50) may be included.

상기 데이터 수집 단계(S10)에서는, 크라우드 소싱 기반 블랙박스 영상 수집, 수집된 영상에 대한 편향 제거, 그리고 영상 비식별 처리 과정이 순차적으로 수행될 수 있다. 이는 상술한 데이터 정제 프로세스를 포함할 수 있다. In the data collection step ( S10 ), crowdsourcing-based black box image collection, bias removal for the collected image, and image de-identification processing may be sequentially performed. This may include the data cleaning process described above.

이때, 사용자 대상 블랙박스 영상과 해당 영상의 주행 시간과 주행 경로(GPS 모듈 설치 시) 데이터 수집하고, 크라우드소싱 플랫폼을 통한 해당 사용자의 주행 트립단위 OD 데이터(주행 시간, 주행 경로, 주행 거리) 수집이 가능하다. 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지, 원천 데이터 확보가 가능하다.At this time, data of the user's black box image and the driving time and driving route (when the GPS module is installed) are collected, and the user's driving trip unit OD data (driving time, driving route, mileage) is collected through the crowdsourcing platform. This is possible. It is possible to prevent bias and secure source data by matching the previously owned driving information with the additionally collected image information.

이때, 수집 영상 데이터에 대한 데이터 편향 제거를 위하여, 최초 블랙박스 영상 수집 시 수도권/광역시별 참여자 인원수를 제한하고, 제보된 블랙박스 영상 데이터와 GPS 정보 매칭을 통해 ① 수도권/광역시 권역 분류, ② 고속도로/국도 분류, 및 ③ 자동차 DB를 통해 차종 분류를 실행할 수 있다. 수집된 영상을 권역, 도로 유형, 자동차 유형에 따라 분류하고 편향이 생기지 않도록 수집된 동영상에 대한 필터링 수행이 이루어질 수 있다.At this time, in order to remove data bias on the collected image data, the number of participants per metropolitan area/metropolitan area is limited when collecting black box images for the first time, and ① metropolitan area/metropolitan area classification, ② highways through matching the reported black box image data and GPS information Classification of vehicle types can be performed through /national road classification, and ③ automobile DB. The collected images may be classified according to regions, road types, and vehicle types, and filtering may be performed on the collected images to prevent bias.

그리고 상술한 바와 같이, 개인정보보호를 위해 수집 영상 데이터에 대해 비식별화 처리 수행이 이루어질 수 있다.And, as described above, de-identification processing may be performed on the collected image data to protect personal information.

한편, 획득한 동영상 데이터에서 스틸사진 추출 시 다음이 고려될 수 있다. 이미 그 위치를 확보하여 저장하고 있는 도로 상의 정적객체 대상으로부터 차량의 속도 기준으로 거리를 고려하여 특정 지점 또는 교통정체로 발생하는 중복사진을 제거할 수 있다. Meanwhile, the following may be considered when extracting still pictures from the acquired moving picture data. It is possible to remove duplicate photos caused by a specific point or traffic congestion by considering the distance based on the vehicle speed from the static object on the road that has already secured and stored its location.

상기 데이터 전처리 단계(S20)에서, 수집 및 정제된 영상 데이터에 대해, 학습데이터의 카테고리 중 대분류인 차선/횡단보도, 신호등, 교통표지판, 기타표식을 분류하고, 영상 데이터로부터 유효한 이미지 데이터를 추출할 수 있다. In the data pre-processing step (S20), for the collected and refined image data, lanes/crosswalks, traffic lights, traffic signs, and other signs, which are major categories of learning data categories, are classified, and valid image data is extracted from the image data. can

상기 데이터 전처리 단계(S20)는 다음 단계들을 포함할 수 있다. The data pre-processing step S20 may include the following steps.

즉, 단계(S21)에서, 준비된 대분류 카테고리를 기준으로 분류를 수행할 학습 모델을 위한 학습데이터 세트(예컨대 4개의 대분류와 56개의 중분류에 대한 총 109개의 클래스에 대한)을 구축하며, 학습을 통해 학습 모델을 생성할 수 있다.That is, in step S21, a training data set for a learning model to perform classification based on the prepared large classification category (for example, for a total of 109 classes for 4 large classifications and 56 medium classifications) is built, and through learning You can create a learning model.

상기 대분류 카테고리(클래스)들은 각각 복수 개의 서브 카테고리들(중분류, 소분류)로 더 구분될 수 있다. Each of the large classification categories (classes) may be further divided into a plurality of subcategories (medium classification, small classification).

단계(S22)에서, 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터로부터 상기 복수 개의 서브 카테고리에 관한 정적객체를 추출하고, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스(bounding box), 상기 바운딩 박스에 관한 아노테이션을 자동으로 생성할 수 있다.In step S22, static objects related to the plurality of sub-categories are extracted from the valid image data using the generated learning model, and information about the location of the extracted static objects in the valid image data A bounding box and an annotation on the bounding box may be automatically generated.

단계(S23)에서, 상기 생성된 아노테이션에 따라 해당 동영상과 이미지를 대분류에 따라 분류를 수행함으로서, 대분류 항목에 따른 동영상과 전처리된 이미지 데이터를 생성할 수 있다.In step S23, by classifying the corresponding moving picture and the image according to the major classification according to the generated annotation, the moving picture and the pre-processed image data according to the large classification item may be generated.

상기 데이터 가공 단계(S30)에서는, 상기 데이터 전처리 단계(S20)에서 생성된 바운딩 박스(bounding box)와 아노테이션을 검수자가 확인 및 수정을 수행할 수 있다. 모든 확인 및 수정 작업은 모든 입력작업은 빠르고 정확한 입력을 위해 Key-In방식, Selection방식, 후검증방식, 프리셋(Preset)방식, 자동입력방식, Cross Field Check, Related Field Copy, Reject Packet, Reject Page등 다양한 입력방식을 지원할 수 있다.In the data processing step S30, the inspector may check and correct the bounding box and annotations generated in the data pre-processing step S20. Key-In method, Selection method, Post-verification method, Preset method, Automatic input method, Cross Field Check, Related Field Copy, Reject Packet, Reject Page Various input methods can be supported.

상기 데이터 검증 단계(S40)에서, 데이터 검증은 딥러닝 알고리즘을 활용한 에러율 검출로 전수 검사를 수행하며, 에러 검출 등 이상이 있는 학습데이터에 대하여 검수자가 직접 확인하고 수정하는 절차로 진행될 수 있다. In the data verification step (S40), data verification is performed by performing a full inspection by detecting an error rate using a deep learning algorithm, and the inspector directly confirms and corrects the learning data having abnormalities such as error detection.

딥 러닝 학습모델을 통해 비정상 아노테이션 데이터를 자동으로 검색할 수 있고, 학습로그에 에러가 검출된 데이터는 데이터 검증과정으로 통해 수정 요청될 수 있으며, 최종 검수를 마친 데이터를 통해 학습데이터 세트를 생성할 수 있으며, 그리고 최종 검수된 학습데이터 세트를 통한 딥러닝 학습 모델의 고도화 수행을 할 수 있다.Abnormal annotation data can be automatically searched through the deep learning learning model, and the data with errors detected in the learning log can be requested for correction through the data verification process, and a training data set is created based on the final inspection data. And it is possible to perform advanced performance of the deep learning learning model through the final verified training data set.

<학습데이터 제작 및 저장을 위한 인프라><Infra for production and storage of learning data>

본 발명의 일 양상에 따라 학습데이터 제작 및 저장을 위한 인프라 시스템이 제공될 수 있다. 상기 인프라 시스템은 (1) 인공지능과 작업자 간의 협력을 적용한 공정관리 시스템과 (2) 인공지능 AI 인식엔진을 활용한 데이터 수집 분석 시스템을 포함할 수 있다According to an aspect of the present invention, an infrastructure system for producing and storing learning data may be provided. The infrastructure system may include (1) a process management system to which cooperation between artificial intelligence and workers is applied, and (2) a data collection and analysis system using an artificial intelligence AI recognition engine.

기존 학습데이터 구축과정은 보통 이미지 처리, 색인정보 입력 및 등록 등 일련의 과정에서 전문적 작업자에 의존한 품질 관리를 하고 있다. In the existing learning data building process, quality control is usually performed by relying on professional workers in a series of processes such as image processing, index information input and registration.

본 발명에서는 단기간에 많은 학습데이터를 확보해야 할 수 있도록, 다수의 작업자 및 크라우드 소싱 방식을 활용한다. 따라서, 데이터의 품질 확보를 위해 프로세스 정형화, 표준화을 위한 공정관리 자동화가 필요하다. 따라서 대상업무 별 가이드라인, 지침을 탑재(작업자가 쉽게 참조할 수 있도록)한 공정관리 시스템을 활용하여, 인공지능 학습용 데이터의 최상의 품질을 확보할 수 있다. 공정관리 시스템은 그 과정의 일부에 사람이 포함된 관리 시스템일 수 있다.In the present invention, a plurality of workers and a crowd sourcing method are used so that a lot of learning data can be secured in a short period of time. Therefore, in order to secure data quality, process management automation for process standardization and standardization is required. Therefore, it is possible to secure the best quality of data for artificial intelligence learning by utilizing a process management system equipped with guidelines and guidelines for each target task (for easy reference by workers). A process control system may be a control system in which a person is part of the process.

본 발명의 일 양상에 따라 제공되는 학습데이터 생성기술은, 데이터 수집, 데이터 전처리, 데이터 가공, 데이터 검증, 학습데이터 세트 생성의 단계로 구성될 수 있다. The learning data generation technology provided according to an aspect of the present invention may consist of steps of data collection, data pre-processing, data processing, data verification, and training data set generation.

이때, 상기 데이터 가공 단계는 사람인 검수자의 검증과 AI의 협업 프로세스로 이루어질 수 있다. 내부 인원의 검수를 통해 높은 정확도를 가진 작업자를 검수자로 선별하여 다수교차 검사 기준을 통과한 데이터만 최종 생산 완료 처리될 수 있다. 수집된 데이터의 모든 과정을 공정관리 플랫폼과 아노테이션 툴에 의해 수행될 수 있다. 1차 아노테이션(객체 추출과 메타, 그리고 대분류 동영상 분류)은 인공지능으로 수행하며, 2차 검증 및 수정을 인력에 의해 수행될 수 있다. 최종 AI 알고리즘 학습 후 데이터 세트 유효성 검증 추가 수행하여 품질을 확보할 수 있다.In this case, the data processing step may be made of a human inspector's verification and AI's collaborative process. Only the data that has passed the multiple-crossing inspection criteria can be processed after final production by selecting workers with high accuracy as inspectors through internal personnel inspection. All processes of the collected data can be performed by the process control platform and annotation tool. The primary annotation (object extraction, meta, and large-class video classification) is performed by artificial intelligence, and secondary verification and correction can be performed by manpower. After training the final AI algorithm, additional data set validation can be performed to ensure quality.

이때, 상술한 데이터 수집 분석 시스템은, 상기 공정관리 시스템의 일부 과정에 참여하는 시스템으로서, 획득한 AI 학습용 데이터를 AI 요소기술을 적용하여 대상 데이터를 자동으로 분류하고 검색할 수 있도록 학습할 수 있다. In this case, the above-described data collection and analysis system, as a system participating in some processes of the process management system, can learn to automatically classify and search target data by applying AI element technology to the acquired AI learning data. .

영상데이터 전처리 단계에서, 수집된 사용자 동영상 데이터에서 예컨대 164개 클래스에 대한 객체를 인식하여, 인식된 객체에 따라 동영상 데이터를 대분류에 따라 자동 분류 및 아노테이션 자동화 기능(메타 생성)을 수행할 수 있다.In the image data pre-processing step, for example, objects for 164 classes are recognized in the collected user video data, and automatic classification and annotation automation functions (meta generation) can be performed according to the major classification of the video data according to the recognized objects. .

본 발명의 일 양상에 따른 원천데이터 확보 방법은, 첫째, 크라우드소싱 기반 기초 데이터 수집 방법으로서 일반 사용자가 자신의 블랙박스로 기촬영한 영상을 수집하여 수집된 데이터를 전처리하는 기술을 포함하며, 둘째, 모집된 상용차(택시, 화물차, 버스)와 전문 촬영 패널 고용을 통해 영상데이터를 보완하여 수집하는 기술을 포함하며, 셋째, 영상 데이터 보유 기관 조사를 통한 요구 영상을 직접 구매하는 방법을 포함할 수 있다. A method for securing source data according to an aspect of the present invention is, first, a crowdsourcing-based basic data collection method, and includes a technology of pre-processing the collected data by collecting images previously taken by a general user with his/her own black box, and secondly, , includes technology to supplement and collect image data through the hiring of recruited commercial vehicles (taxi, truck, bus) and professional filming panels; have.

본 발명의 일 양상에 따라 제공되는 텍스트 및 아노테이션 생성방법은, AI 학습용 데이터셋 저작도구를 이용하여 확보된 원천데이터를 자동으로 분류하고 검색하는 단계 및 원천데이터 내에 존재하는 문자 및 이미지 인식하여 이로부터 텍스트 및 아노테이션 자동 생성하는 단계를 포함할 수 있다. The method for generating text and annotations provided according to an aspect of the present invention includes the steps of automatically classifying and searching source data obtained using a dataset authoring tool for AI learning, and recognizing characters and images existing in the source data. It may include the step of automatically generating text and annotations from

본 발명의 일 관점에 따라 제공하는, 자율주행 및 차세대 지능형 교통서비스에서 객체 인지 AI 학습데이터에 필수적인 원천 데이터에 대한 공간적 범위는 고속도로, 국도, 수도권 및 광역권의 도시고속화도로 및 6차선 이상의 도로를 포함할 수 있다.The spatial scope for source data essential for object recognition AI learning data in autonomous driving and next-generation intelligent transportation service provided according to an aspect of the present invention includes highways, national roads, urban expressways in metropolitan areas and metropolitan areas, and roads with more than 6 lanes can do.

본 발명의 일 관점에 따라 제공하는, 자율주행 및 차세대 지능형 교통서비스에서 객체 인지 AI 학습데이터에 필수적인 원천 데이터에 대한 내용적 범위는 노면표시 (차선) 및 횡단지시, 신호등, 도로교통표지판, 규제 표지, 지시 표지, 기타 표지판, 도로공사 구간 전용 표지, 노면 색깔 유도선, 및 ITS 시설물을 포함할 수 있다. According to an aspect of the present invention, the content scope of the source data essential for object recognition AI learning data in autonomous driving and next-generation intelligent transportation service is road markings (lanes) and crossing indications, traffic lights, road traffic signs, and regulatory signs. , indicator signs, other signs, road construction section-specific signs, road surface colored guide lines, and ITS facilities.

구체적으로, 상기 노면표시 (차선) 및 횡당지시는 노면표시는 도로교통의 안전과 원활한 소통을 도모하고 도로 구조를 보존하기 위한 목적으로 제시된 것으로서, 독자적으로 또는 교통안전표지와 신호기를 보완하여 도로이용자에게 규제 또는 지시의 내용을 전달하는 기능을 제공할 수 있다. Specifically, the road markings (lanes) and crossing directions are presented for the purpose of promoting the safety and smooth communication of road traffic and preserving the road structure. It can provide a function to convey the content of regulations or directives to

구체적으로, 상기 신호등은 도로에서의 위험 방지 및 교통안전과 원활한 소통 확보를 위한 복적으로 설치된 것으로서, 도로교통에 관하여 문자ㅇ기호 또는 등화로써 진행ㅇ정지ㅇ방향전환ㅇ주의 등 신호를 표시하여 다양한 교통류에 우선권을 할당하는 기능을 수행할 수 있다.Specifically, the traffic lights are installed to prevent danger on the road and secure traffic safety and smooth communication. In relation to road traffic, various traffic types by displaying signals such as progress, stop, change of direction, etc. It can perform the function of allocating priority to .

구체적으로, 상기 도로표지판은, 도로이용자에게 일관성 있고 통일된 방법으로 교통안전과 원활한 소통을 도모하고 도로구조와 도로시설물을 보호하기 위해 필요한 각종 정보를 제공하는 목적으로 제공된 것으로서, 교통안전표지는 단독으로 설치되거나, 노면표시 및 신호기와 유기적, 보완적으로 결합하여 설치되는 교통안전시설물로서 교통안전표지의 목적을 달성할 수 있도록 도로이용자에게 주의, 규제, 지시 등의 내용을 전달하는 기능을 제공할 수 있다.Specifically, the road sign is provided for the purpose of providing road users with various information necessary to promote traffic safety and smooth communication in a consistent and unified way and to protect road structures and road facilities. It is a traffic safety facility installed as a traffic safety facility or installed in organic and complementary combination with road markings and signals, providing a function to deliver cautions, regulations, and instructions to road users to achieve the purpose of traffic safety signs. can

구체적으로, 상기 기타 항목으로 분류된 원천 데이터는 자율주행차량 주행 시 운행판단에 영향을 미치는 정적 데이터로 결정될 수 있다. 예컨대 도로공사 구간 전용 표지, 노면 색깔 유도선, 기타 ITS 시설물 등으로 분류될 수 있다. Specifically, the source data classified into the other items may be determined as static data that affects the driving decision when the autonomous vehicle is driven. For example, it may be classified as a road construction section exclusive sign, road surface color guide line, and other ITS facilities.

본 발명의 일 관점에 따라 수집되는 자료는, 블랙 박스 영상으로서 차량 내 설치된 영상 촬영 장치로 획득 가능한 실주행 영상일 수 있다. 일반적인 블랙박스 영상 데이터인 30fps, HD(1366x768) 또는 FHD(1920x1080) 수준의 영상자료가 수집될 수 있다. 차량에서 촬영한 영상 데이터로부터 학습용 이미지 데이터 추출하여 학습데이터 셋으로 가공할 수 있다.The data collected according to an aspect of the present invention may be a real driving image that can be acquired by an image capturing device installed in a vehicle as a black box image. General black box image data of 30fps, HD (1366x768) or FHD (1920x1080) level of image data can be collected. Image data for learning can be extracted from image data taken from the vehicle and processed into a learning data set.

블랙박스 기반 주행 영상 데이터는, 첫째, 날씨(비, 눈, 흐림 등)와 시간(야간, 주간)에 영향을 받으며, 둘째, 유리, 빗방울에 의한 빛 번짐 현상 심하며, 셋째, 촬영 카메라 모듈 성능에 따라 수집 영상 품질이 상이하며, 넷째, 블랙박스 자체 시간 설정이 잘못된 경우, 영상 녹화 시간 매핑이 어려우며, 다섯째, GPS 정보 기록을 위해서 별도 외장 모듈 설치 필요하며 (대부분 GPS 모듈 별도), 여섯째, 광시야각을 지원하는 경우, 영상 좌우 왜곡이 있으며, 일곱째, 촬영 영상 상단 또는 하단에 영상 촬영 시간과 위치, 속도 등이 동시 기록된다는 문제점이 있다. The black box-based driving video data is, firstly, affected by weather (rain, snow, cloudy, etc.) and time (night, day), secondly, severe light scattering by glass and raindrops, and thirdly, on the performance of the shooting camera module. The quality of the collected video is different depending on the model. Fourth, if the time setting of the black box itself is wrong, it is difficult to map the video recording time. In the case of supporting , there is left and right distortion of the image, and seventh, there is a problem that the time, position, and speed of the image are recorded simultaneously at the top or bottom of the captured image.

본 발명의 일 관점에 따라 수집되는 사용자 영상은 크라우드소싱을 통해 수십한 교통 정보 영상일 수 있다. 이를 위해 본 발명에 따라 제공되는 장치는 교통 정보 수집 참여에 따라 참여자에게 포인트 및 혜택을 제공하도록 되어 있을 수 있다. User images collected according to an aspect of the present invention may be dozens of traffic information images through crowdsourcing. To this end, the device provided according to the present invention may be configured to provide points and benefits to participants according to participation in traffic information collection.

본 발명의 일 관점에 따라 제공되는 장치는, 수집된 사용자 영상 데이터에 대해 GPS 매칭을 통해 데이터 정제하는 단계를 수행하도록 되어 있을 수 있다. 이때, 지역별, 시간별, 날씨별, 차종별, 도로유형별 데이터 편향이 방지된, 주어진 시간 예컨대 1,000시간의 영상 데이터를 획득할 수 있다. The apparatus provided according to an aspect of the present invention may be configured to perform data purification on the collected user image data through GPS matching. In this case, it is possible to obtain image data for a given time period, for example, 1,000 hours, in which data deflection is prevented by region, time, weather, vehicle type, and road type.

이때, 상기 장치는 개인정보 보호를 위한 영상 비식별화 처리 수행할 수 있다. 예컨대 출발지/도착지 클립을 삭제할 수 있다. 정제된 영상에서 이미지 추출을 통해 이미지 데이터를 확보할 수 있다. 데이터 정제 과정을 통해 대분류 수준 데이터를 분류할 수 있다. 수집된 영상의 사용자 입력 또는 1차 검수를 통해 이동 구간, 날씨 등 정보를 획득할 수 있다.In this case, the device may perform image de-identification processing for protecting personal information. For example, you can delete origin/destination clips. Image data can be obtained through image extraction from the refined image. Data at the large classification level can be classified through the data refining process. Information such as movement section and weather can be acquired through user input or primary inspection of the collected images.

<전체 시스템><Entire system>

본 발명의 일 관점에 따라 제공되는 원천 데이터 수집 방법은, 첫째, 크라우드소싱 방식을 통해 블랙박스 영상을 우선 확보하는 단계, 둘째, 데이터 수집 편향을 방지하기 위해서 상기 확보된 블랙박스 영상을 GPS 매칭을 통해 지역별, 차종별, 도로유형별로 분류하는 단계, 셋째, 패널을 선정하여 선정된 패널의 차량에 촬영장치를 설치하고 설치된 촬영장치로부터 영상 데이터를 수거함으로써 패널을 통해 영상 데이터를 보완하는 단계, 넷째, 영상 공급업체의 서버로부터 획들한 영상으로부터 요구 영상을 식별하여 식별된 요구 영상을 구매함으로써 영상 데이터를 보완하는 단계를 포함할 수 있다. The source data collection method provided according to an aspect of the present invention includes the steps of firstly securing a black box image through a crowdsourcing method, and secondly performing GPS matching of the secured black box image to prevent data collection bias. Classification by region, vehicle type, and road type through The method may include supplementing the image data by identifying the requested image from the image obtained from the image provider's server and purchasing the identified requested image.

구체적으로 상기 크라우드소싱 플랫폼을 활용하는 경우, 저렴한 가격에 빠르게 많은 데이터 확보 가능지만, 데이터 편향 방지를 위해서 학습데이터 가공 전 활용 가능한 데이터 전처리를 할 수 있고, 별도 개인정보활용 동의 절차를 수행하기 위한 단계를 실행할 수 있다. Specifically, when using the crowdsourcing platform, it is possible to obtain a lot of data quickly at a low price, but in order to prevent data bias, it is possible to pre-process the available data before processing the learning data, and to perform a separate personal information use consent procedure can run

구체적으로 상기 패널 활용의 경우, 패널 모집을 통해 원천 데이터 편향 수집 방지 가능하다는 장점 및 별도 장비 설치를 통해 원천 데이터 품질 관리 가능하다는 장점이 있으나, 원천 데이터 확보 시간이 오래 걸린다.Specifically, in the case of using the panel, there is an advantage that it is possible to prevent the collection of biased source data through panel recruitment and the quality of source data can be managed through the installation of separate equipment, but it takes a long time to secure the source data.

구체적으로 상기 데이터 직접 구매 방법의 경우, 원천 데이터 확보 기업 조사가 필요하며, 며, 크라우드소싱이나 패널 활용에 비해 비싸다. 그러나 별도 패널 고용 없이 빠른 영상 데이터 확보가 가능하며 별도 인력 고용이 필요 없다. Specifically, in the case of the direct data purchase method, it is necessary to investigate the source data securing company, and it is more expensive than crowdsourcing or panel utilization. However, it is possible to obtain video data quickly without hiring a separate panel, and there is no need to hire a separate manpower.

<크라우드소싱 플랫폼> <Crowdsourcing Platform>

본 발명의 일 관점에 따라 제공되는 크라우드소싱 플랫폼 시스템은, (1) 영상 추가 수집 프로모션을 통해 영상 제공에 따른 추가 포인트(또는 현금)를 개인에게 지급하기 위한 프로모션 서버, (2) 대용량 영상 데이터 전송을 위해 제공되는 파일 업로드 및 추가 서버 스토리지 장치, 및 (3) 원천 데이터 확보 서버를 포함할 수 있다. The crowdsourcing platform system provided according to an aspect of the present invention includes (1) a promotion server for paying an individual additional points (or cash) according to video provision through additional video collection promotion, (2) large-capacity video data transmission It may include a file upload and additional server storage device provided for, and (3) a source data acquisition server.

상기 원천 데이터 확보 서버는 (1) 기수집된 주행정보와 영상 정보를 서로 매칭하여 분류함으로써 영상과 주행 정보를 서로 매칭하는 매칭 파트, 및 (2) 지역, 사용자, 주행 정보 매칭을 이용하여 데이터 수집 편향 방지를 위한 기능을 수행하는 편향제거 파트를 포함할 수 있다.The source data securing server collects data using (1) matching parts that match images and driving information with each other by matching and classifying previously collected driving information and image information, and (2) matching region, user, and driving information It may include a deflection removing part that performs a function for preventing deflection.

상기 프로모션 서버는 (1) 영상 활용 및 보상 지급에 대한 개인의 개인정보 활용 동의 프로세스를 처리하는 개인정보활용동의 파트, (2) 주어진 현금 보상 체계에 따라 포인트 대신 현금을 상기 개인에게 제공하는 보상 파트, 및 (3) 영상 수집 프로모션 안내 콘텐츠를 상기 개인에게 제공하는 콘텐츠 파트를 포함할 수 있다. The promotion server includes (1) the personal information usage agreement part that handles the personal information usage agreement process for video use and compensation payment, and (2) the compensation part that provides cash to the individual in lieu of points according to the given cash compensation system , and (3) a content part for providing video collection promotion guide content to the individual.

상기 크라우드소싱 플랫폼 시스템은 학습데이터 대비 10배수의 영상 데이터를 수집하도록 되어 있을 수 있다. 이때, (1) 정적객체를 포함하는 영상 조건에 따라 영상을 수집하고, (2) 데이터 매칭 분류를 위해 영상 메타데이터를 분석하고, 사용자 입력을 가능하게 하는 기능을 더 포함할 수 있다.The crowdsourcing platform system may be configured to collect 10 times the image data compared to the training data. In this case, it may further include a function of (1) collecting images according to image conditions including static objects, (2) analyzing image metadata for data matching classification, and enabling user input.

상기 크라우드소싱 플랫폼 시스템은 영상 데이터 수집을 위하여, 상기 파일 업로드 및 추가 서버 스토리지 장치와 같은 웹하드를 이용하여 상기 영상 데이터를 수집할 수 있다. The crowdsourcing platform system may collect the image data by using a web hard such as the file upload and an additional server storage device to collect the image data.

이때, 상기 개인정보활용동의 파트는 영상 정보 활용에 대한 동의를 상기 개인으로부터 입력받을 수 있다. In this case, the part of the consent to use of personal information may receive consent to use of image information from the individual.

이때, 상기 매칭 파트는 GPS 정보 매칭 여부를 검증함으로써, 영상과 주행정보가 서로 매칭되었는지 여부를 인증할 수 있으며, 영상 내 포함 정보 식별을 위하여 사용자 입력 방식의 1차 입력을 받아들일 수 있다. 상기 1차 입력은 지역도로인지 아니면 고속도로 또는 국도인지 여부를 구분하는 입력일 수 있다. In this case, the matching part may verify whether the image and the driving information match each other by verifying whether the GPS information is matched, and may accept the primary input of the user input method for identifying information included in the image. The first input may be an input for discriminating whether it is a local road, a highway, or a national road.

이때, 상기 보상 파트는 상기 매칭 결과에 따라 포인트 또는 현금 보상을 상기 개인이게 제공하는 프로세스를 수행하도록 되어 있을 수 있다.In this case, the reward part may be configured to perform a process of providing points or cash rewards to the individual according to the matching result.

이때, 상기 파일 업로드 및 추가 서버 스토리지 장치와 같은 웹하드를 통해 영상 데이터가 상기 개인으로부터 업로드될 수 있다. 업로드된 영상은 상기 원천 데이터 확보 서버가 이용할 수 있다. In this case, the image data may be uploaded from the individual through a web hard such as the file upload and additional server storage device. The uploaded image can be used by the source data securing server.

이때, 상기 편향제거 파트는 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지 기능을 수행할 수 있다. In this case, the deflection removing part may perform a deflection prevention function by matching the previously owned driving information and additionally collected image information.

<패널 모집 방식의 영상 데이터 보완><Complementing video data of panel recruitment method>

상기 크라우드소싱 플랫폼 시스템을 통해 획득한 영상 데이터에는 원하는 영상 데이터가 포함되어 있지 않을 수 있다. 이를 극복하기 위하여 본 발명의 일 관점에 따른 영상 데이터 보완 방법에서는 모집된 패널을 이용할 수 있다. The desired image data may not be included in the image data acquired through the crowdsourcing platform system. In order to overcome this, the collected panel may be used in the image data supplementation method according to an aspect of the present invention.

상기 크라우드소싱 플랫폼 시스템을 통해 획득한 원천 데이터를 분류하고, 시내/시외, 고속도로/국도, 날씨, 시간대별 수집 데이터를 한정하여 패널 모집을 통해 초기 수집 데이터 보완할 수 있다. By classifying the source data acquired through the crowdsourcing platform system, and limiting the collected data by city/city/city, highway/national road, weather, and time period, the initial collected data can be supplemented through panel recruitment.

패널의 선정은 상기 크라우드소싱 플랫폼 시스템을 통해 획득한 원천 데이터에 따라 이루어질 수 있다. The selection of the panel may be made according to the source data obtained through the crowdsourcing platform system.

패널은 상용차 운전자 패널와 전문 패널로 구분될 수 있다.The panel may be divided into a commercial vehicle operator panel and a professional panel.

상기 상용차 운전자 패널은 운행거리가 상대적으로 긴 운전자 대상으로 선정될 수 있다. 상기 전문 패널은 일종의 고용된 패널로서 QHD급 블랙박스 설치를 통해 고화질 영상 데이터 수집하는 패널을 의미할 수 있다. 패널들이 확보한 영상 데이터는 웹하드를 이용한 온라인 접수하거나 또는 직접 수거할 수 있다.The commercial vehicle driver panel may be selected as a driver with a relatively long driving distance. The professional panel is a kind of hired panel and may mean a panel that collects high-definition image data through the installation of a QHD-class black box. The video data secured by the panels can be submitted online using Webhard or can be collected directly.

<데이터 직접 구매 방식의 영상 데이터 보완><Complementing video data by direct data purchase>

여객 자동차 운송 사업에 사용되는 차량의 경우, 교통사고 상황 파악, 범죄 예방 및 증거 확보를 위해 영상기록장치가 의무 장착될 수 있다. 시내/시외버스 운송사업자와 같은 여객 자동차 운송 사업자 대상으로 데이터를 직접 구매할 수 있다.In the case of vehicles used in passenger car transportation business, video recording devices may be mandatory to identify traffic accidents, prevent crime, and secure evidence. Data can be purchased directly for passenger car transport operators such as city/intercity bus transport companies.

구매한 영상 데이터와 이미지 데이터는 정제될 수 있다. 구매한 상기 영상 데이터의 정제과정에서, 블랙박스 영상과 GPS 정보 매칭을 통해 지역, 차종, 도로유형 분류, 비식별화 처리를 통해 원본 영상 데이터 확보할 수 있다. 구매한 상기 영상 데이터로부터 영상 프레임 단위 이미지를 추출하고, 전처리 영상 인식을 통해 대분류 수준(횡단보도, 표지판, 신호등) 분류, 이미지 데이터 확보를 실행할 수 있다.Purchased image data and image data may be refined. In the process of refining the purchased image data, original image data can be secured through region, vehicle type, road type classification, and de-identification processing through matching of black box image and GPS information. It is possible to extract an image in units of image frames from the purchased image data, and to classify large classification levels (crosswalks, signs, traffic lights) and secure image data through preprocessing image recognition.

<데이터 정제 프로세스><Data purification process>

본 발명의 일 관점에 따라 제공되는 데이터 정제 방법은, 상술한 상기 크라우드소싱 플랫폼 시스템을 이용하여 확보한 영상 데이터와 이미지 데이터를 정제할 수 있다. The data purification method provided according to an aspect of the present invention may purify image data and image data secured using the above-described crowdsourcing platform system.

상기 원천 데이터 확보 서버는 블랙박스 영상과 GPS 정보 매칭을 통해 지역, 차종, 도로유형 분류, 비식별화 처리를 통해 원본 영상 데이터를 확보할 수 있다. 또한 영상 프레임 단위 이미지를 추출하고, 전처리 영상 인식을 통해 대분류 수준(횡단보도, 표지판, 신호등) 분류하여 이미지 데이터를 확보할 수 있다. The source data securing server may secure original image data through region, vehicle type, road type classification, and de-identification processing through matching of the black box image and GPS information. In addition, image data can be obtained by extracting images in units of image frames and classifying them at the major classification level (crosswalks, signs, traffic lights) through pre-processing image recognition.

상기 원천 데이터 확보 서버는, (1) 크라우드소싱 기반 블랙박스 영상을 수집하는 단계, (2) 수집된 영상에 있어서의 데이터 편향을 제거하는 단계, (3) 수집된 영상에서 일부 정보의 비식별처리를 수행하는 단계, (4) 수집된 영상에서 이미지를 추출하는 단계, 및 (5) 추출한 이미지로부터 정제된 데이터를 획득하는 단계를 실행하도록 되어 있을 수 있다.The source data securing server includes the steps of (1) collecting crowdsourcing-based black box images, (2) removing data bias in the collected images, (3) de-identification of some information in the collected images (4) extracting an image from the collected image, and (5) obtaining purified data from the extracted image.

상기 원천 데이터 확보 서버는, 수집 영상 데이터에 대한 편향 방지를 위하여, (1) 최초 블랙박스 영상 수집 시 수도권/광역시별 참여자 인원수를 제한하는 단계, (2) 제보된 블랙박스 영상 데이터와 GPS 정보 매칭을 통해 ① 수도권/광역시 권역 분류, ② 고속도로/국도 분류, ③ 자동차 DB를 통해 차종 분류를 수행할 수 있다. The source data securing server performs the steps of (1) limiting the number of participants in each metropolitan area/metropolitan city when collecting the first black box image, (2) matching the reported black box image data and GPS information in order to prevent bias on the collected image data. Through ① metropolitan/metropolitan region classification, ② expressway/national road classification, and ③ vehicle type classification can be performed through the automobile DB.

상기 원천 데이터 확보 서버는, 수집 영상 데이터에 대해 다음과 같은 단계를 포함하는 비식별화 처리를 수행하는 프로세스를 실행할 수 있다. 첫째 단계에서, 수집 영상으로부터 출발지 및 도착지 시점의 전/후 구간을 삭제하고, 둘째 단계에서, 수집 영상으로부터 영상 외 음성 정보 삭제하고, 셋째 단계에서, 수집 영상으로부터 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별처리할 수 있고, 넷째 단계에서, AI 학습데이터 가공 전에 교통사고 장면을 삭제하고, 다섯째 단계에서, 횡단보도 정차 시 보행자 비식별 처리를 수행하고, 여섯째 단계에서, 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리할 수 있다. 위 둘째 내지 여섯째 단계는 차량의 출발 및 도착을 제외한 사이 구간에서의 주행 영상에 대하여 실행하는 것일 수 있다.The source data securing server may execute a process of performing de-identification processing including the following steps on the collected image data. In the first step, the sections before and after the departure and arrival points are deleted from the collected video, in the second step, audio information other than the video is deleted from the collected video, and in the third step, the vehicle of the vehicle driving ahead and the vehicle in the next lane from the collected video Numbers can be de-identified, and in the fourth step, the traffic accident scene is deleted before AI learning data processing, in the fifth step, pedestrian de-identification processing is performed when stopping at the crosswalk, and in the sixth step, the video is taken in the black box Time and location information can be de-identified. The above second to sixth steps may be executed for the driving image in the interval between the departure and arrival of the vehicle.

<인공지능 학습용 데이터 설계><Data design for artificial intelligence learning>

본 발명의 일 관점에 따라 제공되는 인공지능 학습용 데이터는 다음과 같은 특징을 가질 수 있다.Data for artificial intelligence learning provided according to an aspect of the present invention may have the following characteristics.

본 발명의 일 관점에 의해 완성된 AI 학습데이터는 외부에 공개하여 누구라도 쉽게 활용할 수 있도록 제공될 수 있다. 따라서 데이터 접근성을 충분히 고려하여 AI 학습데이터를 설계할 수 있다. AI learning data completed by one aspect of the present invention can be provided so that anyone can easily utilize it by opening it to the outside. Therefore, AI learning data can be designed by sufficiently considering data accessibility.

본 발명에서 이용되는 메타정보는 자율주행 AI 학습을 위한 정보를 저장하도록 설계될 수 있다. 또한, 작업자에 의한 아노테이션과 AI 인식결과 비교, 검사를 위한 기능을 고려하여 설계될 수 있다. Meta information used in the present invention may be designed to store information for autonomous driving AI learning. In addition, it can be designed in consideration of the functions for the comparison and inspection of the annotation by the operator and the AI recognition result.

본 발명의 일 관점에 의해 완성된 AI 학습데이터는, 표지판, 차선 및 횡단보도, 신호등, 및 기타표식으로 지칭되는 대분류(카테고리)로 구분될 수 있다. 상기 표지판 대분류는 규제 표지판과 지시 표지판이라는 중분류로 더 나뉠 수 있다. 상기 차선 및 횡단보도 대분류는 중앙선, 버스전용차선, 유턴, 일반 차선, 길가장자리구역, 진로변경제한선, 스태거드 횡단보도, 대각선 횡단보도, 및 일반 횡단보도라는 중분류로 더 나뉠 수 있다. 상기 신호등 대분류는, 차량신호 4색등, 차량신호 3색등, 차량신호 3색등, 차량신호 2색등, 및 보행신호 2색등이라는 중분류로 더 나뉠 수 있다. 상기 기타 표식 대분류는 공사표지판과 가변정보판이라는 중분류로 더 나뉠 수 있다. 상기 각각의 중분류들은 각각 소정의 1개 이상의 소분류로 나뉠 수 있다.AI learning data completed by one aspect of the present invention can be divided into large categories (categories) referred to as signs, lanes and crosswalks, traffic lights, and other signs. The major classification of the sign may be further divided into a middle classification of a regulatory sign and an instruction sign. The large classification of lanes and crosswalks can be further divided into mid-classifications of center line, bus-only lane, U-turn, general lane, road edge area, course change restriction line, staggered crosswalk, diagonal crosswalk, and general crosswalk. The major classification of the traffic lights may be further divided into intermediate classifications of a vehicle signal 4 color light, a vehicle signal 3 color light, a vehicle signal 3 color light, a vehicle signal 2 color light, and a walking signal 2 color light. The major classification of other signs can be further divided into a middle classification of construction signs and variable information boards. Each of the major categories may be divided into one or more predetermined sub-categories, respectively.

본 발명의 일 실시예에서, 카테고리별 각 클래스에 대한 충분한 학습데이터를 수집하기 위해, 크라우드 소싱 기반 데이터 수집 플랫폼을 이용하여 예컨대 3,000 시간 이상의 동영상 원천 데이터를 수집할 수 있다. 일 실시예에서 원천 영상 데이터를 지역별 그리고 카테고리의 대분류와 중분류의 분류 기준별로 분류하고, 중분류의 클래스별로 학습데이터를 구축할 수 있다. In one embodiment of the present invention, in order to collect sufficient learning data for each class by category, it is possible to collect, for example, 3,000 hours or more of video source data using a crowdsourcing-based data collection platform. In an embodiment, the source image data may be classified by region and by classification criteria of a large classification and a medium classification of a category, and learning data may be constructed for each class of the intermediate classification.

<AI 데이터의 현태><Status of AI Data>

본 발명의 일 관점에 따라 제공되는 AI 시스템에서 사용되는 데이터는 다음과 같은 특정을 가질 수 있다. Data used in the AI system provided according to an aspect of the present invention may have the following characteristics.

본 발명의 일 관점에 따라 제공되는 데이터 세트는 (1) 원본 동영상(FHD 해상도), (2) 이미지(jpg), (3) 아노테이션(json)(=주석), (4) 데이터 셋 목록(json-클래스 종류 포함)이다.The data set provided according to one aspect of the present invention is (1) original video (FHD resolution), (2) image (jpg), (3) annotation (json) (= annotation), (4) data set list ( json - including class types).

아노테이션 항목은 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류(트럭/버스/승용차 등), 촬영 시간, 촬영된 도로의 유형(고속도로/국도), 촬영된 지역(수도권/광역권)의 기록을 위해 제공될 수 있다. 또한 상기 동영상에서 추출된 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 라벨링된 이미지를 포함 URL의 기록을 위해 제공될 수 있다. 또한, 각 이미지에서 추출되는 다수 N개의 클래스에 대해, 클래스 ID (대분류 -> 중분류 -> 클래스)와 바운딩 박스의 위치(왼쪽 상단의 좌표(x,y)와 폭과 높이)를 정의하여 제시할 수 있다.Annotation items include source location for video data, resolution, type of recorded vehicle (truck/bus/car, etc.), recording time, type of recorded road (expressway/national road), and recorded area (metropolitan area/metropolitan area). May be provided for records. In addition, the file name for each image data extracted from the video, the shooting time, the shooting location, the speed of the vehicle when shooting, the weather at the time of shooting, the number of lanes on the taken road, and the labeled image can be provided for recording of URLs. have. In addition, for a number of N classes extracted from each image, the class ID (large class -> middle class -> class) and the location of the bounding box (coordinates (x,y) and width and height of the upper left) are defined and presented. can

본 발명의 일 관점에서는, 아노테이션 형식으로서 json 형식을 사용할 수 있다. 오픈 데이터 세트에는 매트랩(matlab)과 같은 별도의 툴이 있어야 가능한 형태가 있으나 본 발명에서는 범용성을 고려하여 별도의 툴이 없이 가능한 json 형식을 이용할 수 있다. In one aspect of the present invention, a json format may be used as the annotation format. The open data set has a form that requires a separate tool such as matlab, but in the present invention, in consideration of versatility, a possible json format can be used without a separate tool.

<인공지능 학습용 데이터 구축><Building data for artificial intelligence learning>

본 발명이 일 관점에 따라 제공되는 학습데이터 제작 프로세스는 데이터 수집 단계(S10), 데이터 전처리 단계(S20), 데이터 가공 단계(S30), 데이터 검증 단계(S40), 및 학습데이터세트 생성의 단계(S50)를 포함할 수 있다. The learning data production process provided in accordance with an aspect of the present invention includes a data collection step (S10), a data pre-processing step (S20), a data processing step (S30), a data verification step (S40), and the steps of creating a learning dataset ( S50) may be included.

상기 데이터 수집 단계(S10)에서는, 크라우드 소싱 기반 블랙박스 영상 수집, 수집된 영상에 대한 편향 제거, 그리고 영상 비식별 처리 과정이 순차적으로 수행될 수 있다. 이는 상술한 데이터 정제 프로세스를 포함할 수 있다. In the data collection step ( S10 ), crowdsourcing-based black box image collection, bias removal for the collected image, and image de-identification processing may be sequentially performed. This may include the data cleaning process described above.

이때, 사용자 대상 블랙박스 영상과 해당 영상의 주행 시간과 주행 경로(GPS 모듈 설치 시) 데이터 수집하고, 크라우드소싱 플랫폼을 통한 해당 사용자의 주행 트립단위 OD 데이터(주행 시간, 주행 경로, 주행 거리) 수집이 가능하다. 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지, 원천 데이터 확보가 가능하다.At this time, data of the user's black box image and the driving time and driving route (when the GPS module is installed) are collected, and the user's driving trip unit OD data (driving time, driving route, mileage) is collected through the crowdsourcing platform. This is possible. It is possible to prevent bias and secure source data by matching the previously owned driving information with the additionally collected image information.

이때, 수집 영상 데이터에 대한 데이터 편향 제거를 위하여, 최초 블랙박스 영상 수집 시 수도권/광역시별 참여자 인원수를 제한하고, 제보된 블랙박스 영상 데이터와 GPS 정보 매칭을 통해 ① 수도권/광역시 권역 분류, ② 고속도로/국도 분류, 및 ③ 자동차 DB를 통해 차종 분류를 실행할 수 있다. 수집된 영상을 권역, 도로 유형, 자동차 유형에 따라 분류하고 편향이 생기지 않도록 수집된 동영상에 대한 필터링 수행이 이루어질 수 있다.At this time, in order to remove data bias on the collected image data, the number of participants per metropolitan area/metropolitan area is limited when collecting black box images for the first time, and ① metropolitan area/metropolitan area classification, ② highways through matching the reported black box image data and GPS information Classification of vehicle types can be performed through /national road classification, and ③ automobile DB. The collected images may be classified according to regions, road types, and vehicle types, and filtering may be performed on the collected images to prevent bias.

그리고 상술한 바와 같이, 개인정보보호를 위해 수집 영상 데이터에 대해 비식별화 처리 수행이 이루어질 수 있다.And, as described above, de-identification processing may be performed on the collected image data to protect personal information.

한편, 획득한 동영상 데이터에서 스틸사진 추출 시 다음이 고려될 수 있다. 이미 그 위치를 확보하여 저장하고 있는 도로 상의 정적객체 대상으로부터 차량의 속도 기준으로 거리를 고려하여 특정 지점 또는 교통정체로 발생하는 중복사진을 제거할 수 있다. Meanwhile, the following may be considered when extracting still pictures from the acquired moving picture data. It is possible to remove duplicate photos caused by a specific point or traffic congestion by considering the distance based on the vehicle speed from the static object on the road that has already secured and stored its location.

상기 데이터 전처리 단계(S20)에서, 수집 및 정제된 영상 데이터에 대해, 학습데이터의 카테고리 중 대분류인 차선/횡단보도, 신호등, 교통표지판, 기타표식을 분류하고, 영상 데이터로부터 유효한 이미지 데이터를 추출할 수 있다. In the data pre-processing step (S20), for the collected and refined image data, lanes/crosswalks, traffic lights, traffic signs, and other signs, which are major categories of learning data categories, are classified, and valid image data is extracted from the image data. can

상기 데이터 전처리 단계(S20)는 다음 단계들을 포함할 수 있다. The data pre-processing step S20 may include the following steps.

즉, 단계(S21)에서, 준비된 대분류 카테고리를 기준으로 분류를 수행할 학습 모델을 위한 학습데이터 세트(예컨대 4개의 대분류와 56개의 중분류에 대한 총 109개의 클래스에 대한)을 구축하며, 학습을 통해 학습 모델을 생성할 수 있다.That is, in step S21, a training data set for a learning model to perform classification based on the prepared large classification category (for example, for a total of 109 classes for 4 large classifications and 56 medium classifications) is built, and through learning You can create a learning model.

상기 대분류 카테고리(클래스)들은 각각 복수 개의 서브 카테고리들(중분류, 소분류)로 더 구분될 수 있다. Each of the large classification categories (classes) may be further divided into a plurality of subcategories (medium classification, small classification).

단계(S22)에서, 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터로부터 상기 복수 개의 서브 카테고리에 관한 정적객체를 추출하고, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스(bounding box), 상기 바운딩 박스에 관한 아노테이션을 자동으로 생성할 수 있다.In step S22, static objects related to the plurality of sub-categories are extracted from the valid image data using the generated learning model, and information about the location of the extracted static objects in the valid image data A bounding box and an annotation on the bounding box may be automatically generated.

단계(S23)에서, 상기 생성된 아노테이션에 따라 해당 동영상과 이미지를 대분류에 따라 분류를 수행함으로서, 대분류 항목에 따른 동영상과 전처리된 이미지 데이터를 생성할 수 있다.In step S23, by classifying the corresponding moving picture and the image according to the major classification according to the generated annotation, the moving picture and the pre-processed image data according to the large classification item may be generated.

상기 데이터 가공 단계(S30)에서는, 상기 데이터 전처리 단계(S20)에서 생성된 bounding box와 아노테이션을 검수자가 확인 및 수정을 수행할 수 있다. 모든 확인 및 수정 작업은 모든 입력작업은 빠르고 정확한 입력을 위해 Key-In방식, Selection방식, 후검증방식, Preset방식, 자동입력방식, Cross Field Check, Related Field Copy, Reject Packet, Reject Page등 다양한 입력방식을 지원할 수 있다.In the data processing step (S30), the inspector may check and correct the bounding box and annotation generated in the data preprocessing step (S20). For all confirmation and correction work, all input work is fast and accurate. Key-In method, Selection method, Post-verification method, Preset method, Auto input method, Cross Field Check, Related Field Copy, Reject Packet, Reject Page, etc. method can be supported.

상기 데이터 검증 단계(S40)에서, 데이터 검증은 딥러닝 알고리즘을 활용한 에러율 검출로 전수 검사를 수행하며, 에러 검출 등 이상이 있는 학습데이터에 대하여 검수자가 직접 확인하고 수정하는 절차로 진행될 수 있다. In the data verification step (S40), data verification is performed by performing a full inspection by detecting an error rate using a deep learning algorithm, and the inspector directly confirms and corrects the learning data having abnormalities such as error detection.

딥 러닝 학습모델을 통해 비정상 아노테이션 데이터를 자동으로 검색할 수 있고, 학습로그에 에러가 검출된 데이터는 데이터 검증과정으로 통해 수정 요청될 수 있으며, 최종 검수를 마친 데이터를 통해 학습데이터 세트를 생성할 수 있으며, 그리고 최종 검수된 학습데이터 세트를 통한 딥러닝 학습 모델의 고도화 수행을 할 수 있다.Abnormal annotation data can be automatically searched through the deep learning learning model, and the data with errors detected in the learning log can be requested for correction through the data verification process, and a training data set is created based on the final inspection data. And it is possible to perform advanced performance of the deep learning learning model through the final verified training data set.

<학습데이터 제작 및 저장을 위한 인프라><Infra for production and storage of learning data>

본 발명의 일 양상에 따라 학습데이터 제작 및 저장을 위한 인프라 시스템이 제공될 수 있다. 상기 인프라 시스템은 (1) 인공지능과 작업자 간의 협력을 적용한 공정관리 시스템과 (2) 인공지능 AI 인식엔진을 활용한 데이터 수집 분석 시스템을 포함할 수 있다According to an aspect of the present invention, an infrastructure system for producing and storing learning data may be provided. The infrastructure system may include (1) a process management system to which cooperation between artificial intelligence and workers is applied, and (2) a data collection and analysis system using an artificial intelligence AI recognition engine.

기존 학습데이터 구축과정은 보통 이미지 처리, 색인정보 입력 및 등록 등 일련의 과정에서 전문적 작업자에 의존한 품질 관리를 하고 있다. In the existing learning data building process, quality control is usually performed by relying on professional workers in a series of processes such as image processing, index information input and registration.

본 발명에서는 단기간에 많은 학습데이터를 확보해야 할 수 있도록, 다수의 작업자 및 크라우드 소싱 방식을 활용한다. 따라서, 데이터의 품질 확보를 위해 프로세스 정형화, 표준화를 위한 공정관리 자동화가 필요하다. 따라서 대상업무 별 가이드라인, 지침을 탑재(작업자가 쉽게 참조할 수 있도록)한 공정관리 시스템을 활용하여, 인공지능 학습용 데이터의 최상의 품질을 확보할 수 있다. 공정관리 시스템은 그 과정의 일부에 사람이 포함된 관리 시스템일 수 있다.In the present invention, a plurality of workers and a crowd sourcing method are used so that a lot of learning data can be secured in a short period of time. Therefore, in order to secure data quality, process management automation for process standardization and standardization is required. Therefore, it is possible to secure the best quality of data for artificial intelligence learning by utilizing a process management system equipped with guidelines and guidelines for each target task (for easy reference by workers). A process control system may be a control system in which a person is part of the process.

본 발명의 일 양상에 따라 제공되는 학습데이터 생성기술은, 데이터 수집, 데이터 전처리, 데이터 가공, 데이터 검증, 학습데이터 세트 생성의 단계로 구성될 수 있다. The learning data generation technology provided according to an aspect of the present invention may consist of steps of data collection, data pre-processing, data processing, data verification, and training data set generation.

이때, 상기 데이터 가공 단계는 사람인 검수자의 검증과 AI의 협업 프로세스로 이루어질 수 있다. 내부 인원의 검수를 통해 높은 정확도를 가진 작업자를 검수자로 선별하여 다수교차 검사 기준을 통과한 데이터만 최종 생산 완료 처리될 수 있다. 수집된 데이터의 모든 과정을 공정관리 플랫폼과 아노테이션 툴에 의해 수행될 수 있다. 1차 아노테이션(객체 추출과 메타, 그리고 대분류 동영상 분류)은 인공지능으로 수행하며, 2차 검증 및 수정을 인력에 의해 수행될 수 있다. 최종 AI 알고리즘 학습 후 데이터 세트 유효성 검증 추가 수행하여 품질을 확보할 수 있다.In this case, the data processing step may be made of a human inspector's verification and AI's collaborative process. Only the data that has passed the multiple-crossing inspection criteria can be processed after final production by selecting workers with high accuracy as inspectors through internal personnel inspection. All processes of the collected data can be performed by the process control platform and annotation tool. The primary annotation (object extraction, meta, and large-class video classification) is performed by artificial intelligence, and secondary verification and correction can be performed by manpower. After training the final AI algorithm, additional data set validation can be performed to ensure quality.

이때, 상술한 데이터 수집 분석 시스템은, 상기 공정관리 시스템의 일부 과정에 참여하는 시스템으로서, 획득한 AI 학습용 데이터를 AI 요소기술을 적용하여 대상 데이터를 자동으로 분류하고 검색할 수 있도록 학습할 수 있다. In this case, the above-described data collection and analysis system, as a system participating in some processes of the process management system, can learn to automatically classify and search target data by applying AI element technology to the acquired AI learning data. .

영상데이터 전처리 단계에서, 수집된 사용자 동영상 데이터에서 예컨대 164개 클래스에 대한 객체를 인식하여, 인식된 객체에 따라 동영상 데이터를 대분류에 따라 자동 분류 및 아노테이션 자동화 기능(메타 생성)을 수행할 수 있다.In the image data pre-processing step, for example, objects for 164 classes are recognized in the collected user video data, and automatic classification and annotation automation functions (meta generation) can be performed according to the major classification of the video data according to the recognized objects. .

본 발명에 따르면, 이미 수집되어 있는 도로와 관련된 다양한 정적객체에 관한 정보를 이용하여 도로의 포장상태에 따른 운전자 및 자율주행 차량의 이미지 검출 및 시인성 정도 판단하는 기술을 제공할 수 있고, 또한 식별이 어려운 노면 표시, 차선 등 에 대한 이미지 예측을 통해 실시간으로 표시내용을 보완하여 제공할 수 있으며, 예측된 정보와 실제 관측된 정보 간의 차이를 도로 상의 정적객체 관리시스템의 관리자에게 제공하는 기술을 제공할 수 있다.According to the present invention, it is possible to provide a technology for detecting images and determining the degree of visibility of drivers and autonomous vehicles according to the pavement condition of the road using the information about various static objects related to the road that has already been collected, and also, the identification is easy. It is possible to supplement and provide display contents in real time through image prediction for difficult road markings and lanes, and to provide a technology that provides the difference between predicted information and actual observed information to the administrator of the static object management system on the road. can

본 발명을 통해 제공하는 도로 교면(노면) 표시정보의 실시간 모니터링 서비스와 이미지 예측을 통한 사용자 정보로 인하여 국민의 교통 안전향상을 제고할 수 있을 것이다. The real-time monitoring service of road bridge surface (road surface) display information provided through the present invention and user information through image prediction will improve public traffic safety.

도 1은 본 발명의 일 실시예에 따른 차량 내의 구성들 및 차량 내의 구성들과 서버간의 관계를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 도로 상 정적객체의 관리 스케줄을 생성하기 위해 서버에게 제공하기 위한 데이터의 선정방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 일 실시예에 따른 서버에서 도로 상 정적객체의 관리 스케줄을 생성하는 방법에 대한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 손실객체에 대한 수리 또는 교체 스케줄 생성 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 크라우드소싱 플랫폼 시스템을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 학습데이터세트 처리방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 원천 영상 데이터 확보를 위한 과정을 구분하여 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따라 학습데이터 처리방법을 간략하게 도시한 것이다.
도 9는 본 발명의 일 실시예에 따른 데이터 정제 프로세스를 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따라 아노테이션을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따라 임의의 이미지에서 추출되는 클래스 ID 및 바운딩 박스의 위치에 대한 정보를 나타낸 것이다.
도 12는 도 6의 단계(S20)의 데이터 전처리 단계의 수행 과정을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따른 학습모델의 생성과정을 설명하기 위한 도면이다.
1 is a diagram for explaining components in a vehicle and a relationship between components in a vehicle and a server according to an embodiment of the present invention.
2 is a flowchart illustrating a method of selecting data to be provided to a server to create a management schedule for a static object on a road according to an embodiment of the present invention.
3 is a flowchart of a method for generating a management schedule for a static object on a road in a server according to an embodiment of the present invention.
4 is a flowchart illustrating a method for generating a repair or replacement schedule for a lost object according to an embodiment of the present invention.
5 is a diagram for explaining a crowdsourcing platform system according to an embodiment of the present invention.
6 is a view for explaining a method of processing a learning dataset according to an embodiment of the present invention.
7 is a diagram for separately explaining a process for securing source image data according to an embodiment of the present invention.
8 schematically illustrates a learning data processing method according to an embodiment of the present invention.
9 is a diagram for explaining a data purification process according to an embodiment of the present invention.
10 is a diagram for explaining annotation according to an embodiment of the present invention.
11 shows information on a class ID and a position of a bounding box extracted from an arbitrary image according to an embodiment of the present invention.
12 is a view for explaining a process of performing the data pre-processing step of step S20 of FIG. 6 .
13 is a view for explaining a process of generating a learning model according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부한 도면을 참고하여 설명한다. 그러나 본 발명은 본 명세서에서 설명하는 실시예에 한정되지 않으며 여러 가지 다른 형태로 구현될 수 있다. 본 명세서에서 사용되는 용어는 실시예의 이해를 돕기 위한 것이며, 본 발명의 범위를 한정하고자 의도된 것이 아니다. 또한, 이하에서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be implemented in various other forms. The terminology used in this specification is intended to help the understanding of the embodiment, and is not intended to limit the scope of the present invention. Also, singular forms used hereinafter include plural forms unless the phrases clearly indicate the opposite.

도 1은 본 발명의 일 실시예에 따른 차량 내의 구성들 및 차량 내의 구성들과 서버간의 관계를 설명하기 위한 도면이다.1 is a diagram for explaining components in a vehicle and a relationship between components in a vehicle and a server according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 도로 상 정적객체의 관리 스케줄을 생성하기 위해 서버에게 제공하기 위한 데이터의 선정방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of selecting data to be provided to a server to create a management schedule for a static object on a road according to an embodiment of the present invention.

이하, 도 1 및 도 2를 함께 참조하여 설명한다.Hereinafter, it will be described with reference to FIGS. 1 and 2 together.

차량(200)에는 차량 단말기(210) 및 자율주행장치(220)가 설치될 수 있다. A vehicle terminal 210 and an autonomous driving device 220 may be installed in the vehicle 200 .

차량 단말기(210)는 처리장치(211), 촬영장치(212), 저장장치(213), 및 예측장치(214)를 포함할 수 있다.The vehicle terminal 210 may include a processing device 211 , a photographing device 212 , a storage device 213 , and a prediction device 214 .

저장장치(213)에는 객체정보 테이블, 및 복수 개의 기준참조 이미지들이 저장될 수 있다.The storage device 213 may store an object information table and a plurality of reference reference images.

상기 객체정보 테이블은, 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블일 수 있다. 상기 객체정보 테이블은 상기 복수 개의 정적객체들의 지구위치들을 포함할 수 있다.The object information table may be an object information table including data on a plurality of static objects having any one type among predetermined types existing on a movement path of a vehicle. The object information table may include geolocations of the plurality of static objects.

상기 복수 개의 기준참조 이미지들은, 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 것일 수 있다.The plurality of reference reference images may be provided according to the Road Traffic Act as an image representing each of the static objects.

예측장치(214)는 지도학습 방법에 따라 학습된 신경망을 포함할 수 있다. The prediction device 214 may include a neural network learned according to a supervised learning method.

상기 신경망은 정보수집차량에서 촬영하여 획득한 학습용 이미지들을 학습용 입력정보로서 이용하고, 각각의 상기 획득한 학습용 이미지 내에서 지정되어 있는 한 개 이상의 객체이미지들 각각에 대한 라벨을 이용하여 지도학습된 것일 수 있다. The neural network uses images for learning acquired by shooting from an information collection vehicle as input information for learning, and supervised learning using a label for each of one or more object images designated in each of the acquired images for learning. can

자율주행장치(220)는, 차량(200)의 자율주행을 지원할 수 있다.The autonomous driving device 220 may support autonomous driving of the vehicle 200 .

처리장치(211)는 아래의 단계(S200) 내지 단계(S230)을 실행하도록 되어 있을 수 있다.The processing device 211 may be configured to execute the following steps ( S200 ) to ( S230 ).

단계(S200)에서, 처리장치(211)가, 차량(200)의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량(200)의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치(212)를 이용한 촬영을 시작할 수 있다.In step S200 , the processing device 211 obtains the vehicle 200 from the GPS device and the first earth position that is the earth position of the first static object existing on the predicted first movement path of the vehicle 200 . ) may start photographing using the photographing device 212 from a point in time when the difference between the current vehicle positions, which is the current earth position, has a value within a predetermined threshold value.

단계(S210)에서, 처리장치(211)가, 촬영장치(212)가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출할 수 있다.In step S210 , the processing device 211 extracts a first object image estimated to be the static object having any one of the predetermined types from the first image photographed by the photographing device 212 . can do.

이때, 단계(S210)는, 처리장치(211)가 상기 촬영한 제1이미지를 상기 학습된 신경망에 입력하여 상기 학습된 신경망의 출력을 이용하는 단계를 포함할 수 있다.In this case, step S210 may include a step of using the output of the learned neural network by inputting the first image captured by the processing device 211 to the learned neural network.

단계(S220)에서, 처리장치(211)가, 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택할 수 있다.In step S220 , the processing device 211 may select a first reference reference image corresponding to the extracted first object image from among the reference reference images.

단계(S230)에서, 처리장치(211)가, 상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치(예컨대, 자율주행장치(220), 또는 서버(300))에게 제공할 수 있다. In step S230, the processing device 211 converts at least one of the extracted first object image and the selected first reference reference image to another computing device (eg, the autonomous driving device 220 or the server 300). ) can be provided to

이때, 상기 다른 컴퓨팅 장치가 자율주행장치(220)인 경우, 자율주행장치(220)는 상기 차량(200)에 포함된 디스플레이 장치(미도시)에 상기 추출된 제1객체이미지 또는 상기 선택된 제1기준참조 이미지를 표시하도록 되어 있을 수 있다.In this case, when the other computing device is the autonomous driving device 220 , the autonomous driving device 220 displays the extracted first object image or the selected first object image on a display device (not shown) included in the vehicle 200 . The reference reference image may be displayed.

상기 단계(S220)은 아래의 단계(S221) 내지 단계(S223)를 포함할 수 있다.The step S220 may include the following steps S221 to S223.

이때, 처리장치(211)는 저장장치(213)에 액세스할 수 있다.In this case, the processing device 211 may access the storage device 213 .

단계(S221)에서, 처리장치(211)가, 상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택할 수 있다.In step S221 , the processing device 211 may select a first group of static objects existing within a predetermined distance from the first earth location from among the static objects stored in the object information table.

단계(S222)에서, 처리장치(211)가, 상기 복수 개의 기준참조 이미지들 중, 상기 선택된 제1그룹의 정적객체들에 대응하는 제1그룹의 기준참조 이미지들을 선택할 수 있다. In step S222 , the processing device 211 may select a first group of reference reference images corresponding to the selected first group of static objects from among the plurality of reference reference images.

단계(S223)에서, 처리장치(211)가, 상기 선택된 제1그룹의 기준참조 이미지들 중에서 상기 제1객체이미지와의 유사도가 가장 높은 것을 상기 제1기준참조 이미지로 결정할 수 있다.In operation S223 , the processing device 211 may determine, as the first reference reference image, the one having the highest similarity with the first object image among the selected first group of reference reference images.

도 3은 본 발명의 일 실시예에 따른 서버에서 도로 상 정적객체의 관리 스케줄을 생성하는 방법에 대한 순서도이다.3 is a flowchart of a method for generating a management schedule for a static object on a road in a server according to an embodiment of the present invention.

아래의 단계(S300) 내지 단계(S330)는 상기 단계(S230)의 상기 다른 컴퓨팅 장치가 원격의 서버(300)일 경우, 서버(300)에서 수행되는 단계들일 수 있다.The following steps ( S300 ) to ( S330 ) may be steps performed by the server 300 when the other computing device of the step ( S230 ) is the remote server 300 .

단계(S300)에서, 서버(300)가, 차량 단말기(210)로부터 제1객체이미지 및 제1기준참조 이미지를 수신할 수 있다.In step S300 , the server 300 may receive the first object image and the first reference reference image from the vehicle terminal 210 .

단계(S310)에서, 서버(300)가, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출할 수 있다. In step S310, the server 300 may calculate a degree of similarity between the extracted first object image and the selected first reference reference image.

단계(S320)에서, 서버(300)가, 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출할 수 있다.In step S320 , the server 300 may calculate the degree of deterioration of the first static object indicated by the first object image based on the calculated similarity.

단계(S330)에서, 서버(300)가, 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성할 수 있다.In step S330 , the server 300 may generate a repair or replacement schedule for the first static object according to the calculated degree of deterioration.

도 4는 본 발명의 일 실시예에 따른 손실객체에 대한 수리 또는 교체 스케줄 생성 방법을 설명하기 위한 순서도이다.4 is a flowchart illustrating a method for generating a repair or replacement schedule for a lost object according to an embodiment of the present invention.

서버(300)는 상기 객채정보 테이블을 포함하는 데이터베이스에 접근하도록 되어 있을 수 있다.The server 300 may be configured to access a database including the object information table.

단계(S400)에서, 차량단말기(210)가, 차량(200)의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량(200)의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치(212)를 이용한 촬영을 시작할 수 있다.In step S400 , the vehicle terminal 210 obtains the vehicle 200 from the GPS device and the first earth position that is the earth position of the first static object existing on the predicted first movement path of the vehicle 200 . ) may start photographing using the photographing device 212 from a point in time when the difference between the current vehicle positions, which is the current earth position, has a value within a predetermined threshold value.

단계(S410)에서, 차량단말기(210)가, 촬영장치(212)가 촬영한 상기 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 모든 객체이미지들인 제1그룹의 객체 이미지들을 추출할 수 있다.In step S410, the vehicle terminal 210 is all object images estimated to be the static objects having any one of the predetermined types from the first image photographed by the photographing device 212. One group of object images can be extracted.

단계(S420)에서, 차량단말기(210)가, 상기 제1지구위치 및 상기 추출한 제1그룹의 객체 이미지들에 관한 정보를 상기 다른 컴퓨팅 장치(즉, 서버(300))에게 제공할 수 있다.In step S420 , the vehicle terminal 210 may provide information about the first earth position and the extracted first group object images to the other computing device (ie, the server 300 ).

단계(S430)에서, 서버(300)가, 상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택할 수 있다. In step S430 , the server 300 may select a first group of static objects existing within a predetermined distance from the first earth location from among the static objects stored in the object information table.

단계(S440)에서, 서버(300)가, 상기 제1그룹의 정적객체들 중 상기 제1그룹의 객체 이미지들에 대응하지 않는 정적객체인 손실객체가 존재하는지 판단할 수 있다.In step S440 , the server 300 may determine whether there is a lost object that is a static object that does not correspond to the object images of the first group among the static objects of the first group.

단계(S450)에서, 서버(300)가, 상기 손실객체에 대한 수리 또는 교체 스케줄을 생성할 수 있다.In step S450, the server 300 may create a repair or replacement schedule for the lost object.

도 5는 본 발명의 일 실시예에 따른 크라우드소싱 플랫폼 시스템을 설명하기 위한 도면이다.5 is a diagram for explaining a crowdsourcing platform system according to an embodiment of the present invention.

크라우드소싱 플랫폼 시스템(100)은 주행환경에서의 정적객체를 인지하는 인공지능의 학습데이터세트를 처리할 수 있다. The crowdsourcing platform system 100 may process a learning dataset of artificial intelligence that recognizes static objects in a driving environment.

크라우드소싱 플랫폼 시스템(100)은 원천 데이터 확보 서버(1), 프로모션 서버(2), 및 스토리지 장치(3)를 포함할 수 있다.The crowdsourcing platform system 100 may include a source data securing server 1 , a promotion server 2 , and a storage device 3 .

원천 데이터 확보 서버(1)는 매칭 파트(11) 및 편향제거 파트(12)를 포함할 수 있다.The source data securing server 1 may include a matching part 11 and a bias removal part 12 .

매칭 파트(11)는 기수집된 주행정보와 영상 정보를 서로 매칭하여 분류함으로써 영상과 주행 정보를 서로 매칭할 수 있다. 또한, 상기 매칭 파트(11)는 GPS 정보 매칭 여부를 검증함으로써, 영상과 주행정보가 서로 매칭되었는지 여부를 인증할 수 있으며, 영상 내 포함 정보 식별을 위하여 사용자 입력 방식의 1차 입력을 받아들일 수 있다. 상기 1차 입력은 지역도로인지 아니면 고속도로 또는 국도인지 여부를 구분하는 입력일 수 있다. The matching part 11 may match the image and the driving information with each other by matching and classifying the previously collected driving information and the image information. In addition, the matching part 11 can authenticate whether the image and driving information match each other by verifying whether the GPS information is matched, and can accept the primary input of the user input method for identifying information included in the image. have. The first input may be an input for discriminating whether it is a local road, a highway, or a national road.

편향제거 파트(12)는 지역, 사용자, 주행 정보 매칭을 이용하여 데이터 수집 편향 방지를 위한 기능을 수행할 수 있다. 즉, 편향제거 파트(12)는 기보유 주행 정보와 추가로 수집한 영상 정보 매칭을 통한 편향 방지 기능을 수행할 수 있다. The bias removal part 12 may perform a function for preventing bias in data collection by using region, user, and driving information matching. That is, the deflection removing part 12 may perform a deflection prevention function by matching the previously owned driving information and additionally collected image information.

프로모션 서버(2)는 영상 추가 수집 프로모션을 통해 영상 제공에 따른 추가 포인트(또는 현금)를 개인에게 지급할 수 있다. 이를 위하여, 프로모션 서버(2)는 개인정보활용동의 파트(21), 보상 파트(22), 및 콘텐츠 파트(23)를 포함할 수 있다. The promotion server 2 may pay the individual additional points (or cash) according to the provision of the image through the additional image collection promotion. To this end, the promotion server 2 may include a personal information use agreement part 21 , a compensation part 22 , and a content part 23 .

개인정보활용동의 파트(21)는 영상 활용 및 보상 지급에 대한 개인의 개인정보 활용 동의 프로세스를 수행할 수 있다.The personal information use consent part 21 may perform an individual's personal information use consent process for image use and compensation payment.

보상 파트(22)는 주어진 현금 보상 체계에 따라 포인트 대신 현금을 상기 개인에게 제공하는 프로세스를 수행할 수 있다. 또는, 보상 파트(22)는 원천 데이터 확보 서버(1)의 매칭 파트(11)의 매칭 결과에 따라 포인트 또는 현금 보상을 상기 개인에게 제공하는 프로세스를 수행할 수 있다. The reward part 22 may perform a process of providing the individual with cash instead of points according to a given cash reward scheme. Alternatively, the reward part 22 may perform a process of providing a point or cash reward to the individual according to the matching result of the matching part 11 of the source data securing server 1 .

콘텐츠 파트(23)는 영상 수집 프로모션 안내 콘텐츠를 상기 개인에게 제공하는 프로세스를 수행할 수 있다.The content part 23 may perform a process of providing the image collection promotion guide content to the individual.

스토리지 장치(3)는 대용량 영상 데이터 전송을 위해 파일 업로드 및 추가 기능을 제공할 수 있다.The storage device 3 may provide file upload and additional functions for large-capacity image data transmission.

스토리지 장치(3)는 영상 DB(31), 주행기술 DB(32), 및 차종식별 데이터베이스(33)를 포함할 수 있다. The storage device 3 may include an image DB 31 , a driving technology DB 32 , and a vehicle model identification database 33 .

영상 DB(31)에는 원본 영상 예컨대, 블랙박스 영상으로서 차량 내 설치된 영상 촬영 장치로 획득한 실주행 영상이 저장될 수 있다. 일반적인 블랙박스 영상 데이터인 30fps, HD(1366x768) 또는 FHD(1920x1080) 수준의 영상자료가 수집될 수 있다. 그리고 영상 DB(31)에는 예컨대, 크라우드소싱을 통해 수집한 교통 정보 영상이 저장될 수도 있다. 또한, 영상 DB(31)에는 모집된 패널을 통해 수집한 영상이 저장될 수도 있다.In the image DB 31 , an original image, for example, a black box image, and a real driving image acquired by an image photographing device installed in a vehicle may be stored. General black box image data of 30fps, HD (1366x768) or FHD (1920x1080) level of image data can be collected. In addition, the image DB 31 may store, for example, a traffic information image collected through crowdsourcing. In addition, images collected through the collected panels may be stored in the image DB 31 .

주행기술 DB(32)는 주행정보를 저장하고 있을 수 있다. 주행정보는 크라우드소싱 플랫폼을 통한 해당 사용자의 주행 트립단위 OD 데이터로서 주행시간, 주행경로, 주행거리 등의 정보를 포함할 수 있다. The driving technology DB 32 may store driving information. The driving information is OD data of the driving trip unit of the user through the crowdsourcing platform, and may include information such as driving time, driving route, and mileage.

차종식별 DB(33)는 블랙박스 영상 데이터에 대하여 차종을 분류하여 저장할 수 있다. The vehicle model identification DB 33 may classify and store the vehicle model with respect to the black box image data.

도 6은 본 발명의 일 실시예에 따른 학습데이터세트 처리방법을 설명하기 위한 도면이다. 6 is a view for explaining a method of processing a learning dataset according to an embodiment of the present invention.

단계(S10)에서, 원천 데이터 확보 서버(1)가, 크라우드소싱에 기반하여 블랙박스 영상을 수집하여, 수집된 상기 블랙박스 영상에서 데이터 편향을 제거하고 개인정보를 비식별 처리함으로써, 상기 수집된 블랙박스 영상으로부터 정제된 영상 데이터를 생성할 수 있다.In step S10, the source data securing server 1 collects black box images based on crowdsourcing, removes data bias from the collected black box images, and de-identifies personal information, so that the collected Refined image data can be generated from the black box image.

이때, 원천 데이터 확보 서버(1)는, 상용차 운전자인 운전자 패널이 운행하는 상용차에 설치된 블랙박스로부터 영상 데이터를 수집하고, 고화질 블랙박스를 장착한 차량을 운행하는 전문 패널이 운행하는 차량으로부터 영상 데이터를 수집하여 상기 블랙박스 영상을 보완할 수 있다. 그리고 원천 데이터 확보 서버(1)는, 여객 자동차 운송 사업자의 서버로부터 구매한 영상 데이터로 상기 블랙박스 영상을 보완할 수 있다.At this time, the source data securing server 1 collects image data from a black box installed in a commercial vehicle operated by a driver panel, which is a commercial vehicle driver, and image data from a vehicle operated by a professional panel operating a vehicle equipped with a high-definition black box. can be collected to supplement the black box image. In addition, the source data securing server 1 may supplement the black box image with image data purchased from a server of a passenger vehicle transport company.

이때, 영상 데이터 보완의 경우, 원천 데이터 확보 서버(1)가 획득한 원천 데이터를 먼저 분류하고, 시내/시외, 고속도로/국도, 날씨, 시간대별 수집 데이터를 한정하여 패널 모집을 통해 초기 수집 데이터 보완할 수 있다. At this time, in the case of video data supplementation, the source data acquired by the source data securing server 1 is first classified, and the collected data is limited by city/city/urban, highway/national road, weather, and time period to supplement the initial collected data through panel recruitment. can do.

단계(S20)에서, 원천 데이터 확보 서버(1)가, 학습데이터를 구성하는 대분류 카테고리들을 기준으로 상기 정제된 영상 데이터를 분류하고, 상기 정제된 영상 데이터로부터 유효한 이미지 데이터를 추출할 수 있다.In step S20, the source data securing server 1 may classify the refined image data based on the large classification categories constituting the learning data, and extract effective image data from the refined image data.

단계(S30)에서, 상기 데이터 전처리 단계인 단계(S20)에서 생성된 바운딩 박스(bounding box)와 아노테이션을 검수자가 확인 및 수정을 수행할 수 있다. 모든 확인 및 수정 작업은 모든 입력작업은 빠르고 정확한 입력을 위해 Key-In방식, Selection방식, 후검증방식, Preset방식, 자동입력방식, Cross Field Check, Related Field Copy, Reject Packet, Reject Page등 다양한 입력방식을 지원할 수 있다.In step S30, the inspector may check and correct the bounding box and annotation generated in step S20, which is the data pre-processing step. For all confirmation and correction work, all input work is fast and accurate. Key-In method, Selection method, Post-verification method, Preset method, Auto input method, Cross Field Check, Related Field Copy, Reject Packet, Reject Page, etc. method can be supported.

이때, 단계(S30)를 수행하기 위하여 단계(S30')에서, 검수자 관리가 이루어질 수 있다. 검수자 관리 단계는 사용자를 등록하는 단계, 검수자를 배정하는 단계, 및 데이터를 배정하는 단계를 포함할 수 있다. At this time, in step (S30') to perform step (S30), inspector management can be made. The inspector management step may include registering a user, allocating an inspector, and allocating data.

데이터 검증 단계(S40)에서, 데이터 검증은 딥러닝 알고리즘을 활용한 에러율 검출로 전수 검사를 수행하며, 에러 검출 등 이상이 있는 학습데이터에 대하여 검수자가 직접 확인하고 수정하는 절차로 진행될 수 있다. In the data verification step (S40), the data verification performs a full inspection by detecting an error rate using a deep learning algorithm, and the inspector directly confirms and corrects the learning data having an error such as error detection.

단계(S50)에서, 상기 검증 절차가 완료된 데이터를 기반으로 학습데이터세트(데이터 세트 A, B 등)를 생성할 수 있다.In step S50, a training dataset (data sets A, B, etc.) may be generated based on the data on which the verification procedure is completed.

도 7은 본 발명의 일 실시예에 따른 원천 영상 데이터 확보를 위한 과정을 구분하여 설명하기 위한 도면이다.7 is a diagram for separately explaining a process for securing source image data according to an embodiment of the present invention.

원천 영상 데이터 확보를 위하여 크게 세 개의 단계를 구분하여 설명할 수 있다.In order to secure the source image data, three stages can be divided and explained.

제1단계에서, 원천 데이터 확보 서버(1)가 크라우드소싱 기반으로 기초 데이터를 확보할 수 있다. 이때, 영상 수집 인프라를 구축하고, 크라우드소싱 기반 영상 데이터를 수집한 후, 데이터를 정제 및 분류하여 크라우드소싱 영상 데이터를 준비할 수 있다.In the first step, the source data securing server 1 may secure basic data based on crowdsourcing. In this case, the crowdsourced image data may be prepared by building an image collection infrastructure, collecting crowdsourcing-based image data, and then refining and classifying the data.

제2단계에서, 제1단계의 보완으로서, 패널 모집 방식의 영상 데이터를 확보할 수 있다. 이때, 패널(상용차(택시, 화물차, 버스) 등)을 모집하여 선정한 후 선정된 패널의 차량에 촬영장치를 설치할 수 있다. 설치된 촬영장치로부터 영상 데이터를 수거함으로써 패널을 통해 영상 데이터를 추가적으로 준비할 수 있다. In the second step, as a complement to the first step, it is possible to secure the image data of the panel recruitment method. In this case, after recruiting and selecting a panel (commercial vehicles (taxi, truck, bus, etc.)), a photographing device may be installed in the vehicle of the selected panel. By collecting image data from the installed photographing device, it is possible to additionally prepare image data through the panel.

제3단계에서, 제1단계 및 제2단계의 추가적인 보완으로서, 데이터를 직접 구매할 수 있다. 이때, 영상 공급업체를 조사하고, 요구 영상을 식별하여 영상 데이터를 구매함으로써 영상 데이터를 추가적으로 준비할 수 있다.In the third stage, as a further complement to the first and second stages, data can be directly purchased. In this case, the image data may be additionally prepared by researching the image supplier, identifying the requested image, and purchasing the image data.

원천 영상 데이터는 상술한 제1단계, 제2단계, 제3단계에서 각각 확보한 크라우드소싱 영상 데이터, 패널 수집 영상 데이터, 및 구매한 영상 데이터를 포함할 수 있다. The source image data may include crowdsourced image data, panel-collected image data, and purchased image data each secured in the first, second, and third steps described above.

도 8은 본 발명의 일 실시예에 따라 학습데이터 처리방법을 간략하게 도시한 것이다.8 schematically illustrates a learning data processing method according to an embodiment of the present invention.

크라우드소싱을 통해 교통 영상 데이터를 수집할 수 있다. 이때, 교통 영상 제공자(즉, 교통 정보 수집 참여자)에게 포인트 및 혜택을 제공할 수 있다. Traffic image data can be collected through crowdsourcing. In this case, points and benefits may be provided to traffic image providers (ie, traffic information collection participants).

수집된 영상 데이터는 영상DB(31)에 저장될 수 있다.The collected image data may be stored in the image DB 31 .

영상DB(31), 주행기록DB(32), 및 차종식별DB(33)를 종합하여, 지역, 유형, 시간, 날짜 등의 조건으로 영상 필터링을 진행할 수 있다. 이렇게 필터링 된 영상은 AI 학습 데이터 가공을 위한 원천 데이터로 이용될 수 있다. By synthesizing the image DB 31 , the driving record DB 32 , and the vehicle model identification DB 33 , image filtering may be performed under conditions such as region, type, time, date, and the like. This filtered image can be used as source data for AI learning data processing.

도 9는 본 발명의 일 실시예에 따른 데이터 정제 프로세스를 설명하기 위한 도면이다.9 is a diagram for explaining a data purification process according to an embodiment of the present invention.

이하의 단계들은, 원천 데이터 확보 서버(1)가 수행하는 단계들일 수 있다.The following steps may be steps performed by the source data securing server 1 .

단계(S110)에서, 크라우드소싱에 기반하여 블랙박스 영상을 수집할 수 있다. 이때, 최초 블랙박스 영상 수집 시 수도권/광역시별로 제한된 인원수의 참여자로부터 상기 블랙박스 영상을 수집할 수 있다.In step S110, a black box image may be collected based on crowdsourcing. In this case, when collecting the first black box image, the black box image may be collected from a limited number of participants for each metropolitan area/metropolitan city.

단계(S120)에서, 상기 블랙박스 영상에서 데이터 편향을 제거할 수 있다.In step S120, data bias may be removed from the black box image.

구체적으로 단계(S120)은 아래의 단계(S121) 내지 단계(S124)를 포함할 수 있다.Specifically, step S120 may include the following steps S121 to S124.

단계(S121)에서, 상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터의 권역(수도권/광역시)을 분류할 수 있다.In step S121, a region (metropolitan area/metropolitan city) of each image data may be classified by matching the collected data of the black box image with GPS information.

단계(S122)에서, 상기 수집한 블랙박스 영상의 데이터와 GPS 정보 매칭을 통해 각 영상 데이터가 수집된 장소의 도로 유형(고속도로/국도)을 분류할 수 있다.In step S122, a road type (highway/national road) of a place where each image data is collected may be classified through the matching of the collected black box image data and GPS information.

단계(S123)에서, 미리 저장된 자동차 DB(차종식별DB)를 통해 상기 각각의 블랙박스 영상을 제공한 차량의 자동차 유형의 분류를 수행할 수 있다. In step S123, classification of the vehicle type of the vehicle providing each of the black box images may be performed through a pre-stored vehicle DB (vehicle model identification DB).

단계(S124)에서, 상기 수집한 블랙박스 영상을 상기 권역, 상기 도로 유형, 및 상기 자동차 유형에 따라 분류하고 편향이 생기지 않도록 상기 수집한 블랙박스 영상에 대한 필터링을 수행할 수 있다.In step S124, the collected black box images may be classified according to the region, the road type, and the vehicle type, and the collected black box images may be filtered so that no bias occurs.

단계(S130)에서, 상기 편향이 제거된 영상에서 개인정보를 비식별 처리할 수 있다.In step S130, personal information may be de-identified in the image from which the bias is removed.

구체적으로 단계(S130)은 아래의 단계(S131) 내지 단계(S136)를 포함할 수 있다.Specifically, step S130 may include the following steps S131 to S136.

단계(S131)에서, 상기 수집한 각각의 블랙박스 영상의 출발지 및 도착지 시점의 전후 구간을 삭제할 수 있다. 이때, 상기 수집한 각각의 블랙박스 영상은 편향이 제거된 영상을 의미할 수 있다.In step S131, sections before and after the departure point and the destination point of each of the collected black box images may be deleted. In this case, each of the collected black box images may mean an image from which deflection has been removed.

단계(S132)에서, 상기 수집한 각각의 블랙박스 영상에서 영상 외의 음성 정보 삭제할 수 있다.In step S132, audio information other than the video may be deleted from each of the collected black box images.

단계(S133)에서, 상기 수집한 각각의 블랙박스 영상에서 전방 주행 차량 및 옆 차선 차량의 차량번호를 비식별 처리할 수 있다.In step S133, the vehicle number of the vehicle driving ahead and the vehicle in the next lane may be de-identified from each of the collected black box images.

단계(S134)에서, 상기 수집한 각각의 블랙박스 영상에서 교통사고 장면을 삭제할 수 있다.In step S134, a traffic accident scene may be deleted from each of the collected black box images.

단계(S135)에서, 상기 수집한 각각의 블랙박스 영상에서 횡단보도 정차 시 보행자 비식별 처리를 수행할 수 있다.In step S135, pedestrian de-identification processing may be performed when the crosswalk is stopped on each of the collected black box images.

단계(S136)에서, 상기 수집한 각각의 블랙박스 영상에서 블랙박스 영상 내 촬영시간 및 위치 정보를 비식별 처리할 수 있다.In step S136, the photographing time and location information in the black box image in each of the collected black box images may be de-identified.

단계(S140)에서, 비식별 처리된 영상에서 이미지를 추출할 수 있다. 즉, 영상 프레임 단위의 이미지를 추출할 수 있다.In step S140 , an image may be extracted from the de-identified image. That is, an image in units of image frames may be extracted.

단계(S150)에서, 추출된 이미지에서 유효한 이미지 데이터를 선정하고, 상기 선정된 유효한 이미지에서 각 서브 카테고리에 관한 정적객체를 추출할 수 있다. In step S150, valid image data may be selected from the extracted image, and static objects for each sub-category may be extracted from the selected valid image.

도 10은 본 발명의 일 실시예에 따라 아노테이션을 설명하기 위한 도면이다.10 is a diagram for explaining annotation according to an embodiment of the present invention.

단계(S150) 이후에, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보인 바운딩 박스(bounding box)에 관한 아노테이션을 생성할 수 있다.After the step S150, an annotation on a bounding box, which is information about a position of the extracted static object in the valid image data, may be generated.

아노테이션 항목은 동영상 정보, 이미지 정보, 및 클래스정보의 기록을 위해 제공될 수 있다. Annotation items may be provided for recording video information, image information, and class information.

동영상 정보의 경우, 아노테이션 항목은 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류(트럭/버스/승용차 등), 촬영 시간, 촬영된 도로의 유형(고속도로/국도), 촬영된 지역(수도권/광역권)의 기록을 위해 제공될 수 있다. In the case of video information, the annotation items are the source location, resolution, type of vehicle (truck/bus/car, etc.) for video data, recording time, type of recorded road (expressway/national road), and area ( Metropolitan area/metropolitan area) can be provided for records.

이미지 정보의 경우, 아노테이션 항목은 상기 동영상에서 추출된 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 라벨링된 이미지를 포함 URL의 기록을 위해 제공될 수 있다. In the case of image information, the annotation items include a file name, shooting time, shooting location, vehicle speed at the time of shooting, weather at the time of shooting, the number of lanes on the captured road, and labeled images for each image data extracted from the video. A URL may be provided for recording.

또한, 아노테이션 항목은 각 이미지에서 추출되는 다수 N개의 클래스에 대해, 클래스 ID (대분류 -> 중분류 -> 클래스)와 바운딩 박스의 위치(왼쪽 상단의 좌표(x,y)와 폭과 높이)를 정의하여 제시할 수 있다.In addition, the annotation item specifies the class ID (large classification -> medium classification -> class) and the position of the bounding box (coordinates (x,y) and width and height of the upper left) for a number of N classes extracted from each image. can be defined and presented.

도 11은 본 발명의 일 실시예에 따라 임의의 이미지에서 추출되는 클래스 ID 및 바운딩 박스의 위치에 대한 정보를 나타낸 것이다.11 shows information on a class ID and a position of a bounding box extracted from an arbitrary image according to an embodiment of the present invention.

참조부호 B1~B4는 바운딩 박스를 나타낸 것이고, 참조부호 C1~C4는 각 바운딩 박스(B1~B4)에 대한 아노테이션을 나타낸 것이다.Reference numerals B1 to B4 denote bounding boxes, and reference numerals C1 to C4 denote annotations for each bounding box B1 to B4.

아노테이션은 클래스 ID와 바운딩 박스의 위치에 대한 정보를 제시할 수 있다. 예컨대, 참조부호 C1은 바운딩 박스(B1)에 관한 것으로서 클래스 ID는 가변정보판이고, 바운딩 박스(B1)의 위치 정보는 (x=570, y=274)(폭=618,높이=310)일 수 있다. 예컨대, 참조부호 C2는 바운딩 박스(B2)에 관한 것으로서 클래스 ID는 중앙선이고, 바운딩 박스(B2)의 위치 정보는 (x=242, y=550)(폭=523, 높이=380)일 수 있다. Annotations may present information about the class ID and the location of the bounding box. For example, reference numeral C1 relates to the bounding box B1, and the class ID is a variable information board, and the location information of the bounding box B1 is (x=570, y=274) (width=618, height=310). can For example, reference numeral C2 relates to the bounding box B2, and the class ID is a center line, and the location information of the bounding box B2 may be (x=242, y=550) (width=523, height=380). .

도 12는 도 6의 단계(S20)의 데이터 전처리 단계의 수행 과정을 설명하기 위한 도면이다.12 is a view for explaining a process of performing the data pre-processing step of step S20 of FIG. 6 .

이때, 대분류 카테고리들은 차선/횡단보도, 신호등, 교통표지판, 기타표식을 포함할 수 있다. In this case, the large classification categories may include lanes/crosswalks, traffic lights, traffic signs, and other signs.

상기 대분류 카테고리들은 각각 복수 개의 서브 카테고리들로 더 구분될 수 있다.Each of the large classification categories may be further divided into a plurality of sub-categories.

단계(S20)은 아래의 단계(S21) 내지 단계(S23)를 포함할 수 있다.Step S20 may include the following steps S21 to S23.

단계(S21)에서, 상기 대분류 카테고리를 기준으로 분류를 수행할 학습 모델을 위한 학습데이터 세트를 구축하여 상기 구축된 학습데이터 세트를 이용하여 학습 모델을 생성할 수 있다. In step S21, a learning data set for a learning model to be classified based on the large classification category may be constructed, and a learning model may be generated using the constructed learning data set.

단계(S22)에서, 상기 생성된 학습 모델을 이용하여 상기 유효한 이미지 데이터로부터 상기 복수 개의 서브 카테고리에 관한 정적객체를 추출하고, 상기 유효한 이미지 데이터 내에서 상기 추출된 정적객체가 존재하는 위치에 관한 정보(좌표)인 바운딩 박스(bounding box)에 관한 아노테이션을 생성할 수 있다.In step S22, static objects related to the plurality of sub-categories are extracted from the valid image data by using the generated learning model, and information on the location of the extracted static objects in the valid image data You can create annotations about a bounding box that is (coordinate).

단계(S23)에서, 상기 생성된 아노테이션에 따라, 상기 아노테이션에 대응하는 이미지 및 상기 이미지에 대응하는 동영상을 상기 대분류 카테고리들 중 어느 하나의 카테고리로 분류함으로써, 상기 대분류 카테고리에 따른 동영상과 전처리된 이미지 데이터를 생성할 수 있다. In step S23, according to the generated annotation, by classifying the image corresponding to the annotation and the video corresponding to the image into any one of the major categories, preprocessing with the video according to the major category image data can be created.

도 13은 본 발명의 일 실시예에 따른 학습모델의 생성과정을 설명하기 위한 도면이다.13 is a view for explaining a process of generating a learning model according to an embodiment of the present invention.

단계(S10) 내지 단계(S40)은 도 6을 통해 상술한 바와 동일하다.Steps S10 to S40 are the same as described above with reference to FIG. 6 .

단계(S40)에서, 배정된 검수자가 좌표를 통한 데이터 검색 및 전수 검수를 수행할 수 있다. In step S40, the assigned inspector may perform data search and total inspection through coordinates.

이후, 학습로그를 확인하여 에러가 검출된 경우, 다시 데이터 검증 단계인 단계(S40)을 수행하고, 에러가 검출되지 않은 경우, 학습모델을 생성할 수 있다. 즉, 최종 검수를 마친 데이터를 통해 학습데이터세트를 생성할 수 있으며, 이를 통해 딥러닝 학습 모델의 고도화 수행이 가능하다.Thereafter, when an error is detected by checking the learning log, the data verification step ( S40 ) is performed again, and when no error is detected, a learning model may be generated. In other words, it is possible to create a training dataset through the data that has completed the final inspection, and through this, it is possible to advance the deep learning learning model.

상기 생성된 학습데이터세트는 표지판, 차선 및 횡단보도, 신호등, 및 기타표식 중 어느 하나의 카테고리로 분류될 수 있다.The generated learning dataset may be classified into any one category of signs, lanes and crosswalks, traffic lights, and other signs.

상기 생성된 학습데이터세트는 수집된 상기 블랙박스 영상의 동영상 데이터에 대한 소스 위치, 해상도, 촬영된 차량의 종류, 촬영 시간, 촬영된 도로의 유형, 및 촬영된 지역에 관한 정보를 포함할 수 있다.The generated learning data set may include information about the source location, resolution, type of the photographed vehicle, recording time, the type of the photographed road, and the photographed area for the video data of the collected black box image. .

또한, 상기 생성된 학습데이터세트는 수집된 상기 블랙박스 영상의 각 이미지 데이터에 대한 파일 이름, 촬영 시간, 촬영 위치, 촬영 시 차량의 속도, 촬영 시 날씨, 촬영한 도로의 차로 수, 및 라벨링된 이미지를 포함 URL에 관한 정보를 포함할 수 있다.In addition, the generated learning dataset includes a file name for each image data of the collected black box image, shooting time, shooting location, vehicle speed at the time of shooting, weather at the time of shooting, the number of lanes on the captured road, and labeled It may include information about the URL containing the image.

또한, 상기 생성된 학습데이터세트는 상기 각 이미지 데이터로부터 추출되는 정적 개체의 영역을 한정하는 바운딩 박스의 폭, 높이, 및 좌상단의 x,y좌표, 및 상기 바운딩 박스에 포함된 정적객체의 클래스 ID를 포함할 수 있다.In addition, the generated training dataset includes the width and height of the bounding box defining the area of the static object extracted from the respective image data, and the x and y coordinates of the upper left, and the class ID of the static object included in the bounding box. may include.

상술한 본 발명의 실시예들을 이용하여, 본 발명의 기술 분야에 속하는 자들은 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에 다양한 변경 및 수정을 용이하게 실시할 수 있을 것이다. 특허청구범위의 각 청구항의 내용은 본 명세서를 통해 이해할 수 있는 범위 내에서 인용관계가 없는 다른 청구항에 결합될 수 있다.By using the above-described embodiments of the present invention, those skilled in the art will be able to easily implement various changes and modifications within the scope without departing from the essential characteristics of the present invention. The content of each claim in the claims may be combined with other claims without reference within the scope that can be understood through this specification.

Claims (8)

처리장치;
촬영장치; 및
차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치;
를 포함하며,
상기 처리장치가,
상기 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계;
상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계;
상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계; 및
상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치에게 제공하는 단계;
를 실행하도록 되어 있는,
차량 단말기.
processing unit;
photographing device; and
The object information table including geolocations of the plurality of static objects as an object information table including data on a plurality of static objects having any one type among predetermined types existing on the movement path of the vehicle; and a storage device in which a plurality of reference reference images provided according to the Road Traffic Act are stored as images representing each of the static objects.
includes,
the processing device,
The difference between the first earth position, which is the earth position of the first static object existing on the predicted first movement path of the vehicle, and the current vehicle position, which is the current earth position of the vehicle obtained from the GPS device, is within a predetermined threshold. starting photographing using the photographing device from a point in time having a value;
extracting a first object image estimated to be the static object having any one of the predetermined types from the first image photographed by the photographing device;
selecting a first reference reference image corresponding to the extracted first object image from among the reference reference images; and
providing at least one of the extracted first object image and the selected first reference reference image to another computing device;
intended to run
vehicle terminal.
제1항에 있어서,
상기 다른 컴퓨팅 장치는 상기 차량의 자율주행을 지원하는 자율주행장치이며,
상기 자율주행장치는 상기 차량에 포함된 디스플레이 장치에 상기 추출된 제1객체이미지 또는 상기 선택된 제1기준참조 이미지를 표시하도록 되어 있는,
차량 단말기.
According to claim 1,
The other computing device is an autonomous driving device supporting autonomous driving of the vehicle,
the autonomous driving device is configured to display the extracted first object image or the selected first reference reference image on a display device included in the vehicle;
vehicle terminal.
제1항에 있어서,
상기 제1기준참조 이미지를 선택하는 단계는,
상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택하는 단계;
상기 복수 개의 기준참조 이미지들 중, 상기 선택된 제1그룹의 정적객체들에 대응하는 제1그룹의 기준참조 이미지들을 선택하는 단계; 및
상기 선택된 제1그룹의 기준참조 이미지들 중에서 상기 제1객체이미지와의 유사도가 가장 높은 것을 상기 제1기준참조 이미지로 결정하는 단계;
를 포함하는,
차량 단말기.
According to claim 1,
The step of selecting the first reference reference image,
selecting a first group of static objects existing within a predetermined distance from the first earth location from among the static objects stored in the object information table;
selecting a first group of reference reference images corresponding to the selected first group of static objects from among the plurality of reference reference images; and
determining, as the first reference reference image, the one having the highest similarity with the first object image among the selected first group of reference reference images;
containing,
vehicle terminal.
제1항에 있어서,
상기 다른 컴퓨팅 장치는 원격의 서버이며,
상기 서버는,
상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계;
상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및
상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;
를 실행하도록 되어 있는,
차량 단말기.
According to claim 1,
The other computing device is a remote server,
The server is
calculating a similarity between the extracted first object image and the selected first reference reference image;
calculating an aging degree of the first static object represented by the first object image based on the calculated similarity; and
generating a repair or replacement schedule for the first static object according to the calculated degree of deterioration;
intended to run
vehicle terminal.
제1항에 있어서,
상기 차량 단말기는 예측장치를 더 포함하며,
상기 예측장치는 지도학습 방법에 따라 학습된 신경망을 포함하며,
상기 신경망은 정보수집차량에서 촬영하여 획득한 학습용 이미지들을 학습용 입력정보로서 이용하고, 각각의 상기 획득한 학습용 이미지 내에서 지정되어 있는 한 개 이상의 객체이미지들 각각에 대한 라벨을 이용하여 지도학습된 것이며,
상기 제1객체이미지를 추출하는 단계는 상기 촬영한 제1이미지를 상기 학습된 신경망에 입력하여 상기 학습된 신경망의 출력을 이용하는 단계를 포함하는,
차량 단말기.
According to claim 1,
The vehicle terminal further comprises a prediction device,
The prediction device includes a neural network learned according to a supervised learning method,
The neural network is supervised learning by using the learning images obtained by shooting in the information collection vehicle as input information for learning, and using a label for each of one or more object images designated in each of the acquired learning images. ,
The step of extracting the first object image comprises the step of inputting the photographed first image to the learned neural network and using the output of the learned neural network,
vehicle terminal.
제1항에 있어서,
상기 처리장치는,
상기 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 모든 객체이미지들인 제1그룹의 객체 이미지들을 추출하는 단계; 및
상기 제1지구위치 및 상기 추출한 제1그룹의 객체 이미지들에 관한 정보를 상기 다른 컴퓨팅 장치에게 제공하는 단계;
를 더 실행할 수 있으며,
상기 다른 컴퓨팅 장치는, 상기 객채정보 테이블을 포함하는 데이터베이스에 접근하도록 되어 있는 서버이며,
상기 서버는,
상기 객체정보 테이블에 저장되어 있는 정적객체들 중, 상기 제1지구위치로부터 소정의 거리 이내에 존재하는 제1그룹의 정적객체들을 선택하는 단계;
상기 제1그룹의 정적객체들 중 상기 제1그룹의 객체 이미지들에 대응하지 않는 정적객체인 손실객체가 존재하는지 판단하는 단계; 및
상기 손실객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;
를 실행하도록 되어 있는,
차량 단말기.
According to claim 1,
The processing device is
extracting, from the first image, a first group of object images, which are all object images estimated to be the static objects having any one of the predetermined types; and
providing information about the first earth position and the extracted first group of object images to the other computing device;
can run more
The other computing device is a server configured to access a database including the object information table,
The server is
selecting a first group of static objects existing within a predetermined distance from the first earth location from among the static objects stored in the object information table;
determining whether there is a lost object that is a static object that does not correspond to the object images of the first group among the static objects of the first group; and
generating a repair or replacement schedule for the lost object;
intended to run
vehicle terminal.
서버가, 차량 단말기로부터 제1객체이미지 및 제1기준참조 이미지를 수신하는 단계;
상기 서버가, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계;
상기 서버가, 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및
상기 서버가, 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;
를 포함하며,
상기 차량 단말기는, 차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치에 액세스하도록 되어 있고,
상기 차량 단말기는,
차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계;
상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계; 및
상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계
를 실행하도록 되어 있는,
도로 상 정적객체의 관리 스케줄 생성방법.
receiving, by the server, a first object image and a first reference reference image from the vehicle terminal;
calculating, by the server, a degree of similarity between the extracted first object image and the selected first reference reference image;
calculating, by the server, a degree of deterioration of the first static object represented by the first object image based on the calculated similarity; and
generating, by the server, a repair or replacement schedule for the first static object according to the calculated degree of deterioration;
includes,
The vehicle terminal is an object information table including data on a plurality of static objects having any one of predetermined types existing on a movement path of the vehicle, and includes geolocations of the plurality of static objects. The object information table and a plurality of reference reference images provided according to the Road Traffic Act as an image representing each static object are accessed to a storage device stored therein,
The vehicle terminal,
The difference between the first earth position, which is the earth position of the first static object existing on the predicted first movement path of the vehicle, and the current vehicle position, which is the current earth position of the vehicle obtained from the GPS device, is within a predetermined threshold value. starting photographing using the photographing device from a point in time having ;
extracting a first object image estimated to be the static object having any one of the predetermined types from the first image photographed by the photographing device; and
selecting a first reference reference image corresponding to the extracted first object image from among the reference reference images;
intended to run
A method of creating a management schedule for static objects on the road.
차량의 이동경로 상에 존재하는 미리 결정된 타입들 중 어느 하나의 타입을 갖는 복수 개의 정적객체들에 관한 데이터를 포함하는 객체정보 테이블로서 상기 복수 개의 정적객체들의 지구위치들을 포함하는 상기 객체정보 테이블, 및 상기 각각의 정적객체를 표현하는 이미지로서 도로교통법에 따라 제공된 복수 개의 기준참조 이미지들이 저장된 저장장치를 포함하는 차량 단말기를 이용하여 차량 이동경로 상의 정적객체를 관리하는, 차량 이동경로 상의 정적객체 관리방법으로서,
상기 차량 단말기가, 상기 차량의 예측된 제1이동경로 상에 존재하는 제1정적객체의 지구위치인 제1지구위치와 GPS 장치로부터 획득한 상기 차량의 현재 지구위치인 현재차량위치 간의 차이가 소정의 임계값 이내의 값을 갖는 시점부터 상기 촬영장치를 이용한 촬영을 시작하는 단계;
상기 차량 단말기가, 상기 촬영장치가 촬영한 제1이미지로부터 상기 미리 결정된 타입들 중 어느 하나의 타입을 갖는 상기 정적객체인 것으로 추정되는 제1객체이미지를 추출하는 단계;
상기 차량 단말기가, 상기 기준참조 이미지들 중에서 상기 추출된 제1객체이미지에 대응하는 제1기준참조 이미지를 선택하는 단계;
상기 차량 단말기가, 상기 추출된 제1객체이미지 및 상기 선택된 제1기준참조 이미지 중 적어도 하나를 다른 컴퓨팅 장치에게 제공하는 단계;
서버가, 상기 추출된 제1객체이미지와 상기 선택된 제1기준참조 이미지 간의 유사도를 산출하는 단계;
상기 서버가, 상기 산출된 유사도를 기초로 상기 제1객체이미지가 나타내는 상기 제1정적객체의 노후화 정도를 산출하는 단계; 및
상기 서버가, 상기 산출된 노후화 정도에 따라 상기 제1정적객체에 대한 수리 또는 교체 스케줄을 생성하는 단계;
를 포함하는,
차량 이동경로 상의 정적객체 관리방법.
The object information table including geolocations of the plurality of static objects as an object information table including data on a plurality of static objects having any one type among predetermined types existing on the movement path of the vehicle; and a vehicle terminal including a storage device in which a plurality of reference reference images provided according to the Road Traffic Act are stored as an image representing each static object. As a method,
A difference between a first earth position that is the earth position of a first static object existing on the predicted first movement path of the vehicle by the vehicle terminal and a current vehicle position that is the current earth position of the vehicle obtained from the GPS device is a predetermined difference. starting photographing using the photographing apparatus from a point in time having a value within a threshold value of ;
extracting, by the vehicle terminal, a first object image estimated to be the static object having any one of the predetermined types from the first image photographed by the photographing device;
selecting, by the vehicle terminal, a first reference reference image corresponding to the extracted first object image from among the reference reference images;
providing, by the vehicle terminal, at least one of the extracted first object image and the selected first reference reference image to another computing device;
calculating, by the server, a degree of similarity between the extracted first object image and the selected first reference reference image;
calculating, by the server, a degree of deterioration of the first static object represented by the first object image based on the calculated similarity; and
generating, by the server, a repair or replacement schedule for the first static object according to the calculated degree of deterioration;
containing,
A method for managing static objects on the vehicle movement path.
KR1020210044447A 2021-04-06 2021-04-06 Prediction and recognition method of road marking information and road maintenance method KR102562757B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210044447A KR102562757B1 (en) 2021-04-06 2021-04-06 Prediction and recognition method of road marking information and road maintenance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210044447A KR102562757B1 (en) 2021-04-06 2021-04-06 Prediction and recognition method of road marking information and road maintenance method

Publications (2)

Publication Number Publication Date
KR20220138894A true KR20220138894A (en) 2022-10-14
KR102562757B1 KR102562757B1 (en) 2023-08-02

Family

ID=83599673

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210044447A KR102562757B1 (en) 2021-04-06 2021-04-06 Prediction and recognition method of road marking information and road maintenance method

Country Status (1)

Country Link
KR (1) KR102562757B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102631777B1 (en) * 2023-09-12 2024-02-01 한국건설기술연구원 Route guidance method and route guidance system
KR102638589B1 (en) * 2023-09-27 2024-02-20 주식회사 모바휠 Apparatus for estimating of road surface type using pre-installed sensor of vehicle and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150018990A (en) * 2013-08-12 2015-02-25 현대모비스 주식회사 Apparatus and method for guiding caution information of driving
KR102119033B1 (en) * 2019-09-27 2020-06-05 한국건설기술연구원 Apparatus and method for providing road marking information using image data and vibration
JP2020126359A (en) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 Information processing device, server, and traffic management system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150018990A (en) * 2013-08-12 2015-02-25 현대모비스 주식회사 Apparatus and method for guiding caution information of driving
JP2020126359A (en) * 2019-02-01 2020-08-20 トヨタ自動車株式会社 Information processing device, server, and traffic management system
KR102119033B1 (en) * 2019-09-27 2020-06-05 한국건설기술연구원 Apparatus and method for providing road marking information using image data and vibration

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102631777B1 (en) * 2023-09-12 2024-02-01 한국건설기술연구원 Route guidance method and route guidance system
KR102638589B1 (en) * 2023-09-27 2024-02-20 주식회사 모바휠 Apparatus for estimating of road surface type using pre-installed sensor of vehicle and method thereof

Also Published As

Publication number Publication date
KR102562757B1 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
Hadjidemetriou et al. Automated pavement patch detection and quantification using support vector machines
US9365217B2 (en) Mobile pothole detection system and method
US20150227965A1 (en) Method and system for evaluting signage
CN110738842A (en) Accident responsibility division and behavior analysis method, device, equipment and storage medium
Hadjidemetriou et al. Vision-and entropy-based detection of distressed areas for integrated pavement condition assessment
US20220101272A1 (en) System and Method for Optimized Road Maintenance Planning
KR102562757B1 (en) Prediction and recognition method of road marking information and road maintenance method
US20190096254A1 (en) Method and system for capturing operation variables for vehicles
WO2020007589A1 (en) Training a deep convolutional neural network for individual routes
CN113903008A (en) Ramp exit vehicle violation identification method based on deep learning and trajectory tracking
Pappalardo et al. Assessing the operational design domain of lane support system for automated vehicles in different weather and road conditions
CN116457800A (en) Architecture for map change detection in an autonomous vehicle
Guerrieri et al. Flexible and stone pavements distress detection and measurement by deep learning and low-cost detection devices
Alshammari et al. 3Pod: Federated Learning-based 3 Dimensional Pothole Detection for Smart Transportation
KR102493800B1 (en) Driving environment static object recognition AI data processing method and device therefor
JP6951782B2 (en) Installation object recognition system and its program
CN114693722B (en) Vehicle driving behavior detection method, detection device and detection equipment
KR102400842B1 (en) Service methods for providing information on traffic accidents
CN113147781A (en) Intelligent driving information display system for automobile
Fazekas et al. Detecting change in the urban road environment along a route based on traffic sign and crossroad data
Xu et al. Vision-based pavement marking detection–a case study
Steele et al. Traffic sign retroreflectivity condition assessment and deterioration analysis using Lidar technology
Wu et al. Digitizing Traffic Control Infrastructure for Autonomous Vehicles (AV): Technical Report
CN117058887B (en) Urban traffic data acquisition method, device, equipment and medium
Aldakkhelallah et al. Development of new technologies for real-time traffic monitoring

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant