KR102481976B1 - Data processing module for deep learning of truck image - Google Patents

Data processing module for deep learning of truck image Download PDF

Info

Publication number
KR102481976B1
KR102481976B1 KR1020220136325A KR20220136325A KR102481976B1 KR 102481976 B1 KR102481976 B1 KR 102481976B1 KR 1020220136325 A KR1020220136325 A KR 1020220136325A KR 20220136325 A KR20220136325 A KR 20220136325A KR 102481976 B1 KR102481976 B1 KR 102481976B1
Authority
KR
South Korea
Prior art keywords
image
edge
module
center point
interest
Prior art date
Application number
KR1020220136325A
Other languages
Korean (ko)
Inventor
임병철
Original Assignee
한국자동차연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국자동차연구원 filed Critical 한국자동차연구원
Priority to KR1020220136325A priority Critical patent/KR102481976B1/en
Application granted granted Critical
Publication of KR102481976B1 publication Critical patent/KR102481976B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/72Data preparation, e.g. statistical preprocessing of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

A deep learning data processing module according to the present embodiment comprises: an image setting module that sets an image to be processed from a road photographing system; a region of interest extraction module that extracts a region of interest of the image received from a user; an object attribute value definition module that stores an object attribute value in the image; a center point detection module that detects a center point of the region of interest of the image; an edge detection module that generates a plurality of straight lines based on the center point of the region of interest of the image and detects an edge; and a learning data storage module that stores the image, the object attribute value corresponding to the image, and the bounding box information. Therefore, the present invention is capable of shortening a work time.

Description

화물차 이미지 딥러닝을 위한 데이터 가공 모듈{Data processing module for deep learning of truck image}Data processing module for deep learning of truck image}

본 발명은 화물차 이미지를 수집, 가공하여 딥러닝을 위한 데이터 가공하는 딥러닝 데이터 가공 모듈에 관한 것이다. The present invention relates to a deep learning data processing module for data processing for deep learning by collecting and processing truck images.

도로에서 화물차량의 적재불량으로 낙하물이 떨어지고, 이로 인해 많은 사고와 인명피해가 나타나고 있다. 그러나 화물차량 적재불량에 대한 정량적인 기준이 없기 때문에 이를 단속하는 시스템은 CCTV 동영상을 100% 육안으로 확인하면서 해당 차량을 찾아야 하는 상황이다.Falling objects fall due to poor loading of cargo vehicles on the road, resulting in many accidents and human casualties. However, since there is no quantitative standard for cargo vehicle loading defects, the system that cracks down on this has to find the vehicle while visually checking the CCTV video 100%.

화물의 안전한 적재는 자동차 전용도로, 특히 고속도로에서 차량의 안전운행과 매우 밀접한 관계가 있다. 이를 위해서는 화물의 종류와 관계없이 모든 화물을 반드시 적재함에 단단히 고정시켜 낙하하지 않도록 하여야 하는 것은 물론이고, 화물이 적재함을 초과하지 않도록 하거나, 또한 규정된 적재규칙을 준수하는 것이 꼭 필요하다.The safe loading of cargo is very closely related to the safe operation of vehicles on automobile roads, especially highways. To this end, regardless of the type of cargo, it is absolutely necessary to ensure that all cargoes are securely fixed to the loading box so that they do not fall, as well as to ensure that the cargo does not exceed the loading box and to comply with the stipulated loading rules.

최근 산업의 발전과 인터넷의 확산으로 인해서 물류(화물)의 이동량이 기하급수적으로 증가하고 있다. 화주의 입장에서는 늘어나는 물동량을 해소하기 위한 방안으로 단시간에 많은 화물을 전달하려고 과적 또는 과속 차량이 방치하고 있는 실정이며, 이로 인해 적재불량이나 과속 차량이 지속적으로 늘어나고 있는 실정이다. 특히 과적의 경우 도로를 손상시키고, 낙하물로 인해서 주위의 인명이나 차량에 심각한 손상을 입히며, 제2차, 제3차의 사고를 유발시키는 원인이 되고 있어 더욱 심각하다.Due to the recent industrial development and the spread of the Internet, the amount of movement of logistics (cargo) is increasing exponentially. From the point of view of shippers, overloaded or speeding vehicles are neglected in order to deliver a large amount of cargo in a short time as a way to solve the increasing cargo volume, and due to this, the number of defective loading or speeding vehicles is continuously increasing. In particular, in the case of overloading, it is more serious because it damages roads, causes serious damage to nearby people or vehicles due to falling objects, and causes secondary and tertiary accidents.

기존에 과적 차량을 단속하기 위한 방식은 영업소, 검문소 또는 톨게이트에 카메라를 설치하거나 360도 회전이 가능한 카메라를 장착한 단속 전용 차량을 운행하고, 이를 통해 차량의 적재상태를 촬영하여 단속하는 방식이었다.The existing method for cracking down on overloaded vehicles was to install cameras at sales offices, checkpoints, or tollgates, or to operate vehicles equipped with 360-degree rotating cameras, and then take pictures of the vehicle's loading status.

이러한 기존 방식은 카메라를 통한 차량의 적재상태를 영상으로 녹화하여, 단속원이 육안으로 확인 후 단속이 이루어지는 것으로, 24시간 단속이 불가능한 문제점이 있다.This existing method records the loading state of the vehicle through a camera, and the enforcement officer checks it with the naked eye, and then enforcement is carried out, and there is a problem that enforcement is impossible for 24 hours.

이처럼 기존 적재불량 단속은 사람이 수집된 영상을 확인하여 적재물의 낙하위험이 있다고 판단할 경우 합리적인 사유(결박 불량, 건설자재 덮개 불량 등)와 함께 고발하는 업무를 수행하고 있다. 그래서 단속업무의 특성상 모든 화물차량에 대해 육안으로 전수 검사를 하고 이로 인한 인적 손실 및 경제적인 손실이 발생하고 있는 문제점이 있다.As such, in the existing crackdown on loading defects, if a person checks the collected video and determines that there is a risk of falling of the loaded object, it carries out a complaint with reasonable reasons (defective binding, defective construction material cover, etc.). Therefore, due to the nature of the enforcement work, there is a problem in that all cargo vehicles are visually inspected, resulting in human loss and economic loss.

본 발명이 해결하고자 하는 기술적 과제는, 화물차 이미지를 수집, 가공하여 딥러닝을 위한 데이터 가공하는 딥러닝 데이터 가공 모듈을 제공하는 것이다.A technical problem to be solved by the present invention is to provide a deep learning data processing module that collects and processes truck images and processes data for deep learning.

상기 기술적 과제를 해결하기 위하여, 본 실시예에 따른 딥러닝 데이터 가공 모듈은 도로 촬영 시스템으로부터 가공될 이미지를 세팅하는 이미지 세팅 모듈; 사용자로부터 입력받은 상기 이미지의 관심 영역을 추출하는 관심 영역 추출 모듈; 상기 이미지에 객체 속성값을 저장하는 객체 속성값 정의 모듈; 상기 이미지의 관심 영역의 중심점을 검출하는 중심점 검출 모듈; 상기 이미지의 관심 영역의 중심점을 기준으로 복수의 직선을 생성하여 엣지를 검출하는 엣지 검출 모듈; 및 상기 이미지와 상기 이미지에 대응되는 상기 객체 속성값, 바운딩 박스 정보를 저장하는 학습 데이터 저장 모듈을 포함한다.In order to solve the above technical problem, the deep learning data processing module according to the present embodiment includes an image setting module for setting an image to be processed from a road photographing system; a region of interest extraction module extracting a region of interest of the image received from a user; an object property value definition module that stores object property values in the image; a center point detection module for detecting a center point of a region of interest in the image; an edge detection module generating a plurality of straight lines based on the center point of the region of interest of the image and detecting an edge; and a training data storage module that stores the image, the object attribute value corresponding to the image, and bounding box information.

상기 객체 속성값은 과적 여부, 총중량, 축중량, 축개수 중 적어도 하나의 값을 포함할 수 있다.The object property value may include at least one value of overload, total weight, shaft weight, and number of shafts.

상기 중심점 검출 모듈은 상기 이미지를 흑백화한 후 상기 이미지의 관심 영역의 중심점을 검출할 수 있다.The center point detection module may black-and-white the image and then detect the center point of the ROI of the image.

상기 엣지 검출 모듈은 상측, 하측, 좌측, 우측의 엣지를 검출하고, 상기 엣지 검출 모듈은 상기 복수의 직선 상에서 픽셀 정보가 변하는 지점 중 상기 중심점에서 가장 멀리 있는 지점을 엣지로 추출할 수 있다.The edge detection module may detect upper, lower, left, and right edges, and the edge detection module may extract, as an edge, a point furthest from the center point among points where pixel information changes on the plurality of straight lines.

상기 기술적 과제를 해결하기 위하여, 본 실시예에 따른 딥러닝 데이터 가공 방법은 도로 촬영 시스템으로부터 가공될 이미지를 세팅하는 단계; 사용자로부터 입력받은 상기 이미지의 관심 영역을 추출하는 단계; 상기 이미지의 관심 영역에 객체 속성값을 저장하는 단계; 상기 이미지의 관심 영역의 중심점을 검출하는 단계; 상기 이미지의 관심 영역의 중심점을 기준으로 복수의 직선을 생성하여 엣지를 검출하는 단계; 및 상기 이미지와 상기 이미지에 대응되는 상기 객체 속성값, 바운딩 박스 정보를 저장하는 단계를 포함한다.In order to solve the above technical problem, the deep learning data processing method according to the present embodiment includes setting an image to be processed from a road photographing system; extracting a region of interest of the image received from a user; storing object attribute values in the region of interest of the image; detecting a central point of a region of interest in the image; detecting an edge by generating a plurality of straight lines based on the center point of the ROI of the image; and storing the image, the object attribute value corresponding to the image, and bounding box information.

상기 객체 속성값은 과적 여부, 총중량, 축중량, 축개수 중 적어도 하나의 값을 포함할 수 있다.The object property value may include at least one value of overload, total weight, shaft weight, and number of shafts.

상기 중심점을 검출하는 단계는 상기 이미지를 흑백화한 후 상기 이미지의 관심 영역의 중심점을 검출할 수 있다.In the detecting of the center point, the center point of the ROI of the image may be detected after the image is black-and-white.

상기 엣지를 검출하는 단계는 상측, 하측, 좌측, 우측의 엣지를 검출하고, 상기 복수의 직선 상에서 픽셀 정보가 변하는 지점 중 상기 중심점에서 가장 멀리 있는 지점을 엣지로 추출할 수 있다.In the detecting of the edge, upper, lower, left, and right edges may be detected, and a point farthest from the center point among points where pixel information changes on the plurality of straight lines may be extracted as an edge.

본 실시예들에 따르면, 인공지능 기반의 과적 화물차의 추적 및 단속을 위한 화물차 이미지 학습 데이터셋을 효율적으로 생성할 수 있다. According to the present embodiments, it is possible to efficiently generate a truck image learning dataset for artificial intelligence-based tracking and control of overloaded trucks.

또한, 화물차의 이미지 학습 데이터셋을 작업자가 수동이 아닌 자동으로 실제 값을 생성하여 작업 시간을 단축할 수 있다. In addition, it is possible to reduce work time by automatically generating actual values for the image learning dataset of trucks instead of manually by the operator.

또한, 작업자 개입을 최소화하여 화물차의 이미지 학습 데이터셋을 자동 생성하게 된다. In addition, by minimizing operator intervention, an image learning dataset of trucks is automatically generated.

또한, 객체 검출 및 추적에 사용되는 딥러닝 모델을 학습하기 위한 학습 데이터셋을 제공한다. In addition, it provides a training dataset for learning a deep learning model used for object detection and tracking.

또한, 딥러닝 모델을 학습하기 위한 '이미지 파일명', '클래스', 'BBox 좌표' 값을 제공하여 학습 데이터셋으로 활용이 가능한다.In addition, it can be used as a training dataset by providing 'image file name', 'class', and 'BBox coordinates' values for learning a deep learning model.

도 1은 본 실시예에 따른 딥러닝 데이터 가공 모듈의 블록도이다.
도 2는 본 실시예에 따른 딥러닝 데이터 가공 모듈을 설명하기 위한 도면이다.
도 3은 본 실시예에 따른 이미지 세팅 모듈을 설명하기 위한 도면이다.
도 4는 본 실시예에 따른 관심 영역 추출 모듈을 설명하기 위한 도면이다.
도 5는 본 실시예에 따른 객체 속성값 정의 모듈을 설명하기 위한 도면이다.
도 6은 본 실시예에 따른 중심점 검출 모듈을 설명하기 위한 도면이다.
도 7은 본 실시예에 따른 엣지 검출 모듈에서 좌측 엣지를 검출하는 동작을 설명하기 위한 도면이다.
도 8은 본 실시예에 따른 엣지 검출 모듈에서 우측 엣지를 검출하는 동작을 설명하기 위한 도면이다.
도 9는 본 실시예에 따른 엣지 검출 모듈에서 상측 엣지를 검출하는 동작을 설명하기 위한 도면이다.
도 10은 본 실시예에 따른 엣지 검출 모듈에서 하측 엣지를 검출하는 동작을 설명하기 위한 도면이다.
도 11은 본 실시예에 따른 엣지 검출 모듈에서 바운딩 박스 정보를 설정하는 동작을 설명하기 위한 도면이다.
도 12는 본 실시예에 따른 학습 데이터 저장 모듈을 설명하기 위한 도면이다.
도 13은 본 실시예에 따른 딥러닝 데이터 가공 방법의 흐름도이다.
1 is a block diagram of a deep learning data processing module according to this embodiment.
2 is a diagram for explaining a deep learning data processing module according to this embodiment.
3 is a diagram for explaining an image setting module according to the present embodiment.
4 is a diagram for explaining a region of interest extraction module according to the present embodiment.
5 is a diagram for explaining an object property value definition module according to the present embodiment.
6 is a diagram for explaining the center point detection module according to the present embodiment.
7 is a diagram for explaining an operation of detecting a left edge in the edge detection module according to the present embodiment.
8 is a diagram for explaining an operation of detecting a right edge in the edge detection module according to the present embodiment.
9 is a diagram for explaining an operation of detecting an upper edge in the edge detection module according to the present embodiment.
10 is a diagram for explaining an operation of detecting a lower edge in an edge detection module according to an exemplary embodiment.
11 is a diagram for explaining an operation of setting bounding box information in an edge detection module according to an embodiment.
12 is a diagram for explaining a learning data storage module according to this embodiment.
13 is a flowchart of a deep learning data processing method according to this embodiment.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합 또는 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in a variety of different forms, and if it is within the scope of the technical idea of the present invention, one or more of the components among the embodiments can be selectively implemented. can be used in combination or substitution.

또한, 본 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in this embodiment have meanings that can be generally understood by those of ordinary skill in the art to which this embodiment belongs, unless explicitly specifically defined and described. The meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted in consideration of the contextual meaning of related technology.

또한, 본 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. In addition, terms used in the present embodiment are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when described as "at least one (or more than one) of A and (and) B and C", A, B, and C are combined. may include one or more of all possible combinations.

또한, 본 실시예의 구성 요소를 설명하는데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.In addition, in describing the components of this embodiment, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the term is not limited to the nature, order, or order of the corresponding component.

그리고, 어떤 구성 요소가 다른 구성 요소에 '연결', '결합', 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 '연결', '결합', 또는 '접속'되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합', 또는 '접속'되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled', or 'connected' to another component, the component is directly 'connected', 'coupled', or 'connected' to the other component. In addition to the case, it may include cases where the component is 'connected', 'combined', or 'connected' due to another component between the component and the other component.

또한, 각 구성 요소의 "상(위)" 또는 "하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, "상(위)" 또는 "하(아래)"는 두 개의 구성 요소들이 서로 직접 접촉되는 경우 뿐만 아니라, 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위)" 또는 "하(아래)"로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함될 수 있다. In addition, when it is described as being formed or disposed on the "upper (above)" or "lower (below)" of each component, "upper (above)" or "lower (below)" means that two components are directly connected to each other. It includes not only the case of being in contact, but also the case where one or more other components are formed or disposed between two components. In addition, when expressed as "upper (above)" or "lower (down)", the meaning of not only an upward direction but also a downward direction may be included based on one component.

도 1은 본 실시예에 따른 딥러닝 데이터 가공 모듈의 블록도이고, 도 2는 본 실시예에 따른 딥러닝 데이터 가공 모듈을 설명하기 위한 도면이고, 도 3은 본 실시예에 따른 이미지 세팅 모듈을 설명하기 위한 도면이고, 도 4는 본 실시예에 따른 관심 영역 추출 모듈을 설명하기 위한 도면이고, 도 5는 본 실시예에 따른 객체 속성값 정의 모듈을 설명하기 위한 도면이고, 도 6은 본 실시예에 따른 중심점 검출 모듈을 설명하기 위한 도면이고, 도 7은 본 실시예에 따른 엣지 검출 모듈에서 좌측 엣지를 검출하는 동작을 설명하기 위한 도면이고, 도 8은 본 실시예에 따른 엣지 검출 모듈에서 우측 엣지를 검출하는 동작을 설명하기 위한 도면이고, 도 9는 본 실시예에 따른 엣지 검출 모듈에서 상측 엣지를 검출하는 동작을 설명하기 위한 도면이고, 도 10은 본 실시예에 따른 엣지 검출 모듈에서 하측 엣지를 검출하는 동작을 설명하기 위한 도면이고, 도 11은 본 실시예에 따른 엣지 검출 모듈에서 바운딩 박스 정보를 설정하는 동작을 설명하기 위한 도면이고, 도 12는 본 실시예에 따른 학습 데이터 저장 모듈을 설명하기 위한 도면이다.1 is a block diagram of a deep learning data processing module according to this embodiment, FIG. 2 is a diagram for explaining the deep learning data processing module according to this embodiment, and FIG. 3 is an image setting module according to this embodiment. FIG. 4 is a diagram for explaining a region of interest extraction module according to this embodiment, FIG. 5 is a diagram for explaining an object attribute value definition module according to this embodiment, and FIG. 6 is a diagram for explaining this embodiment. A diagram for explaining a center point detection module according to an example, FIG. 7 is a diagram for explaining an operation of detecting a left edge in an edge detection module according to an embodiment, and FIG. A diagram for explaining an operation of detecting a right edge, FIG. 9 is a diagram for explaining an operation of detecting an upper edge in an edge detection module according to an embodiment, and FIG. A diagram for explaining an operation of detecting a lower edge, FIG. 11 is a diagram for explaining an operation of setting bounding box information in an edge detection module according to this embodiment, and FIG. 12 is a diagram for storing learning data according to this embodiment. It is a drawing for explaining the module.

본 실시예에 따른 딥러닝 데이터 가공 모듈은 이미지 세팅 모듈(10), 관심 영역 추출 모듈(20), 객체 속성값 정의 모듈(30), 중심점 검출 모듈(40), 엣지 검출 모듈(50) 및 학습 데이터 저장 모듈(60)을 포함할 수 있다. The deep learning data processing module according to this embodiment includes an image setting module 10, a region of interest extraction module 20, an object attribute value definition module 30, a center point detection module 40, an edge detection module 50, and learning A data storage module 60 may be included.

본 실시예에 따른 딥러닝 데이터 가공 모듈은 AI기반 과적 의심차량 단속을 위한 화물차의 이미지 학습 데이터셋을 자동으로 생성하기 위한 것이다. 고속 축중기(HS-WIM, High Speed-Weigh In Motion) 시스템으로부터 과적 의심으로 감지된 화물차를 CCTV 기반으로 검출 및 추적하기 위해 화물차의 이미지 학습 데이터셋이 필요하다. 본 실시예에 따른 딥러닝 데이터 가공 모듈을 통하여 자동으로 이미지에 객체 검출 및 객체 정보 매칭할 수 있으므로, 기존 작업자가 직접 실제 값을 입력하는 방식 대비 작업 시간을 단축할 수 있다. 또한, 작업자의 개입을 최소화하여 화물차의 이미지 학습 데이터셋을 자동 생성할 수 있다.The deep learning data processing module according to this embodiment is for automatically generating an image learning dataset of trucks for AI-based crackdown on vehicles suspected of being overloaded. An image learning dataset of trucks is needed to detect and track trucks detected as suspected overload from the HS-WIM (High Speed-Weigh In Motion) system based on CCTV. Since an object can be automatically detected and object information matched to an image through the deep learning data processing module according to the present embodiment, it is possible to reduce working time compared to a method in which an existing worker directly inputs an actual value. In addition, it is possible to automatically generate an image learning dataset of trucks by minimizing operator intervention.

딥러닝 가공 모듈에 포함되는 이미지 세팅 모듈(10), 관심 영역 추출 모듈(20), 객체 속성값 정의 모듈(30), 중심점 검출 모듈(40), 엣지 검출 모듈(50) 및 학습 데이터 저장 모듈(60)은 하나의 장치로 구현될 수 있고, 적어도 하나의 모듈이 개별적으로 장치로 구현되어 서로 전기적으로 연결되거나 서로 통신하는 방식으로 동작할 수 있다. 또는, 딥러닝 가공 모듈에 포함되는 이미지 세팅 모듈(10), 관심 영역 추출 모듈(20), 객체 속성값 정의 모듈(30), 중심점 검출 모듈(40), 엣지 검출 모듈(50) 및 학습 데이터 저장 모듈(60)은 컴퓨터 프로그램으로 구현될 수 있다. 도 2를 참조하면, 본 실시예에 따른 딥러닝 가공 모듈이 컴퓨터 프로그램으로 구현되는 경우, 각 구성은 버튼이 클릭됨에 따라 동작할 수 있도록 구현될 수 있다.The image setting module 10 included in the deep learning processing module, the region of interest extraction module 20, the object property value definition module 30, the center point detection module 40, the edge detection module 50, and the learning data storage module ( 60) may be implemented as a single device, and at least one module may be individually implemented as a device and operate in a manner that is electrically connected to each other or communicates with each other. Alternatively, the image setting module 10 included in the deep learning processing module, the ROI extraction module 20, the object attribute value definition module 30, the center point detection module 40, the edge detection module 50, and learning data storage Module 60 may be implemented as a computer program. Referring to FIG. 2 , when the deep learning processing module according to the present embodiment is implemented as a computer program, each component may be implemented to operate as a button is clicked.

이미지 세팅 모듈(10)은 도로 촬영 시스템으로부터 가공될 이미지를 작업 시작할 수 있도록 세팅할 수 있다. The image setting module 10 may set an image to be processed from the road photographing system to start working.

도로 촬영 시스템은 도로에 설치된 폐쇄회로 텔레비전(CCTV, Closed Circuit Televison) 또는 노변 기지국(RSU, Road Site Unit)을 의미할 수 있다. 도로 촬영 시스템은 고속 축중기(High-Speed Weigh-In-Motion)일 수 있다. 고속 축중기는 통행 흐름의 통제나 속도의 감속 없이 주행 중인 화물차량의 중량을 실시간 무인 검측하는 시스템으로, 국내에서는 축 조작 행위방지 및 주행 중 과적행위 적발을 위해 주로 고속국도 및 일반국도 본선에 설치하여 이동단속반 검차를 위한 사전선별용으로 활용된다.The road photographing system may refer to a Closed Circuit Television (CCTV) or a Road Site Unit (RSU) installed on a road. The road imaging system may be a High-Speed Weigh-In-Motion. A high-speed shaft lifter is a system that unmannedly detects the weight of a moving cargo vehicle in real time without controlling the flow of traffic or decelerating speed. Therefore, it is used for pre-screening for inspection by the mobile control unit.

도 3의 'A' 영역을 참조하면, 이미지 세팅 모듈(10)은 도로 촬영 시스템에 저장된 화물차 원본 이미지를 읽어들이고, 디스플레이 상에 화물차 원본 이미지를 표시할 수 있다. 이미지 세팅 모듈(10)은 도로 촬영 시스템에 저장된 화물차 원본 이미지의 전체 개수를 읽고, 읽은 파일의 개수를 '전체 읽은 파일 수'에 표시할 수 있다. 또한, 이미지 세팅 모듈(10)은 현재까지 읽은 이미지의 개수 또는 현재 작업하고 있는 이미지의 순번을 '현재 읽은 파일 수'에 표시할 수 있다. 이를 통해, 작업자는 작업할 전체 이미지의 개수와 현재 작업하고 있는 이미지의 순번을 확인할 수 있다. Referring to area 'A' of FIG. 3 , the image setting module 10 may read the original image of the truck stored in the road photographing system and display the original image of the truck on the display. The image setting module 10 may read the total number of original truck images stored in the road photographing system and display the number of read files in 'the total number of read files'. Also, the image setting module 10 may display the number of images read so far or the order of images currently being worked on in the 'number of currently read files'. Through this, the worker can check the total number of images to be worked on and the order of the currently working image.

도 4를 참조하면, 관심 영역 추출 모듈(20)은 사용자로부터 입력받은 이미지의 관심 영역을 추출할 수 있다. Referring to FIG. 4 , the ROI extraction module 20 may extract a ROI of an image input from a user.

화물차 원본 이미지 상에는 화물차 이외에 배경이 포함될 수 있다. 화물차 원본 이미지 상에 화물차는 중심 영역에 배치될 수 있고, 또는 코너 영역에 배치될 수 있다. 또한, 동일한 고속 축중기에서 촬영된 화물차 원본 이미지에서 화물차는 일정한 위치에 배치될 수 있다. 서로 다른 고속 축중기에서 촬여된 화물차 원본 이미에서 화물차는 서로 다른 위치에 배치될 수 있다. A background other than the truck may be included in the original image of the truck. On the original image of the truck, the truck may be placed in the center area or in the corner area. In addition, in the original image of a truck taken from the same high-speed weighing machine, the truck can be placed at a certain position. In the original images of trucks taken from different high-speed weighing machines, trucks can be placed in different positions.

따라서, 관심 영역 추출 모듈(20)은 사용자로부터 원본 이미지 상에서 화물차가 포함된 영역을 관심 영역으로 입력받을 수 있다. 사용자가 입력한 관심 영역의 중심 부분에는 화물차가 포함될 수 있다. 사용자가 입력한 관심 영역은 화물차만 포함된 객체를 검출하기 전 1차적으로 가공한 영역으로서, 화물차 이미지뿐만 아니라 일부 배경도 포함될 수 있다. 이를 통해, 후술할 엣지 검출 동작에서 객체의 엣지를 정확하게 검출할 수 있다.Accordingly, the ROI extraction module 20 may receive an area including a truck on the original image as an ROI from the user. A truck may be included in the center of the region of interest input by the user. The region of interest input by the user is a region primarily processed before detecting an object including only a truck, and may include not only a truck image but also a part of the background. Through this, an edge of an object may be accurately detected in an edge detection operation to be described later.

도 5의 'B' 영역을 참조하면, 객체 속성값 정의 모듈(30)은 이미지에 객체 속성값을 저장할 수 있다. Referring to area 'B' of FIG. 5 , the object property value definition module 30 may store object property values in an image.

객체 속성값 정의 모듈(30)은 화물차의 적재 중량에 대한 정보인 객체 속성값을 저장할 수 있다. 객체 속성값은 과적 여부, 총중량, 축중량, 축개수 중 적어도 하나의 값을 포함할 수 있다. The object attribute value definition module 30 may store object attribute values that are information about the loaded weight of the truck. The object property value may include at least one value of overload, total weight, shaft weight, and number of shafts.

화물차의 적재 상태가 정상인 경우, 클래스 정의에 '정상'으로 저장될 수 있다. 화물차의 적재 상태가 과적인 경우, 클래스 정의에 '과적_축중량_5축', '과적_총중량_5축' 등과 같은 정보가 저장될 수 있다. 객체 속성값 정의 모듈(30)은 화물차 원본 이미지 상에서 저장될 수 있다. 또는, 객체 속성값 정의 모듈(30)은 관심 영역 추출 모듈(20) 동작한 이후, 관심 영역 추출 모듈(20)에서 설정된 이미지의 관심 영역 상에서 저장될 수 있다. If the truck's loading status is normal, it can be stored as 'normal' in the class definition. If the loading state of the truck is overloaded, information such as 'overload_shaft weight_5 axes' and 'overload_gross weight_5 axes' may be stored in the class definition. The object property value definition module 30 may be stored on the original image of the truck. Alternatively, the object attribute value definition module 30 may store the ROI of the image set in the ROI extraction module 20 after the ROI extraction module 20 operates.

도 6을 참조하면, 중심점 검출 모듈(40)은 이미지의 관심 영역의 중심점(C)을 검출할 수 있다. Referring to FIG. 6 , the center point detection module 40 may detect the center point C of the ROI of the image.

중심점 검출 모듈(40)은 이미지의 관심 영역의 칼라(RGB) 이미지를 흑백화한 후 중심점(C)을 검출할 수 있다. 칼라(RGB) 이미지 상에서 중심점(C)을 검출할 수도 있으나, 흑백화를 한 후 중심점(C)을 검출하면 연산량을 줄일 수 있어 수행 속도가 빨라질 수 있다. 화물차 원본 이미지가 X,Y축에 있다고 보아 일 지점을 (x,y)좌표로 표현하는 경우, 중심점(C)은 (X_Centroid,Y_Centroid) 로 표시될 수 있다. 중심점(C) 검출은 이후 수행할 엣지 검출에 대한 방향 기준이 될 수 있다. The center point detection module 40 may black-and-white a color (RGB) image of the region of interest of the image and then detect the center point (C). The center point C may be detected on a color (RGB) image, but if the center point C is detected after converting to black and white, the amount of calculation can be reduced and the execution speed can be increased. Considering that the original image of the truck is on the X and Y axes, if a point is expressed with (x, y) coordinates, the center point (C) can be displayed as (X_Centroid, Y_Centroid). Detection of the center point (C) may be a direction reference for edge detection to be performed later.

도 7 내지 도 10을 참조하면, 엣지 검출 모듈(50)은 이미지의 관심 영역의 중심점(C)을 기준으로 복수의 직선을 생성하여 엣지를 검출할 수 있다. Referring to FIGS. 7 to 10 , the edge detection module 50 may detect an edge by generating a plurality of straight lines based on the center point C of the ROI of the image.

엣지 검출 모듈(50)은 상측, 하측, 좌측, 우측의 엣지를 차례로 검출할 수 있다. 엣지 검출 모듈(50)은 검출한 엣지에 대한 정보를 각각 (x,y) 정보로 표시할 수 있다. 엣지 검출 모듈(50)은 복수의 직선 상에서 픽셀 정보가 변하는 지점 중 중심점에서 가장 멀리 있는 지점을 엣지로 검출할 수 있다. 엣지 검출은 이미지 밝기가 급격히 변하거나, 불연속성이 발생하는 지점을 엣지로 검출할 수 있다. The edge detection module 50 may sequentially detect upper, lower, left, and right edges. The edge detection module 50 may display information on detected edges as (x, y) information. The edge detection module 50 may detect, as an edge, a point farthest from a center point among points where pixel information changes on a plurality of straight lines. Edge detection may detect a point where image brightness rapidly changes or discontinuity occurs as an edge.

도 7을 참조하여, 이미지의 좌측 엣지 검출 과정에 대해 상세히 설명한다. 이미지의 관심 영역의 중심점(C)에서 좌측으로 x축에 평행한 직선을 생성하고, +y축 방향으로 일정 픽셀씩 증가한 복수의 직선을 생성한다. 도 7에서는 15픽셀씩 증가한 10개의 직선을 생성하였다. 각각의 10개의 직선 상에서 이미지 밝기가 급변하거나, 픽셀 정보가 급변하는 지점을 검출하고, 그 중 중심점에서 가장 멀리 있는 지점을 엣지로 검출한다. 여기서, 화물차의 배치 방향에 따라 +y축 방향은 -y축 방향으로 변경될 수 있고, 복수의 직선 개수가 증감할 수 있고, 복수의 직선 사이의 간격이 작아지거나 커질 수 있다. Referring to FIG. 7 , a process of detecting the left edge of an image will be described in detail. A straight line parallel to the x-axis is generated to the left from the central point (C) of the ROI of the image, and a plurality of straight lines increasing by a certain pixel in the +y-axis direction are generated. In FIG. 7, 10 straight lines increased by 15 pixels were generated. On each of the 10 straight lines, a point where image brightness or pixel information rapidly changes is detected, and a point farthest from the center point is detected as an edge. Here, the +y-axis direction may be changed to the -y-axis direction according to the arrangement direction of the truck, the number of the plurality of straight lines may increase or decrease, and the interval between the plurality of straight lines may decrease or increase.

도 8을 참조하여, 이미지의 우측 엣지 검출 과정에 대해 상세히 설명한다. 이미지의 관심 영역의 중심점(C)에서 우측으로 x축에 평행한 직선을 생성하고, -y축 방향으로 일정 픽셀씩 증가한 복수의 직선을 생성한다. 도 8에서는 15픽셀씩 증가한 10개의 직선을 생성하였다. 각각의 10개의 직선 상에서 이미지 밝기가 급변하거나, 픽셀 정보가 급변하는 지점을 검출하고, 그 중 중심점에서 가장 멀리 있는 지점을 엣지로 검출한다. 여기서, 화물차의 배치 방향에 따라 -y축 방향은 +y축 방향으로 변경될 수 있고, 복수의 직선 개수가 증감할 수 있고, 복수의 직선 사이의 간격이 작아지거나 커질 수 있다. Referring to FIG. 8 , a process of detecting the right edge of an image will be described in detail. A straight line parallel to the x-axis is generated to the right from the central point (C) of the ROI of the image, and a plurality of straight lines increasing by a certain pixel in the -y-axis direction are generated. In FIG. 8, 10 straight lines increased by 15 pixels were created. On each of the 10 straight lines, a point where image brightness or pixel information rapidly changes is detected, and a point farthest from the center point is detected as an edge. Here, the -y-axis direction may be changed to the +y-axis direction according to the arrangement direction of the truck, the number of the plurality of straight lines may increase or decrease, and the interval between the plurality of straight lines may decrease or increase.

도 9를 참조하여, 이미지의 상측 엣지 검출 과정에 대해 상세히 설명한다. 이미지의 관심 영역의 중심점(C)에서 상측으로 y축에 평행한 직선을 생성하고, -x축 방향으로 일정 픽셀씩 증가한 복수의 직선을 생성한다. 도 9에서는 10픽셀씩 증가한 26개의 직선을 생성하였다. 각각의 26개의 직선 상에서 이미지 밝기가 급변하거나, 픽셀 정보가 급변하는 지점을 검출하고, 그 중 중심점에서 가장 멀리 있는 지점을 엣지로 검출한다. 여기서, 화물차의 배치 방향에 따라 -x축 방향은 +x축 방향으로 변경될 수 있고, 복수의 직선 개수가 증감할 수 있고, 복수의 직선 사이의 간격이 작아지거나 커질 수 있다.Referring to FIG. 9 , a process of detecting an upper edge of an image will be described in detail. A straight line parallel to the y-axis is generated upward from the central point (C) of the ROI of the image, and a plurality of straight lines increasing by a certain pixel in the -x-axis direction are generated. In FIG. 9, 26 straight lines increased by 10 pixels were generated. On each of the 26 straight lines, a point where image brightness or pixel information rapidly changes is detected, and a point farthest from the center point is detected as an edge. Here, the -x-axis direction may be changed to the +x-axis direction according to the arrangement direction of the truck, the number of the plurality of straight lines may increase or decrease, and the interval between the plurality of straight lines may decrease or increase.

도 10을 참조하여, 이미지의 하측 엣지 검출 과정에 대해 상세히 설명한다. 이미지의 관심 영역의 중심점(C)에서 하측으로 y축에 평행한 직선을 생성하고, +x축 방향으로 일정 픽셀씩 증가한 복수의 직선을 생성한다. 도 9에서는 10픽셀씩 증가한 26개의 직선을 생성하였다. 각각의 26개의 직선 상에서 이미지 밝기가 급변하거나, 픽셀 정보가 급변하는 지점을 검출하고, 그 중 중심점에서 가장 멀리 있는 지점을 엣지로 검출한다. 여기서, 화물차의 배치 방향에 따라 +x축 방향은 -x축 방향으로 변경될 수 있고, 복수의 직선 개수가 증감할 수 있고, 복수의 직선 사이의 간격이 작아지거나 커질 수 있다.Referring to FIG. 10 , a process of detecting the lower edge of an image will be described in detail. A straight line parallel to the y-axis is generated downward from the central point (C) of the ROI of the image, and a plurality of straight lines increasing by a certain pixel in the +x-axis direction are generated. In FIG. 9, 26 straight lines increased by 10 pixels were created. On each of the 26 straight lines, a point where image brightness or pixel information rapidly changes is detected, and a point farthest from the center point is detected as an edge. Here, the +x-axis direction may be changed to the -x-axis direction according to the arrangement direction of the truck, the number of the plurality of straight lines may increase or decrease, and the interval between the plurality of straight lines may decrease or increase.

학습 데이터 저장 모듈(60)은 이미지와 이미지에 대응되는 객체 속성값, 바운딩 박스 정보를 저장할 수 있다. The learning data storage module 60 may store an image, an object attribute value corresponding to the image, and bounding box information.

도 11을 참조하면, 엣지 검출 모듈(50)에서 검출한 상측, 하측, 좌측, 우측에 대한 엣지 정보를 결합하여 바운딩 박스 정보(x1,y1,x2,y2)를 생성할 수 있다. 바운딩 박스 정보의 x1은 검출된 좌측 엣지 좌표 값 중 x좌표가 가장 작은 값으로 선정될 수 잇고, y1은 검출된 상측 엣지 좌표 값 중 y좌표가 가장 큰 값으로 설정될 수 있고, x2는 검출된 우측 엣지 좌표 값 중 x좌표가 가장 큰 값으로 설정될 수 있고, y2는 검출된 하측 엣지 좌표 값 중 y좌표가 가장 작은 값으로 설정될 수 있다. Referring to FIG. 11 , bounding box information (x1, y1, x2, y2) may be generated by combining edge information on the upper, lower, left, and right sides detected by the edge detection module 50. x1 of the bounding box information may be selected as the smallest value of the x coordinate among the detected left edge coordinate values, y1 may be set as the largest value of the y coordinate among the detected upper edge coordinate values, and x2 may be set as the largest value of the detected upper edge coordinate value. Among the right edge coordinate values, the x-coordinate may be set to the largest value, and y2 may be set to the smallest y-coordinate value among the detected lower edge coordinate values.

도 12를 참조하면, 화물차 원본 이미지 파일 이름에 대한 객체 정보값, 바운딩 박스 정보(BBox_x1,BBox_y1,BBox_x2,BBox_y2)를 매칭하여 저장한 학습 데이터셋을 생성할 수 있다. 화물차 원본 이미지 파일, 클래스, 바운딩 박스 정보를 표로 저장할 수 있다. 또는, 화물차 원본 이미지 파일, 클래스, 바운딩 박스 정보 필드를 쉼표로 구분한 텍스트 파일인 CSV파일로 저장할 수 있다. Referring to FIG. 12 , it is possible to create a learning dataset stored by matching the object information value and bounding box information (BBox_x1, BBox_y1, BBox_x2, BBox_y2) for the original image file name of the truck. The original truck image file, class, and bounding box information can be saved as a table. Alternatively, the original truck image file, class, and bounding box information fields can be saved as a CSV file, which is a text file separated by commas.

도 13은 본 실시예에 따른 딥러닝 데이터 가공 방법의 흐름도이다. 이하에서는, 도 13을 참조하여, 본 실시예에 따른 딥러닝 데이터 가공 방법의 동작 과정을 설명한다. 13 is a flowchart of a deep learning data processing method according to this embodiment. Hereinafter, with reference to FIG. 13, the operation process of the deep learning data processing method according to this embodiment will be described.

S10 단계에서는 도로 촬영 시스템으로부터 가공될 이미지를 세팅할 수 있고, S20 단계에서는 이미지의 관심 영역을 추출할 수 있고, S30 단계에서는 이미지에 객체 속성값을 저장할 수 있고, S40 단계에서는 이미지의 관심 영역의 중심점(C)을 검출할 수 있고, S50 단계에서는 이미지의 관심 영역의 중심점(C)을 기준으로 복수의 직선을 생성하여 엣지를 검출할 수 있고, S60 단계에서는 이미지, 이미지에 대응되는 객체 속성값, 바운딩 박스 정보를 저장할 수 있다.In step S10, an image to be processed may be set from the road photographing system, in step S20, a region of interest of the image may be extracted, in step S30, object attribute values may be stored in the image, and in step S40, the region of interest of the image may be stored. The center point C may be detected, and in step S50, a plurality of straight lines may be generated based on the center point C of the region of interest of the image to detect an edge. In step S60, the image and the object attribute value corresponding to the image may be detected. , can store bounding box information.

구체적으로, S30 단계에서 객체 속성값은 과적 여부, 총중량, 축중량, 축개수 중 적어도 하나의 값을 포함할 수 있다. S40 단계인 중심점(C)을 검출하는 단계는 이미지를 흑백화한 후 이미지의 관심 영역의 중심점(C)을 검출할 수 있다. S50 단계인 엣지를 검출하는 단계는 상측, 하측, 좌측, 우측의 엣지를 검출하고, 복수의 직선 상에서 픽셀 정보가 변하는 지점 중 중심점(C)에서 가장 멀리 있는 지점을 엣지로 추출할 수 있다.Specifically, in step S30, the object property value may include at least one value of overload, gross weight, shaft weight, and number of shafts. In step S40 of detecting the center point C, the center point C of the ROI of the image may be detected after the image is black-and-white. In step S50 of detecting an edge, upper, lower, left, and right edges are detected, and a point farthest from the center point C among points where pixel information changes on a plurality of straight lines may be extracted as an edge.

한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. Meanwhile, the embodiments of the present invention can be implemented as computer readable codes in a computer readable recording medium. Computer-readable recording media include all types of recording devices in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. , computer readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.

본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.Those skilled in the art related to this embodiment will be able to understand that it can be implemented in a modified form within a range that does not deviate from the essential characteristics of the above description. Therefore, the disclosed methods are to be considered in an illustrative rather than a limiting sense. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent scope will be construed as being included in the present invention.

10: 이미지 세팅 모듈 20: 관심 영역 추출 모듈
30: 객체 속성값 정의 모듈 40: 중심점 검출 모듈
50: 엣지 검출 모듈 60: 학습 데이터 저장 모듈
10: image setting module 20: region of interest extraction module
30: object attribute value definition module 40: center point detection module
50: edge detection module 60: learning data storage module

Claims (8)

도로 촬영 시스템으로부터 가공될 이미지를 세팅하는 이미지 세팅 모듈;
사용자로부터 입력받은 상기 이미지의 관심 영역을 추출하는 관심 영역 추출 모듈;
상기 이미지에 객체 속성값을 저장하는 객체 속성값 정의 모듈;
상기 이미지의 관심 영역의 중심점을 검출하는 중심점 검출 모듈;
상기 이미지의 관심 영역의 중심점을 기준으로 복수의 직선을 생성하여 엣지를 검출하는 엣지 검출 모듈; 및
상기 이미지와 상기 이미지에 대응되는 상기 객체 속성값, 바운딩 박스 정보를 저장하는 학습 데이터 저장 모듈을 포함하고,
상기 엣지 검출 모듈은 상측, 하측, 좌측, 우측의 엣지를 검출하고,
상기 엣지 검출 모듈은 상기 복수의 직선 상에서 픽셀 정보가 변하는 지점 중 상기 중심점에서 가장 멀리 있는 지점을 엣지로 추출하는 딥러닝 데이터 가공 모듈.
an image setting module for setting an image to be processed from the road photographing system;
a region of interest extraction module extracting a region of interest of the image received from a user;
an object property value definition module that stores object property values in the image;
a center point detection module for detecting a center point of a region of interest in the image;
an edge detection module generating a plurality of straight lines based on the center point of the region of interest of the image and detecting an edge; and
A learning data storage module for storing the image, the object attribute value corresponding to the image, and bounding box information;
The edge detection module detects upper, lower, left, and right edges,
The edge detection module extracts as an edge a point farthest from the center point among points where pixel information changes on the plurality of straight lines.
제1항에 있어서,
상기 객체 속성값은 과적 여부, 총중량, 축중량, 축개수 중 적어도 하나의 값을 포함하는 딥러닝 데이터 가공 모듈.
According to claim 1,
The object attribute value includes at least one value of overload, total weight, axis weight, and number of axis deep learning data processing module.
제1항에 있어서,
상기 중심점 검출 모듈은 상기 이미지를 흑백화한 후 상기 이미지의 관심 영역의 중심점을 검출하는 딥러닝 데이터 가공 모듈.
According to claim 1,
The center point detection module is a deep learning data processing module for detecting the center point of the region of interest of the image after black-and-white of the image.
제1항에 있어서,
상기 가공될 이미지는 화물차와 배경이 포함된 이미지이고,
상기 이미지의 상기 관심 영역은 상기 화물차만 포함된 이미지인 딥러닝 데이터 가공 모듈.
According to claim 1,
The image to be processed is an image including a truck and a background,
The region of interest of the image is an image including only the truck, deep learning data processing module.
제1항에 있어서,
상기 픽셀 정보가 변하는 지점은 이미지 밝기가 변하는 지점 및 불연속성이 발생하는 지점 중 적어도 하나인 딥러닝 데이터 가공 모듈.
According to claim 1,
The point where the pixel information changes is at least one of a point where image brightness changes and a point where discontinuity occurs. Deep learning data processing module.
제1항에 있어서,
상기 엣지 검출 모듈은 상측 엣지 검출시 y축에 평행한 직선을 생성하되, -x축 방향으로 제1픽셀씩 증가한 복수의 직선을 생성하여 엣지를 검출하는 딥러닝 데이터 가공 모듈.
According to claim 1,
The edge detection module generates a straight line parallel to the y-axis when detecting an upper edge, but detects an edge by generating a plurality of straight lines increasing by a first pixel in the -x-axis direction Deep learning data processing module.
제1항에 있어서,
상기 엣지 검출 모듈은 하측 엣지 검출시 y축에 평행한 직선을 생성하되, +x축 방향으로 제1픽셀씩 증가한 복수의 직선을 생성하여 엣지를 검출하는 딥러닝 데이터 가공 모듈.
According to claim 1,
The edge detection module generates a straight line parallel to the y-axis when detecting a lower edge, but detects an edge by generating a plurality of straight lines increasing by a first pixel in the +x-axis direction Deep learning data processing module.
삭제delete
KR1020220136325A 2022-10-21 2022-10-21 Data processing module for deep learning of truck image KR102481976B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220136325A KR102481976B1 (en) 2022-10-21 2022-10-21 Data processing module for deep learning of truck image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220136325A KR102481976B1 (en) 2022-10-21 2022-10-21 Data processing module for deep learning of truck image

Publications (1)

Publication Number Publication Date
KR102481976B1 true KR102481976B1 (en) 2022-12-27

Family

ID=84568231

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220136325A KR102481976B1 (en) 2022-10-21 2022-10-21 Data processing module for deep learning of truck image

Country Status (1)

Country Link
KR (1) KR102481976B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170062702A (en) * 2015-11-30 2017-06-08 (주) 알티솔루션 A detecting system for the over loaded vehicles for the service of the road traffic safety
KR102243528B1 (en) * 2019-12-23 2021-04-22 렉스젠(주) System for monitoring truck and method thereof
KR20220029931A (en) * 2020-09-02 2022-03-10 주식회사 디메타 (D-meta,corp.) Vehicle damage management method and vehicle damage management apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170062702A (en) * 2015-11-30 2017-06-08 (주) 알티솔루션 A detecting system for the over loaded vehicles for the service of the road traffic safety
KR102243528B1 (en) * 2019-12-23 2021-04-22 렉스젠(주) System for monitoring truck and method thereof
KR20220029931A (en) * 2020-09-02 2022-03-10 주식회사 디메타 (D-meta,corp.) Vehicle damage management method and vehicle damage management apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
이용 외 4명, "자동-레이블링 기반 영상 학습데이터 제작 시스템", 한국콘텐츠학회논문지 (2021.06.28.)* *

Similar Documents

Publication Publication Date Title
US9881231B2 (en) Using extracted image text
CN110363102B (en) Object identification processing method and device for PDF (Portable document Format) file
US7953295B2 (en) Enhancing text in images
KR101421704B1 (en) Recognizing text in images
US20080002893A1 (en) Recognizing text in images
US20170287252A1 (en) Counterfeit Document Detection System and Method
CN110490839B (en) Method and device for detecting damaged area in expressway and computer equipment
US20160314368A1 (en) System and a method for the detection of multiple number-plates of moving cars in a series of 2-d images
CN111325717B (en) Mobile phone defect position identification method and equipment
CN112348784A (en) Method, device and equipment for detecting state of camera lens and storage medium
US20090110286A1 (en) Detection method
CN109903210B (en) Watermark removal method, watermark removal device and server
CN110929626A (en) Method for determining number of inventory goods, warehouse checking method, device and equipment
CN111259891A (en) Method, device, equipment and medium for identifying identity card in natural scene
US20210287055A1 (en) Using rasterization to identify traffic signal devices
CN110135288B (en) Method and device for quickly checking electronic certificate
CN113781396B (en) Screen defect detection method, device, equipment and storage medium
KR102481976B1 (en) Data processing module for deep learning of truck image
JP3606500B2 (en) Rectangle classification method
US10515287B2 (en) Image retrieval apparatus, computer readable medium, and method for specifying an image group and extracting a representative image
CN112364884A (en) Method for detecting moving object
EP3647236A1 (en) Projection instruction device, baggage sorting system, and projection instruction method
US20230196840A1 (en) Work management device and work state determination method
CN111881787A (en) Camera-based store illegal operation behavior identification method and system
CN112308848A (en) Method and system for identifying state of baffle plate of scrap steel truck, electronic equipment and medium

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant