KR20210133827A - Apparatus for learning deep learning model and method thereof - Google Patents

Apparatus for learning deep learning model and method thereof Download PDF

Info

Publication number
KR20210133827A
KR20210133827A KR1020200064272A KR20200064272A KR20210133827A KR 20210133827 A KR20210133827 A KR 20210133827A KR 1020200064272 A KR1020200064272 A KR 1020200064272A KR 20200064272 A KR20200064272 A KR 20200064272A KR 20210133827 A KR20210133827 A KR 20210133827A
Authority
KR
South Korea
Prior art keywords
false detection
data
target object
image
deep learning
Prior art date
Application number
KR1020200064272A
Other languages
Korean (ko)
Other versions
KR102500975B1 (en
Inventor
신휴성
이규범
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Publication of KR20210133827A publication Critical patent/KR20210133827A/en
Application granted granted Critical
Publication of KR102500975B1 publication Critical patent/KR102500975B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a device for learning a deep learning model and a method thereof in accordance with an embodiment. The device for learning a deep learning model comprises: an image acquisition unit for acquiring an image; a model learning unit for constructing image big data for learning based on a reference image obtained from the image acquisition unit, extracting a learning target object from the reference image of the constructed image big data for learning, and learning a deep learning model based on the extracted learning target object; an object inference unit for inferring a target object in a surveillance image provided from the image acquisition unit based on the learned deep learning model and generating accidental situation data with the inferred result; and a false detection definition unit for classifying the generated accidental situation data into right detection data and false detection data and defining the classified false detection data as at least one piece of object false detection data for a predetermined false detection target object. The model learning unit re-learns the deep learning model by adding the defined at least one object false detection data to the image big data for learning. In accordance with an embodiment, the object recognition performance can be improved without hindering learning of existing labeling data.

Description

딥러닝 모델을 학습시키기 위한 장치 및 그 방법{APPARATUS FOR LEARNING DEEP LEARNING MODEL AND METHOD THEREOF}Apparatus and method for training a deep learning model

실시예는 오탐지 데이터를 이용하여 딥러닝 모델을 학습시키기 위한 장치 및 그 방법에 관한 것이다.The embodiment relates to an apparatus and method for training a deep learning model using false-positive data.

딥러닝 모델의 학습 및 추론은 대상 객체들이 포함된 동영상들을 정지영상으로 분해한 다음, 대상 객체들을 레이블링한 데이터로 추론 및 학습용 데이터로 나누지 않고 레이블링 데이터를 전부 활용하여 학습을 진행한다. 대중에 공개된 Pascal VOC 데이터셋이나 COCO 데이터셋은 연속성이 없는 정지영상 수 만장 속에 포함된 다양한 객체들이 레이블링 되어 있다. 그렇기 때문에 학습용 데이터셋과 검증용 데이터셋을 나눈 다음 검증용 데이터를 추론해 보면 딥러닝 모델이 학습용 데이터에 편향적으로 학습되었는지 확인할 수 있다.Learning and inference of a deep learning model decomposes videos containing target objects into still images, and then uses all of the labeling data to learn without dividing the target objects into inference and learning data as data for labeling them. The Pascal VOC dataset and COCO dataset, which are open to the public, are labeled with various objects included in tens of thousands of non-continuous still images. Therefore, by dividing the training dataset and the verification dataset and then inferring the verification data, it is possible to check whether the deep learning model is biasedly trained on the training data.

그러나 영상 기반 레이블링 데이터는 수 많은 정지영상들이 연속적으로 이어지므로, 전후 정지영상들이 서로 유사한 영상환경을 보인다. 이러한 이유로 인해 검증용 데이터를 추론하여 학습결과를 검증한다 하여도 딥러닝 모델이 편향적으로 학습되었는지 파악하기 쉽지 않다. 따라서, 딥러닝 시스템의 현장 투입 및 모니터링을 통해 딥러닝 모델의 객체인식 능력을 검증해야 한다. 여기서, 학습데이터셋의 배경과 현재 영상에 보여지는 배경과의 차이로 인하여, 초기 학습이 완료된 딥러닝 시스템의 현장적용 초기단계에는 많은 오탐지 경우가 많이 발생한다.However, in the image-based labeling data, since numerous still images are consecutively connected, the before and after still images show similar image environments. For this reason, even if the learning results are verified by inferring the verification data, it is not easy to determine whether the deep learning model is biased. Therefore, it is necessary to verify the object recognition ability of the deep learning model through field input and monitoring of the deep learning system. Here, due to the difference between the background of the learning dataset and the background shown in the current image, many false detection cases occur in the initial stage of field application of the deep learning system where the initial learning is completed.

이러한 빈번한 오탐지 경우는 정탐지 성능 요구조건만큼 현장 운영에 큰 영향을 미친다. 사실과 다른 빈번한 경보와 불필요한 현장 인력 동원을 초래하게 되며, 오탐지 데이터가 정탐지 데이터와 섞여 구분에 많은 애로가 발생하며, 정탐지 상황의 효용성을 크게 저감시키는 결과를 초래한다.These frequent false positives have as much impact on field operations as forward detection performance requirements. It causes frequent alarms that are different from the truth and unnecessary mobilization of on-site personnel, and the false detection data is mixed with the forward detection data, which causes many difficulties in classification, and results in greatly reducing the effectiveness of the forward detection situation.

게다가, 동영상을 대상으로 대상 객체를 인식하고 오탐지가 다수 발생할 경우 이를 저감시키기 위해서는 기존 학습자료에 더하여 오탐지를 저감하기 위한 추가 학습자료의 준비가 필요한데, 일반적으로 학습자료는 대상 객체의 레이블링 작업이 선행되어야 하기 때문에, 추가 학습자료의 준비에 많은 시간과 노력이 필요하다.In addition, in order to recognize a target object in a video and reduce false positives when a large number of false positives occur, it is necessary to prepare additional training materials to reduce false positives in addition to existing training materials. Because this must be preceded, it takes a lot of time and effort to prepare additional learning materials.

실시예는, 오탐지 데이터를 이용하여 딥러닝 모델을 학습시키기 위한 장치 및 그 방법을 제공할 수 있다.The embodiment may provide an apparatus and a method for training a deep learning model using false-positive data.

실시예에 따른 딥러닝 모델을 학습시키기 위한 장치는 영상을 획득하는 영상 획득부; 상기 영상 획득부로부터 획득된 기준 영상을 기초로 학습용 영상 빅데이터를 구축하고 상기 구축된 학습용 영상 빅데이터의 상기 기준 영상으로부터 학습 대상 객체를 추출하여 상기 추출된 학습 대상 객체를 기초로 딥러닝 모델을 학습시키는 모델 학습부; 상기 학습된 딥러닝 모델을 기초로 상기 영상 획득부로부터 제공 받는 감시 영상 내 대상 객체를 추론하여 상기 추론된 결과로 유고상황 데이터를 생성하는 객체 추론부; 및 상기 생성된 유고상황 데이터를 정탐지 데이터와 오탐지 데이터로 분류하고, 상기 분류된 오탐지 데이터를 미리 정해진 오탐지 대상 객체에 대한 적어도 하나의 객체 오탐지 데이터로 정의하는 오탐지 정의부를 포함하고, 상기 모델 학습부는 상기 학습용 영상 빅데이터에 상기 정의된 적어도 하나의 객체 오탐지 데이터를 추가시켜 상기 딥러닝 모델을 재 학습시킬 수 있다.An apparatus for learning a deep learning model according to an embodiment includes an image acquisition unit for acquiring an image; Building image big data for learning based on the reference image obtained from the image acquisition unit, extracting a learning object from the reference image of the constructed image big data for learning, a deep learning model based on the extracted learning object a model learning unit for learning; an object inference unit for inferring a target object in the surveillance image provided from the image acquisition unit based on the learned deep learning model, and generating emergency situation data as the inferred result; and a false detection definition unit that classifies the generated accidental situation data into forward detection data and false detection data, and defines the classified false detection data as at least one object false detection data for a predetermined false detection target object, , the model learning unit may re-learn the deep learning model by adding the defined at least one object false detection data to the image big data for training.

상기 오탐지 정의부는 상기 유고상황 데이터로부터 정탐지와 오탐지를 사용자로부터 지정받아 상기 정탐지 데이터와 상기 오탐지 데이터를 분류할 수 있다.The false detection definition unit may classify the forward detection data and the false detection data by receiving a designation of a forward detection and a false detection from the user from the accidental situation data.

상기 미리 정해진 오탐지 대상 객체는 제1 대상 객체와 제2 대상 객체를 포함하고, 상기 오탐지 정의부는 상기 오탐지 데이터를 상기 제1 대상 객체와 상기 제2 대상 객체 중 적어도 상기 제2 대상 객체에 대한 객체 오탐지 데이터로 정의할 수 있다.The predetermined false detection target object includes a first target object and a second target object, and the false detection definition unit provides the false detection data to at least the second target object among the first target object and the second target object. It can be defined as object false detection data for

상기 오탐지 데이터는 오탐지된 영상과 상기 오탐지 영상 내 오탐지 대상 객체에 대한 레이블링 정보를 포함하고, 상기 오탐지 정의부는 상기 오탐지 대상 객체가 상기 제1 대상 객체인 경우 해당 대상 객체의 레이블링 정보를 제거하고, 상기 오탐지 대상 객체가 상기 제2 대상 객체인 경우 해당 대상 객체의 레이블링 정보 중 객체 클래스명을 오탐지 대상 객체임을 나타내기 위한 오류객체로 변경할 수 있다.The false detection data includes a false detection image and labeling information on a false detection target object in the false detection image, and the false detection definition unit labels the corresponding target object when the false detection target object is the first target object Information may be removed, and when the false detection target object is the second target object, an object class name in the labeling information of the corresponding target object may be changed to an error object for indicating that the false detection target object is the false detection target object.

상기 오탐지 정의부는 상기 오탐지 대상 객체가 상기 제2 대상 객체인 경우 상기 오탐지 영상의 해당 오탐지 대상 객체가 존재하는 영역을 제외한 나머지 영역을 제거할 수 있다.When the false detection target object is the second target object, the false detection definition unit may remove a region remaining from the false detection image except for a region in which the corresponding false detection target object exists.

상기 오탐지 정의부는 상기 오탐지 대상 객체가 존재하는 영역을 제외한 나머지 영역이 모두 제거된 오탐지 영상과 상기 변경된 레이블링 정보를 포함하는 오탐지 데이터를 해당 오탐지 객체 대상에 대한 오탐지 데이터로 정의할 수 있다.The false detection definition unit defines a false detection image from which all regions except for the region in which the false detection target object exists, and false detection data including the changed labeling information, as false detection data for a corresponding false detection object target. can

실시예에 따른 딥러닝 모델을 학습시키기 위한 방법은 영상 획득부로부터 획득된 기준 영상을 기초로 학습용 영상 빅데이터를 구축하고 상기 구축된 학습용 영상 빅데이터의 상기 기준 영상으로부터 학습 대상 객체를 추출하여 상기 추출된 학습 대상 객체를 기초로 딥러닝 모델을 학습시키는 단계; 상기 학습된 딥러닝 모델을 기초로 상기 영상 획득부로부터 제공 받는 감시 영상 내 대상 객체를 추론하여 상기 추론된 결과로 유고상황 데이터를 생성하는 단계; 상기 생성된 유고상황 데이터를 정탐지 데이터와 오탐지 데이터로 분류하고, 상기 분류된 오탐지 데이터를 미리 정해진 오탐지 대상 객체에 대한 적어도 하나의 객체 오탐지 데이터로 정의하는 단계; 및 상기 정의된 적어도 하나의 객체 오탐지 데이터를 상기 학습용 영상 빅데이터에 추가시켜 상기 딥러닝 모델을 재 학습시키는 단계를 포함할 수 있다.The method for learning a deep learning model according to an embodiment is to construct an image big data for learning based on a reference image obtained from an image acquisition unit, and extract a learning target object from the reference image of the constructed image big data for learning, training a deep learning model based on the extracted learning target object; inferring a target object in the surveillance image provided from the image acquisition unit based on the learned deep learning model, and generating event data as a result of the inference; classifying the generated emergency situation data into forward detection data and false detection data, and defining the classified false detection data as at least one object false detection data for a predetermined false detection target object; and re-learning the deep learning model by adding the defined at least one object false detection data to the training image big data.

상기 정의하는 단계에서는 상기 유고상황 데이터로부터 정탐지와 오탐지를 사용자로부터 지정받아 상기 정탐지 데이터와 상기 오탐지 데이터를 분류할 수 있다.In the defining step, the forward detection data and the false detection data may be classified by receiving the forward detection and the false detection designation from the user from the accidental situation data.

상기 미리 정해진 오탐지 대상 객체는 제1 대상 객체와 제2 대상 객체를 포함하고, 상기 정의하는 단계에서는 상기 오탐지 데이터를 상기 제1 대상 객체와 상기 제2 대상 객체 중 적어도 상기 제2 대상 객체에 대한 객체 오탐지 데이터로 정의할 수 있다.The predetermined false detection target object includes a first target object and a second target object, and in the defining step, the false detection data is transmitted to at least the second target object among the first target object and the second target object. It can be defined as object false detection data for

상기 오탐지 데이터는 오탐지된 영상과 상기 오탐지 영상 내 오탐지 대상 객체에 대한 레이블링 정보를 포함하고, 상기 정의하는 단계에서는 상기 오탐지 대상 객체가 상기 제1 대상 객체인 경우 해당 대상 객체의 레이블링 정보를 제거하고, 상기 오탐지 대상 객체가 상기 제2 대상 객체인 경우 해당 대상 객체의 레이블링 정보 중 객체 클래스명을 오탐지 대상 객체임을 나타내기 위한 오류객체로 변경할 수 있다.The false detection data includes a false detection image and labeling information on a false detection target object in the false detection image, and in the defining step, when the false detection target object is the first target object, labeling of the target object Information may be removed, and when the false detection target object is the second target object, an object class name in the labeling information of the corresponding target object may be changed to an error object for indicating that the false detection target object is the false detection target object.

상기 정의하는 단계에서는 상기 오탐지 대상 객체가 상기 제2 대상 객체인 경우 상기 오탐지 영상의 해당 오탐지 대상 객체가 존재하는 영역을 제외한 나머지 영역을 제거할 수 있다.In the defining step, when the false detection target object is the second target object, regions other than a region in which the corresponding false detection target object exists in the false detection image may be removed.

상기 정의하는 단계에서는 상기 오탐지 대상 객체가 존재하는 영역을 제외한 나머지 영역이 모두 제거된 오탐지 영상과 상기 변경된 레이블링 정보를 포함하는 오탐지 데이터를 해당 오탐지 객체 대상에 대한 오탐지 데이터로 정의할 수 있다.In the defining step, the false detection image from which all regions except the region in which the false detection target object exists and the false detection data including the changed labeling information are defined as false detection data for the corresponding false detection object target. can

실시예에 따르면, 미리 생성된 레이블링 데이터와 실시간 추론 과정에서 발생하는 오탐지 데이터를 이용하여 딥러닝 모델을 재학습시켜 업데이트하도록 함으로써, 오탐지 결과를 별도의 레이블링 작업없이 학습 자료에 추가 반영할 수 있다.According to the embodiment, by re-learning and updating the deep learning model using pre-generated labeling data and false-detection data generated in the real-time inference process, the false-detection result can be additionally reflected in the training material without a separate labeling operation. have.

실시예에 따르면, 기존 레이블링 데이터의 학습을 저해하지 않고 객체 인식 성능을 향상시킬 수 있다.According to the embodiment, it is possible to improve the object recognition performance without hindering the learning of the existing labeling data.

실시예에 따르면, 딥러닝 모델 적용 현장에서 발생하는 오탐지를 저감할 수 있다.According to the embodiment, it is possible to reduce false positives occurring in the field of application of the deep learning model.

도 1은 본 발명의 실시예에 따른 딥러닝 모델을 학습시키기 위한 장치를 나타내는 도면이다.
도 2는 도 1에 도시된 데이터 구축부의 상세한 구성을 나타내는 도면이다.
도 3은 도 1에 도시된 오탐지 정의부의 상세한 구성을 나타내는 도면이다.
도 4a 내지 도 4d는 실시예에 따른 오탐지 데이터를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 딥러닝 모델을 학습시키기 위한 방법을 나타내는 도면이다.
도 6a 내지 도 6b는 딥러닝 기반 터널 CCTV 영상유고 시스템의 오탐지 발생 현황을 나타내는 그래프이다.
도 7은 도 5에 도시된 시스템에서 발생된 오탐지 샘플을 보여주는 도면이다.
도 8은 화재와 보행자에 대한 정탐지와 오탐지 간의 유사성을 설명하기 위한 도면이다.
도 9는 오탐지 데이터를 포함하는 딥러닝 학습 프로세스를 나타내는 도면이다.
도 10은 딥러닝 모델의 레이블링 데이터에 대한 재추론 결과를 보여주는 그래프이다.
도 11은 딥러닝 모델의 현장 적용에 대한 모니터링 현황을 보여주는 그래프이다.
1 is a diagram illustrating an apparatus for training a deep learning model according to an embodiment of the present invention.
FIG. 2 is a diagram showing a detailed configuration of the data construction unit shown in FIG. 1 .
FIG. 3 is a diagram illustrating a detailed configuration of the false detection definition unit illustrated in FIG. 1 .
4A to 4D are diagrams for explaining false detection data according to an embodiment.
5 is a diagram illustrating a method for training a deep learning model according to an embodiment of the present invention.
6A to 6B are graphs showing the false detection status of the deep learning-based tunnel CCTV image retention system.
FIG. 7 is a diagram illustrating false positive samples generated in the system shown in FIG. 5 .
FIG. 8 is a diagram for explaining the similarity between forward detection and false detection of fire and pedestrians.
9 is a diagram illustrating a deep learning learning process including false detection data.
10 is a graph showing the re-inference result for the labeling data of the deep learning model.
11 is a graph showing the monitoring status for field application of the deep learning model.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical spirit of the present invention is not limited to some embodiments described, but may be implemented in various different forms, and within the scope of the technical spirit of the present invention, one or more of the components may be selected among the embodiments. It can be combined and substituted for use.

또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention may be generally understood by those of ordinary skill in the art to which the present invention pertains, unless specifically defined and described explicitly. It may be interpreted as a meaning, and generally used terms such as terms defined in advance may be interpreted in consideration of the contextual meaning of the related art.

또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.In addition, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, “A 및(와) B, C 중 적어도 하나(또는 한 개 이상)”로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when it is described as “at least one (or more than one) of A and (and) B, C”, it is combined with A, B, and C It may include one or more of all possible combinations.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and are not limited to the essence, order, or order of the component by the term.

그리고, 어떤 구성 요소가 다른 구성요소에 ‘연결’, ‘결합’ 또는 ‘접속’된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 ‘연결’, ‘결합’ 또는 ‘접속’ 되는 경우도 포함할 수 있다.And, when it is described that a component is 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to the other component, but also with the component It may also include a case of 'connected', 'coupled' or 'connected' due to another element between the other elements.

또한, 각 구성 요소의 “상(위) 또는 하(아래)”에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, “상(위) 또는 하(아래)”으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when it is described as being formed or disposed on “above (above) or under (below)” of each component, the top (above) or bottom (below) is one as well as when two components are in direct contact with each other. Also includes a case in which another component as described above is formed or disposed between two components. In addition, when expressed as “upper (upper) or lower (lower)”, the meaning of not only an upward direction but also a downward direction based on one component may be included.

실시예에서는, 학습 데이터로 미리 생성된 레이블링 데이터를 이용하여 딥러닝 모델을 학습시킨 후 실시간 추론 과정에서 발생하는 유고상황 데이터를 오탐지 데이터와 정탐지 데이터로 분류하고, 분류된 오탐지 데이터와 레이블링 데이터를 이용하여 딥러닝 모델을 재학습시켜 업데이트하도록 한, 새로운 방안을 제안한다.In the embodiment, after learning the deep learning model using the labeling data generated in advance as training data, the eventual data generated in the real-time inference process is classified into false detection data and positive detection data, and the classified false detection data and labeling We propose a new way to retrain and update a deep learning model using data.

도 1은 본 발명의 실시예에 따른 딥러닝 모델을 학습시키기 위한 장치를 나타내는 도면이다.1 is a diagram illustrating an apparatus for training a deep learning model according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 딥러닝 모델을 학습시키기 위한 장치는 영상 획득부(100), 데이터 구축부(200), 모델 학습부(300), 객체 추론부(400), 오탐지 정의부(500)를 포함할 수 있다.Referring to FIG. 1 , an apparatus for learning a deep learning model according to an embodiment of the present invention includes an image acquisition unit 100 , a data construction unit 200 , a model learning unit 300 , an object inference unit 400 , It may include a false detection definition unit 500 .

영상 획득부(100)는 서로 다른 위치에 설치되어, 도로 상의 영상을 획득할 수 있다. 이러한 영상 획득부(100)는 예컨대, CCTV(Closed Circuit Television)를 포함할 수 있다.The image acquisition unit 100 may be installed at different locations to acquire images on the road. The image acquisition unit 100 may include, for example, a Closed Circuit Television (CCTV).

데이터 구축부(200)는 미리 정해진 다양한 환경 조건 하에서 다수의 기준 영상을 수집하여 수집된 기준 영상을 포함하는 학습용 영상 빅데이터를 구축할 수 있다.The data construction unit 200 may collect a plurality of reference images under various predetermined environmental conditions and construct image big data for learning including the collected reference images.

데이터 구축부(200)는 학습용 영상 빅데이터를 기초로 기준 영상으로부터 관심 영역의 영상을 추출하여 추출된 관심 영역의 영상으로부터 학습 대상 객체를 추출하고, 추출된 학습 대상 객체를 포함하는 학습용 데이터 셋을 구축할 수 있다.The data construction unit 200 extracts an image of a region of interest from a reference image based on the image big data for learning, extracts a learning target object from the extracted image of the region of interest, and sets a learning data set including the extracted learning target object. can be built

모델 학습부(300)는 구축된 학습용 데이터 셋을 기초로 딥러닝 모델(deep learning model) 또는 딥러닝 알고리즘(deep learning algorithm)을 학습시킬 수 있다.The model learning unit 300 may train a deep learning model or a deep learning algorithm based on the constructed training data set.

모델 학습부(300)는 학습된 딥러닝 모델을 이용하여 대상 객체를 추론하는 과정에서 발생한 오탐지 데이터 셋과 학습용 데이터 셋을 기초로 딥러닝 모델을 재학습시킬 수 있다.The model learning unit 300 may retrain the deep learning model based on the false detection data set and the training data set generated in the process of inferring the target object using the learned deep learning model.

객체 추론부(400)는 학습된 딥러닝 모델을 기초로 영상 획득부(100)로부터 제공 받는 감시 영상 내 대상 객체를 추론하고, 추론된 대상 객체를 기초로 유고 상황을 판단하여 대상 객체와 유고 상황을 포함하는 유고상황 데이터를 생성할 수 있다.The object inference unit 400 infers a target object in the surveillance image provided from the image acquisition unit 100 based on the learned deep learning model, and determines the existence situation based on the inferred target object to determine the target object and the existence situation. It is possible to generate emergency situation data including

오탐지 정의부(500)는 생성된 유고상황 데이터를 분석하여 그 분석한 결과로 정탐지 데이터와 오탐지 데이터로 분류하고, 분류된 오탐지 데이터로부터 미리 정해진 적어도 하나의 오탐지 대상 객체에 대한 객체 오탐지 데이터를 정의할 수 있다. 여기서 오탐지 대상 객체는 차량, 보행자, 화재 등을 포함할 수 있는데, 실시예에서는 상대적으로 정확하게 인식되는 차량을 제외한 보행자, 화재를 포함할 수 있다.The false detection definition unit 500 analyzes the generated incident data, classifies it into forward detection data and false detection data as a result of the analysis, and an object for at least one predetermined false detection target object from the classified false detection data. False positive data can be defined. Here, the false detection target object may include a vehicle, a pedestrian, a fire, and the like. In an embodiment, the false detection target object may include a pedestrian and a fire except for a vehicle that is relatively accurately recognized.

이때, 오탐지 정의부(500)는 생성된 유고상황 데이터로부터 정탐지와 오탐지를 사용자로부터 지정받아 정탐지 데이터와 오탐지 데이터를 분류할 수 있다.In this case, the false detection definition unit 500 may classify the forward detection data and the false detection data by receiving a designation of the forward detection and the false detection from the user from the generated incident data.

도 2는 도 1에 도시된 데이터 구축부의 상세한 구성을 나타내는 도면이다.FIG. 2 is a diagram showing a detailed configuration of the data construction unit shown in FIG. 1 .

도 2를 참조하면, 본 발명의 실시예에 따른 데이터 셋을 구축하기 위한 데이터 구축부(200)는 수집부(210), 추출부(220), 구축부(230)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the data construction unit 200 for constructing a data set according to an embodiment of the present invention may include a collection unit 210 , an extraction unit 220 , and a construction unit 230 . .

수집부(210)는 영상 획득부(100)와 유선 또는 무선 연동하고, 미리 정해진 다양한 환경 조건 하에서 영상 획득부(100)로부터 미리 획득된 기준 영상을 수집하여 수집된 기준 영상을 포함하는 학습용 영상 빅데이터를 구축할 수 있다. 이러한 기준 영상은 미리 정해진 대상 객체를 포함하는 영상일 수 있다.The collection unit 210 is connected to the image acquisition unit 100 by wire or wirelessly, and collects the reference images obtained in advance from the image acquisition unit 100 under various predetermined environmental conditions and includes the collected reference images. data can be built. The reference image may be an image including a predetermined target object.

추출부(220)는 구축된 학습용 기준 영상 빅데이터를 기초로 각 기준 영상으로부터 관심 영역(Region of Interest) 영상을 추출할 수 있다. 예컨대, 추출부(220)는 미리 지정된 영역의 영상을 관심 영역 영상으로 추출하거나, 사용자에 의해 지정된 영역의 영상을 관심 영역 영상으로 추출할 수 있다.The extractor 220 may extract a region of interest image from each reference image based on the constructed big data of the reference image for learning. For example, the extractor 220 may extract an image of a predetermined region as an ROI image or extract an image of a region designated by a user as an ROI image.

추출부(220)는 추출된 관심 영역 영상으로부터 적어도 하나의 학습 대상 객체를 추출하고, 추출된 적어도 하나의 학습 대상 객체에 대한 레이블링을 수행할 수 있다.The extractor 220 may extract at least one learning target object from the extracted ROI image and perform labeling on the extracted at least one learning target object.

이렇게 레이블링을 수행하는 이유는 추출된 학습 대상 객체가 차량이나 사람이 아닌 곤충, 새, 동물일 수 있기 때문에 감시 대상이 아닌 객체를 제외시키기 위함이다.The reason for performing this labeling is to exclude objects that are not monitored because the extracted learning object may be an insect, bird, or animal rather than a vehicle or a person.

이때, 대상 객체에 대한 정확한 레이블링을 하기 위해 추출부(220)는 추출된 적어도 하나의 학습 대상 객체에 대한 사용자의 입력 정보를 기초로 레이블링을 수행할 수 있다. 즉, 사용자가 추출된 학습 대상 객체가 감시 대상인지 아닌지를 직접 결정하도록 한다. 여기서, 입력 정보는 예컨대, 객체 종류(차량 객체(Car), 보행자 객체(Person), 화재 객체(Fire)), 위치, 크기 등의 다양한 레이블링 정보를 포함할 수 있다.In this case, in order to accurately label the target object, the extractor 220 may perform labeling based on the user's input information on the extracted at least one learning target object. That is, the user directly determines whether the extracted learning target object is a monitoring target or not. Here, the input information may include, for example, various labeling information such as an object type (a vehicle object (Car), a pedestrian object (Person), a fire object (Fire)), a location, and a size.

구축부(230)는 레이블링된 학습 대상 객체 중 감시 대상이 되는 학습 대상 객체를 추출하여 추출된 학습 대상 객체를 포함하는 학습용 데이터 셋을 구출할 수 있다.The construction unit 230 may extract a learning target object to be monitored among the labeled learning target objects to rescue a learning data set including the extracted learning target object.

도 3은 도 1에 도시된 오탐지 정의부의 상세한 구성을 나타내는 도면이다.FIG. 3 is a diagram illustrating a detailed configuration of the false detection definition unit illustrated in FIG. 1 .

도 3을 참조하면, 본 발명의 실시예에 따른 오탐지 데이터를 정의하기 위한 오탐지 정의부(500)는 수집부(510), 분류부(520), 정의부(530)을 포함하여 구성될 수 있다.Referring to FIG. 3 , a false detection definition unit 500 for defining false detection data according to an embodiment of the present invention may include a collection unit 510 , a classification unit 520 , and a definition unit 530 . can

수집부(510)는 객체 추론부(400)로부터 생성된 유고상황 데이터를 수집할 수 있다. 수집부(510)는 비정기적으로 영상 유고 시스템이 운영 중인 현장을 방문하여 그 시점까지 탐지된 유고상황 데이터를 수집할 수 있다.The collection unit 510 may collect the emergency situation data generated from the object inference unit 400 . The collection unit 510 may irregularly visit the site where the image loss system is operating and collect data on the failure situation detected up to that point.

이때, 유고상황 데이터는 객체 추론 과정에서 자동으로 레이블링이 수행된 데이터로, 영상과 영상 내 적어도 하나의 대상 객체에 대한 레이블링 정보를 포함할 수 있다.In this case, the emergency data is data automatically labeled in the object inference process, and may include an image and labeling information on at least one target object in the image.

분류부(520)는 유고상황 데이터를 분석하여 분석한 결과로 정탐지 데이터와 오탐지 데이터로 분류하고, 분류된 오탐지 데이터를 다수의 객체 오탐지 데이터로 분류할 수 있다. 예컨대, 분류부(520)는 분류된 오탐지 데이터를 차량에 대한 객체 오탐지 데이터, 보행자에 대한 객체 오탐지 데이터, 화재에 대한 객체 오탐지 데이터로 분류할 수 있다.The classification unit 520 may analyze and classify the accidental situation data into forward detection data and false detection data as a result of the analysis, and classify the classified false detection data into a plurality of object false detection data. For example, the classification unit 520 may classify the classified false detection data into object false detection data for a vehicle, object false detection data for a pedestrian, and object false detection data for fire.

정의부(530)는 분류된 다수의 객체 오탐지 데이터에서 대상 객체의 레이블링 정보 중 클래스명을 오탐지 객체임을 나타내기 위한 정보로 변경하여 오탐지 데이터로 정의할 수 있다.The definition unit 530 may define the false detection data by changing the class name among the labeling information of the target object in the classified plurality of object false detection data to information indicating that the object is a false detection object.

이때, 레이블링 클래스명으는 정탐지된 대상 객체 종류인 차량 객체(Car), 보행자 객체(Person), 화재 객체(Fire)와 오탐지된 대상 객체 종류인 차량 오류객체(Not_Car), 보행자 오류객체(Not_Person), 화재 오류 객체(Not_Fire)를 포함할 수 있다.At this time, the labeling class names are vehicle object (Car), pedestrian object (Person), fire object (Fire), which are the target object types that are correctly detected, and vehicle error object (Not_Car) and pedestrian error object (Not_Person), which are the types of the falsely detected target object. ), and a fire error object (Not_Fire).

이를 통해 본 실시예에서는 레이블링 클래스명을 수정하는 과정을 거쳐 오탐지된 비교 객체를 추가하도록 하여 빈번하게 발생하는 오탐지를 예외 처리할 수 있다.Through this, in the present embodiment, a frequently occurring false detection can be handled as an exception by adding a comparison object that is falsely detected through a process of modifying the labeling class name.

도 4a 내지 도 4d는 실시예에 따른 오탐지 데이터를 설명하기 위한 도면이다.4A to 4D are diagrams for explaining false detection data according to an embodiment.

도 4a 내지 도 4b를 참조하면, 그 일예로, 실시예에 따른 정의부(530)는 대상 객체가 보행자인 보행자 오탐지 데이터의 레이블링 정보 중 클래스명을 보행자 객체 {Person}에서 보행자 오류객체 {Not_Person}으로 변경하여 보행자 오탐지 데이터로 정의할 수 있다.4A to 4B , as an example, the definition unit 530 according to the embodiment assigns a class name from the pedestrian object {Person} to the pedestrian error object {Not_Person among the labeling information of the pedestrian false detection data whose target object is a pedestrian. } to define pedestrian false detection data.

다른 예로, 실시예에 따른 정의부(530)는 대상 객체가 화재인 화재 오탐지 데이터의 레이블링 정보 중 클래스명을 화재 객체 {Fire}에서 화재 오류객체 {Not_Fire}으로 변경하여 화재 오탐지 데이터로 정의할 수 있다.As another example, the definition unit 530 according to the embodiment changes the class name among the labeling information of fire false detection data in which the target object is fire from the fire object {Fire} to the fire error object {Not_Fire} to define the false fire detection data. can do.

이때, 차량 객채 {Car}의 경우 비교 객체를 통한 예외처리보다 레이블을 지우는 것이 효과적이기 때문에 오탐지 데이터로 정의하지 않고 레이블링 정보를 삭제한다.In this case, in the case of the vehicle object {Car}, since it is more effective to delete the label than to handle an exception through a comparison object, the labeling information is deleted without defining it as false detection data.

또한, 하나의 영상 내에는 다수의 대상 객체가 존재할 수 있고 다수의 대상 객체는 정탐지되거나 오탐지될 수 있다. 따라서 실시예에서는 오탐지된 대상 객체가 존재하는 영역 즉, 오탐지된 객체 박스를 제외한 나머지 영역을 모두 제거하고자 한다.Also, a plurality of target objects may exist in one image, and the plurality of target objects may be positively detected or falsely detected. Therefore, in the embodiment, the region in which the false-detected target object exists, that is, all regions except for the false-detected object box are removed.

이를 통해 본 실시예는 불확실한 추론 정보나 미탐지 정보의 재학습을 방지하여 오탐지 영상의 재학습으로 인한 기존 정탐지율 저하 가능성을 최소화할 수 있다.Through this, the present embodiment prevents re-learning of uncertain inference information or non-detection information, thereby minimizing the possibility of a decrease in the existing positive detection rate due to re-learning of false positive images.

도 4c 내지 도 4d를 참조하면, 그 일예로, 실시예에 따른 정의부(530)는 대상 객체가 보행자인 보행자 오탐지 데이터의 영상에서 보행자 오류객체가 존재하는 영역을 제외한 나머지 영역을 모두 제거할 수 있다.4C to 4D, as an example, the definition unit 530 according to the embodiment removes all areas except for the area in which the pedestrian error object exists from the image of the pedestrian false detection data in which the target object is a pedestrian. can

다른 예로, 실시예에 따른 정의부(530)는 대상 객체가 화재인 화재 오탐지 데이터의 영상에서 화재 오류객체가 존재하는 영역을 제외한 나머지 영역을 모두 제거할 수 있다.As another example, the definition unit 530 according to the embodiment may remove all areas other than the area in which the fire error object exists from the image of the fire false detection data in which the target object is fire.

정의부(530)는 오탐지된 객체만이 존재하는 영역을 제외한 나머지 영역이 모두 제거된 영상과 변경된 레이블링 정보를 포함하는 오탐지 데이터를 정의할 수 있다.The definition unit 530 may define false detection data including an image in which all regions except for a region in which only a false detection object exists, and the changed labeling information.

도 5는 본 발명의 실시예에 따른 딥러닝 모델을 학습시키기 위한 방법을 나타내는 도면이다.5 is a diagram illustrating a method for training a deep learning model according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 딥러닝 모델을 학습시키기 위한 장치(이하, 학습 장치라고 한다)는 미리 정해진 다양한 환경 조건 하에서 획득된 기준 영상을 수집할 수 있다(S511).Referring to FIG. 5 , an apparatus (hereinafter, referred to as a learning apparatus) for training a deep learning model according to an embodiment of the present invention may collect reference images obtained under various predetermined environmental conditions (S511).

다음으로, 학습 장치는 수집된 기준 영상을 포함하는 학습용 영상 빅데이터를 구축할 수 있다(S512).Next, the learning apparatus may build big data for learning including the collected reference image (S512).

다음으로, 학습 장치는 학습용 영상 빅데이터를 기초로 각 기준 영상으로부터 관심 영역의 영상을 추출하여 추출된 관심 영역의 영상으로부터 학습 대상 객체를 추출하고, 추출된 학습 대상 객체를 포함하는 학습용 데이터 셋을 구축할 수 있다(S513).Next, the learning apparatus extracts an image of a region of interest from each reference image based on the image big data for learning, extracts a learning target object from the extracted image of the region of interest, and generates a training data set including the extracted learning target object. It can be built (S513).

다음으로, 학습 장치는 구축된 학습용 데이터 셋을 기초로 딥러닝 모델을 학습시킬 수 있다(S514).Next, the learning apparatus may train the deep learning model based on the constructed training data set (S514).

한편, 학습 장치는 미리 정해진 위치에서 실시간으로 획득된 감시 영상을 수집할 수 있다(S521).On the other hand, the learning apparatus may collect the monitoring image acquired in real time at a predetermined location (S521).

다음으로, 학습 장치는 학습된 딥러닝 모델을 기초로 수집된 감시 영상 내 대상 객체를 추론하고(S522), 추론된 대상 객체를 기초로 유고 상황을 판단하여 그 판단한 결과로 대상 객체와 유고 상황을 포함하는 유고상황 데이터를 생성할 수 있다(S523).Next, the learning device infers the target object in the surveillance image collected based on the learned deep learning model (S522), determines the existence situation based on the inferred target object, and determines the target object and the existence situation as a result of the determination It is possible to generate the emergency situation data including (S523).

이때, 학습 장치는 생성된 유고상황 데이터를 기초로 감시 영상을 표시할 수 있다(S524). 즉, 학습 장치는 유고상황 데이터에 포함된 대상 객체와 유고 상황을 감시 영상에 결합하여 표시할 수 있다.In this case, the learning apparatus may display the monitoring image based on the generated incident data (S524). That is, the learning apparatus may display the target object included in the emergency situation data and the emergency situation by combining it with the monitoring image.

다음으로, 학습 장치는 생성된 유고상황 데이터를 분석하여 분석한 결과로 정탐지 데이터와 오탐지 데이터로 분류하고, 이렇게 분류된 데이터 중 오탐지 데이터만을 다시 세분화하여 다수의 객체 오탐지 데이터로 분류할 수 있다(S525).Next, the learning device analyzes the generated incident data and classifies it into forward detection data and false detection data as a result of the analysis, and re-segments only the false detection data among the classified data to classify it into multiple object false detection data. It can be (S525).

다음으로, 학습 장치는 분류된 다수의 객체 오탐지 데이터에서 대상 객체의 레이블링 클래스명에 오탐지 객체임을 나타내기 위한 정보를 삽입하여 오탐지 데이터로 정의할 수 있다(S526).Next, the learning apparatus may define the false detection data by inserting information indicating that the object is a false detection object in the labeling class name of the target object in the classified plurality of object false detection data (S526).

다음으로, 학습 장치는 정의된 적어도 하나의 객체 오탐지 데이터를 학습용 데이터 셋에 추가하여 학습용 데이터 셋을 확장시킬 수 있다(S527).Next, the learning apparatus may extend the training data set by adding the defined at least one object false detection data to the training data set ( S527 ).

다음으로, 학습 장치는 확장된 학습용 데이터 셋 즉, 레이블링된 학습용 데이터 셋과 레이블링되지 않은 오탐지 데이터를 기초로 딥러닝 모델을 재 학습시켜 업데이트할 수 있다(S528).Next, the learning apparatus may re-train and update the deep learning model based on the extended training dataset, that is, the labeled training dataset and the unlabeled false positive data (S528).

딥러닝 기반 터널 CCTV 영상유고 시스템의 기본 개념 및 시스템 구성도가 완성되었으며, 실제 시스템을 터널 관제센터 현장에 설치 및 모니터링을 진행하고 있다.The basic concept and system configuration diagram of the deep learning-based tunnel CCTV image retention system has been completed, and the actual system is being installed and monitored at the tunnel control center site.

1. 딥러닝 기반 터널 CCTV 영상유고 시스템 기본 개념1. Basic concept of deep learning-based tunnel CCTV video retention system

딥러닝 기반 터널 CCTV 영상유고 시스템은 우선 일정 프레임 간격 주기마다 터널 내 CCTV 정지영상을 입력값으로 하여 딥러닝 모델이 정지영상 내에 존재하는 차량, 화재, 보행자 객체를 구분하여 위치와 크기를 직사각형의 경계박스(bounding box)로 나타낸다. 이 단계에서 화재와 보행자가 발생하는 유고상황을 검출할 수 있다. 그 다음, 정지영상에서 인식된 차량 객체를 바탕으로 객체 추적을 하며, 객체 인식과정보다 긴 일정 프레임 주기마다 정차 및 역주행을 판단한다. 객체 추적 과정은 이전 프레임 주기와 현재 프레임 주기에서 검출된 차량 객체들을 서로 비교하여 겹치는 면적 비율이 일정 값 이상인 객체 쌍이 존재할 때, 객체 번호를 부여하여 동일한 객체로 인식시킨다. 정차 및 역주행의 판단은 이전 프레임 주기와 현재 프레임 주기에서 동일한 객체 번호를 가진 차량 객체 쌍에 대해서 시행하는데, 정차는 겹치는 면적 비율이 0.9 이상일 때, 역주행은 터널 진행방향 반대로 주행하면서 겹치는 선 길이 비율이 0.75 미만일 때 각각 정차와 역주행으로 판단한다. 이 내용은 딥러닝 기반 터널 CCTV 영상유고 시스템의 핵심과정이며, 현장에서 설치할 전 주기 시스템은 9채널의 카메라를 동시에 감시할 수 있도록 CCTV 영상을 입력받아 핵심 과정에서 활용할 수 있도록 영상을 전처리하는 전처리 과정과 핵심과정, 터널 관제센터에서 직접 유고상황을 확인할 수 있는 유고상황 표출 과정으로 구성되어 있다. 딥러닝 학습 과정은 현장에서 학습하지 않으며, 다른 장소에서 학습한 다음 2주~1개월마다 비정기적으로 전주기 시스템의 딥러닝 모델을 갱신한다.The deep learning-based tunnel CCTV image retention system first takes the CCTV still image in the tunnel as an input value at regular frame intervals, and the deep learning model classifies the vehicle, fire, and pedestrian objects that exist in the still image to determine the location and size of the rectangular boundary. It is represented by a bounding box. At this stage, it is possible to detect a disaster situation in which a fire and pedestrians occur. Then, the object is tracked based on the vehicle object recognized in the still image, and the stopping and reverse driving are determined at regular frame periods longer than the object recognition process. In the object tracking process, vehicle objects detected in the previous frame period and the current frame period are compared with each other. Judgment of stopping and reverse running is performed on a pair of vehicle objects having the same object number in the previous frame period and the current frame period. When it is less than 0.75, it is judged as stopping and reverse driving, respectively. This content is the core process of the deep learning-based tunnel CCTV video retention system, and the entire cycle system to be installed at the site receives the CCTV video so that it can simultaneously monitor 9 channels of cameras, and preprocesses the video so that it can be used in the core process. It consists of a core process, and a process of expressing the emergency situation that can be directly checked at the tunnel control center. The deep learning learning process does not learn in the field, it learns in another place, and then periodically updates the deep learning model of the whole cycle system every two weeks to one month.

한편, 딥러닝을 포함한 기계학습(machine learning)에서 지도학습(supervised learning)은 입력값과 출력값이 포함된 레이블링 데이터(labeling data)를 학습하며, 데이터가 충분할 경우 다양하게 활용될 수 있어 가장 활발히 연구되고 있는 분야이다. 지도학습의 기본과정은 학습용 데이터와 추론용 데이터를 나누며, 학습용 데이터를 바탕으로 딥러닝 모델을 학습한다. 그리고 딥러닝 모델의 검증은 학습용 데이터의 재추론 인식 성능의 확인과 추론용 데이터의 인식 성능을 확인하는 것으로 실제 현장에 적용하였을 때 딥러닝 기반 시스템이 제대로 목표를 인식할 수 있는지 예측할 수 있다. 이 과정에서 딥러닝 모델의 인식 성능을 평가할 때 Table 1을 바탕으로 인식된 출력값의 유형을 4가지로 분류한 다음 평가한다.On the other hand, in machine learning including deep learning, supervised learning learns labeling data including input and output values, and when the data is sufficient, it can be used variously, so it is the most active research It is a field that is becoming The basic process of supervised learning divides data for learning and data for inference, and learns a deep learning model based on the data for learning. And the verification of the deep learning model is to check the re-inference recognition performance of the training data and the recognition performance of the inference data, and when applied to the actual field, it can be predicted whether the deep learning-based system can properly recognize the target. In this process, when evaluating the recognition performance of the deep learning model, the types of the recognized output values are classified into 4 types based on Table 1 and then evaluated.

CategoryCategory Predicted as PositivePredicted as Positive Predicted as NegativePredicted as Negative PositivePositive True Positive (TP)True Positive (TP) False Negative (FN)False Negative (FN) Negativenegative False Positive (FP)False Positive (FP) True Negative (TN)True Negative (TN)

상기 표 1에서 정답(positive)은 인식 대상 객체, 오답(negative)은 정답이 아닌 객체를 의미하며, 정답을 제대로 인식했을 경우에는 정탐지(true positive), 정답으로 인식했는데 오답일 경우 오탐지(false positive)에 해당된다. 오답을 제대로 인식하면 오답 탐지(true negative)이고, 오답으로 예측하였는데 실제로 정답이면 미탐지(false negative)에 해당된다. 대부분의 딥러닝 기반 시스템은 정탐지를 최대화하고 오탐지와 미탐지를 줄이는 방향으로 목표를 설정하므로 정탐지의 양적인 인식률을 평가하는 재현률(recall), 정탐지의 질적인 인식률을 평가하는 정밀도(precision)를 이용해 평균 정밀도(average precision) 값으로 평가하며 재현률, 정밀도와 평균 정밀도는 각각 수학식 1, 2, 3과 같이 나타낼 수 있다.In Table 1, the correct answer (positive) means the object to be recognized, and the wrong answer (negative) means an object that is not a correct answer. false positive). If the wrong answer is correctly recognized, it is a true negative. Most deep learning-based systems set goals in the direction of maximizing positive detection and reducing false positives and non-detections, so recall to evaluate the quantitative recognition rate of positive detection and precision to evaluate the qualitative recognition rate of positive detection. is evaluated as an average precision value using

[수학식 1][Equation 1]

Recall = TP / (TP + FN)Recall = TP / (TP + FN)

[수학식 2][Equation 2]

Precision = TP / (TP + FP)Precision = TP / (TP + FP)

[수학식 3][Equation 3]

Average Precision = ∫Precision(Recall)dRecallAverage Precision = ∫Precision(Recall)dRecall

평균 정밀도는 정탐지의 양과 질적인 측면을 모두 고려할 수 있는 지표이고, 0~1의 범위를 가진 스칼라값으로 표현가능하므로 레이블링 데이터에 대한 딥러닝 모델의 추론 정확도를 나타내는 표준적인 지표로 사용하고 있다.Average precision is an indicator that can consider both quantitative and qualitative aspects of forward detection, and can be expressed as a scalar value ranging from 0 to 1, so it is used as a standard indicator to indicate the inference accuracy of deep learning models for labeling data. .

2. 딥러닝 기반 터널 CCTV 영상유고 시스템 모니터링 현황2. Monitoring status of deep learning-based tunnel CCTV video retention system

딥러닝 기반 터널 CCTV 영상유고 시스템은 특정 고속도로 터널 관제 센터에 설치되어 운용을 시작하였다. 해당 터널 관제 센터는 폐쇄형 네트워크 기반 CCTV 카메라를 바탕으로 터널 및 도로를 감시하고 있으며, 유고상황이 발생할 경우 고속도로를 주행하고 있는 운전자에게 알리는 동시에 작업인력이 유고상황 이 발생한 현장으로 투입된다. 대부분의 터널 관제 센터는 국토교통부의 가이드라인에 의해 유고상황 감지 시스템을 설치하였다. 그러나 기존 유고상황 감지 시스템은 오탐지 발생의 빈번함으로 인해 낮은 신뢰성을 보이며 현장의 불필요한 확인작업과 사후조치 노력이 소요되면서, 유고상황 감지 시스템을 구비하였어도 운용하지 않고 육안으로 유고상황을 감시하고 있는 현장이 다수이다. 이 때문에 본 발명에서 개발된 딥러닝 기반 터널 CCTV 영상유고 시스템을 모니터링할 때, 정탐지가 되는지 확인하는 것이 가장 중요한 목표이지만 동시에 오탐지로 인식되는 경우를 줄이는 것 또한 중요하다. 딥러닝 기반 터널 CCTV 영상유고 시스템을 위해 레이블링 데이터로 딥러닝 모델을 학습하여 적용하고 모니터링을 시작하였다. 55일 동안 시스템을 모니터링한 결과, 차량 객체는 대체로 오탐지 객체 없이 상당히 정확하게 인식하였지만, 화재 객체와 보행자 객체는 꾸준히 오탐지된 객체가 발생하고 있었다.The deep learning-based tunnel CCTV video retention system was installed and operated at a specific highway tunnel control center. The tunnel control center monitors tunnels and roads based on closed network-based CCTV cameras. Most of the tunnel control centers have installed a disaster detection system according to the guidelines of the Ministry of Land, Infrastructure and Transport. However, the existing emergency detection system shows low reliability due to the frequent occurrence of false positives and requires unnecessary verification and follow-up efforts on the site. This is the majority. For this reason, when monitoring the deep learning-based tunnel CCTV image retention system developed in the present invention, it is the most important goal to check whether a correct detection is achieved, but at the same time, it is also important to reduce the case of being recognized as a false detection. For the deep learning-based tunnel CCTV image retention system, we learned and applied a deep learning model with labeling data and started monitoring. As a result of monitoring the system for 55 days, vehicle objects were generally recognized fairly accurately without false positive objects, but fire objects and pedestrian objects were consistently generating false detections.

도 6a 내지 도 6b는 딥러닝 기반 터널 CCTV 영상유고 시스템의 오탐지 발생 현황을 나타내는 그래프이다.6A to 6B are graphs showing the false detection status of a deep learning-based tunnel CCTV image retention system.

도 6a 내지 도 6b를 참조하면, 딥러닝 기반 터널 CCTV 영상유고 시스템을 설치한 뒤 55일 동안 모니터링하여 9채널의 카메라에서 발생한 화재와 보행자의 오탐지 발생 현황을 그래프로 나타내었다. 보행자는 최대 1000개, 하루에 200~400개의 오탐지가 발생하고 있었으며, 화재는 최대 120개, 하루에 0~40개의 오탐지가 발생하였다. 화재보다 보행자의 오탐지 개수가 훨씬 빈번하게 발생하고 있는데, 보행자의 객체의 인식이 훨씬 까다롭기 때문이다.6A to 6B, after installing the deep learning-based tunnel CCTV image retention system, monitoring was performed for 55 days, and the 9-channel camera fires and false detections of pedestrians were shown in graphs. Pedestrians were generating up to 1000 false positives, 200 to 400 false positives per day, and fires generated up to 120 false positives and 0 to 40 false positives per day. The number of false positives for pedestrians occurs much more frequently than for fires, because the recognition of pedestrian objects is much more difficult.

보행자 객체는 대체로 화재나 차량 객체보다 작은 크기를 가지고 있으며, 세로로 길쭉한 형상을 보인다. 게다가 차량 충돌사고가 발생할 경우 운전자는 차량의 상태를 확인하기 위해 차량 밖으로 나오게 되는데, 차량 주변에 붙어있는 모습이 CCTV에서 촬영된다. 이러한 현상을 이동객체간 겹침 현상이라고 하며, 보행자 객체와 차량 객체의 겹침 현상으로 인해 일반적인 딥러닝 모델의 학습법으로는 딥러닝 모델이 차량의 그림자나 차선과 보행자를 구분하기 쉽지 않다. 터널 내에서 화재가 발생할 수 있는 요소는 주로 차량에 의한 화재를 생각할 수 있다. 즉, 화재가 발생할 때 CCTV에서 촬영된 화재 객체의 크기는 최소 차량의 크기로 볼 수 있으며, 거대하게 일어나면 CCTV 화면 전체 영역을 차지할 정도로 크기 때문에 차량과 구분된다. 그러나 작업차량의 경광등이나 터널 입구부에서 반사되는 햇빛으로 인해 화재로 오인될 수 있으며, 도 6과 같은 오탐지 현상을 확인할 수 있었다.Pedestrian objects generally have a smaller size than fire or vehicle objects, and have a vertically elongated shape. In addition, in the event of a vehicle crash, the driver comes out of the vehicle to check the condition of the vehicle, and the image attached to the vehicle is captured by CCTV. This phenomenon is called the overlapping phenomenon between moving objects, and due to the overlapping phenomenon of pedestrian objects and vehicle objects, it is not easy for the deep learning model to distinguish between the shadow of a vehicle or a lane and pedestrians with a general deep learning model learning method. Factors that can cause a fire in a tunnel are mainly fires caused by vehicles. That is, when a fire occurs, the size of the fire object photographed in the CCTV can be seen as the size of the minimum vehicle, and when it occurs large, it is distinguished from the vehicle because it is large enough to occupy the entire area of the CCTV screen. However, it may be mistaken for a fire due to a warning light of the work vehicle or sunlight reflected from the tunnel entrance, and a false detection phenomenon as shown in FIG. 6 could be confirmed.

도 7은 도 5에 도시된 시스템에서 발생된 오탐지 샘플을 보여주는 도면이다.FIG. 7 is a diagram illustrating false positive samples generated in the system shown in FIG. 5 .

도 7을 참조하면, 딥러닝 기반 터널 CCTV 영상유고 시스템에 발생한 화재 및 보행자가 오탐지된 화면이다. 화재의 경우, (a), (c)와 같이 작업 차량의 경광등이 터널 내부에서 비치는 형상과 터널 입구부에서 대형 트럭의 뒷면이 햇빛에 반사되어 밝게 빛나는 형상이 화재로 오탐지 되고 있다. 그리고 보행자의 경우, (b), (d)와 같이 차량 객체의 검은 음영으로 되어 있는 일부 형상과 하얀 차선을 보행자로 인식하고 있었다. 이러한 문제는 딥러닝 모델의 학습에 사용했던 레이블링 데이터와 비교하였을 때 그 원인을 판단할 수 있다.Referring to FIG. 7 , it is a screen in which a fire and pedestrians are falsely detected in the deep learning-based tunnel CCTV image retention system. In the case of fire, as shown in (a) and (c), the shape of the work vehicle's warning light shining inside the tunnel and the back of the large truck at the entrance of the tunnel shining brightly reflected in sunlight are falsely detected as fire. And in the case of pedestrians, as shown in (b) and (d), some shapes in black shading of vehicle objects and white lanes were recognized as pedestrians. The cause of this problem can be determined when compared with the labeling data used for training the deep learning model.

도 8은 화재와 보행자에 대한 정탐지와 오탐지 간의 유사성을 설명하기 위한 도면이다.FIG. 8 is a diagram for explaining the similarity between forward detection and false detection of fire and pedestrians.

도 8을 참조하면, 화재와 보행자에 대하여 레이블링 데이터와 오탐지 데이터 샘플을 비교하였다. 각 정지영상의 전체적인 그림을 보면 레이블링 데이터와 오탐지 데이터 사이에 차이점이 존재한다는 것을 알 수 있다. 그러나 직사각형 의 경계박스만 놓고 비교하면 유사점이 존재하며, 화재의 경우 작업차량의 경광등과 실제 화재 형상이 상당히 유사하다. 보행자 객체도 마찬가지로 차량의 검은 음영과 실제 보행자만 놓고 보면 정확히 유사하진 않지만 딥러닝 모델이 충분히 보행자로 착각할 수 있을 만큼 유사한 편이었다. 따라서 딥러닝 모델에 대한 기존 레이블링 데이터의 학습만으로는 학습 외 영상에서 발생하는 오탐지 대처가 쉽지 않다.Referring to FIG. 8 , labeling data and false detection data samples for fire and pedestrians were compared. If you look at the overall picture of each still image, you can see that there is a difference between the labeling data and the false positive data. However, if we compare only the rectangular bounding box, there are similarities, and in the case of fire, the actual fire shape is quite similar to that of the warning light of the work vehicle. Similarly, the pedestrian object is not exactly similar to the black shading of the vehicle and the actual pedestrian, but it is similar enough that the deep learning model can be mistaken for a pedestrian. Therefore, it is not easy to deal with false positives occurring in images other than training only by learning the existing labeling data for the deep learning model.

3. 딥러닝 모델의 오탐지포함 학습방법 및 평가3. Learning method and evaluation including false detection of deep learning model

딥러닝 기반 CCTV 영상유고 시스템을 모니터링하면서 발생한 오탐지 데이터는 레이블링된 데이터의 학습으로 얻어진 딥러닝 모델의 한계를 보여주었으며, 낮은 시스템의 신뢰성을 보인다. 본 발명은 이러한 문제를 해결하기 위해 오탐지 데이터를 포함하여 딥러닝 모델을 학습하는 방법을 제안한다. 그리고 오탐지 데이터를 포함하여 학습하는 방법의 유효성을 검증하기 위해 레이블링 데이터에 대한 재추론 성능과 오탐지 데이터에 대한 인식 성능을 측정하여 레이블링 데이터만 학습된 딥러닝 모델과 오탐지 데이터를 포함한 딥러닝 모델을 비교할 것이다.The false-detection data generated while monitoring the deep learning-based CCTV image retention system showed the limitations of the deep learning model obtained by learning the labeled data, and showed low system reliability. In order to solve this problem, the present invention proposes a method for learning a deep learning model including false-positive data. And in order to validate the learning method including false-positive data, we measure the re-inference performance on the labeling data and the recognition performance on the false-positive data to measure the deep learning model trained only on the labeling data and the deep learning including the false-positive data. We will compare the models.

3.1 딥러닝 모델의 오탐지 포함 학습방법3.1 Learning method including false detection of deep learning model

본 발명에서 제안하는 딥러닝 모델의 오탐지 포함 학습방법은 도 8과 같은 절차로 진행되며, 터널 관제센터에 설치되어 있는 딥러닝 기반 CCTV 영상유고 시스템의 모니터링 과정에서 확인된 오탐지 데이터의 확보가 전제된다.The learning method including false detection of the deep learning model proposed in the present invention proceeds with the same procedure as in FIG. 8, and the securing of false detection data confirmed in the monitoring process of the deep learning-based CCTV image retention system installed in the tunnel control center is presupposed

도 9는 오탐지 데이터를 포함하는 딥러닝 학습 프로세스를 나타내는 도면이다.9 is a diagram illustrating a deep learning learning process including false detection data.

도 9를 참조하면, 딥러닝 모델의 오탐지 포함 학습방법은 먼저 레이블링 데이터로 딥러닝 모델을 학습시킨 다음, 검증을 통해 딥러닝 모델의 객체 인식능력을 확인하여 터널 관제센터 현장에 설치된 시스템에 딥러닝 모델을 적용한다. 그리고 비정기적으로 터널 관제센터 현장을 방문하여 지금까지 탐지된 유고상황 데이터를 수집하여 분석한 뒤, 오탐지 데이터와 정탐지 데이터를 분류한다. 오탐지 데이터에서 학습에 사용할 객체는 현장에서 상대적으로 정확하게 인식된 차량을 제외한 보행자, 화재 2가지이며, 딥러닝 모델의 학습에 사용할 클래스를 각각 화재 오탐지(false fire)과 보행자 오탐지(false person)으로 정의하여 오탐지 데이터셋을 제작한다. 제작된 오탐지 데이터셋은 레이블링 데이터와 같이 딥러닝 모델의 학습에 사용되며, 다시 딥러닝 모델을 검증하여 이상이 없으면 터널 관제센터 현장에 적용중인 딥러닝 모델을 교체시킨다. 이러한 과정을 반복하여 오탐지 데이터를 추가하여 학습시킬수록 딥러닝 모델의 오탐지 인식이 시스템 수정없이 자동으로 저감되며, 레이블링 데이터의 재추론 또한 수학식 2에서 오탐지의 개수가 감소하므로 추론 성능이 자동 향상되는 효과를 기대할 수 있다.Referring to FIG. 9 , the deep learning model including false detection learning method first trains the deep learning model with labeling data, and then checks the object recognition ability of the deep learning model through verification, and then dips the deep learning model into the system installed at the tunnel control center site. Apply the learning model. Then, the site visits the tunnel control center on an irregular basis, collects and analyzes the data of the accidental situation detected so far, and then classifies the false-detection data and the forward-detection data. Objects to be used for training from false detection data are pedestrians and fires, excluding vehicles that are relatively accurately recognized in the field. ) to create a false detection dataset. The produced false-detection dataset is used for training of the deep learning model like the labeling data, and if there is no abnormality by verifying the deep learning model again, the deep learning model applied to the tunnel control center site is replaced. By repeating this process and adding false positive data to learn, the recognition of false positives in the deep learning model is automatically reduced without system modification. An automatic improvement effect can be expected.

3.2 딥러닝 모델 성능 평가3.2 Deep Learning Model Performance Evaluation

본 발명에서 제안한 딥러닝 모델의 오탐지 포함 학습방법은 레이블링 데이터의 추가 없이 현장에서 발생된 오탐지 데이터를 추가하여 학습하므로 레이블링 데이터의 제작에 소요되는 시간과 비용을 절약할 수 있다. 이 방법을 검증하기 위하여 기존 레이블링 데이터로 학습한 모델과 오탐지 데이터를 추가한 다음, 학습한 딥러닝 모델을 비교하여 딥러닝 모델의 객체인식 성능을 평가한다. 객체인식 성능의 평가는 레이블링 데이터의 재추론 성능과 오탐지 데이터 인식 저감 성능을 비교하여 딥러닝 모델의 오탐지 포함 학습방법의 실효성을 평가할 것이다.The learning method including false detection of the deep learning model proposed in the present invention learns by adding false detection data generated in the field without adding labeling data, so that it is possible to save time and cost for producing labeling data. To verify this method, the object recognition performance of the deep learning model is evaluated by adding the model trained with the existing labeling data and the false detection data, and then comparing the learned deep learning model. The evaluation of object recognition performance will evaluate the effectiveness of the learning method including false detection of the deep learning model by comparing the re-inference performance of the labeling data and the recognition reduction performance of the false detection data.

3.2.1 레이블링 및 오탐지 빅데이터 현황3.2.1 Labeling and false-detection big data status

딥러닝 모델의 학습에 사용할 레이블링 및 오탐지 데이터의 현황은 표 2와 같다. AA~DD 데이터셋은 전부 수동으로 레이블링된 데이터이며, 총 70,914장의 정지영상에서 441,670개의 차량과 49721개의 보행자, 857개의 화재 객체가 존재한다. 딥러닝 모델의 학습대상 객체는 차량, 보행자와 화재이고, 도로 터널에서 촬영된 영상이므로 레이블링 데이터에서 차량 객체의 개수가 가장 많다. 그 다음 보행자와 화재 순서로 객체가 많은데, 화재의 객체수가 적은 것은 일반적으로 도로 터널 내에서 화재가 발생하는 경우가 드물며 화재와 관련된 유고영상의 확보가 쉽지 않기 때문이다. 이러한 이유로 인해 화재 객체의 다양성이 떨어지는 문제점을 안고 딥러닝 모델을 학습한다.Table 2 shows the status of labeling and false-positive data to be used for deep learning model training. The AA~DD datasets are all manually labeled data, and there are 441,670 vehicles, 49721 pedestrians, and 857 fire objects in a total of 70,914 still images. The learning objects of the deep learning model are vehicles, pedestrians, and fires, and since the images are taken from road tunnels, the number of vehicle objects is the largest in the labeling data. Next, there are many objects in the order of pedestrians and fires. The reason why the number of fire objects is small is that generally, fires rarely occur in road tunnels and it is not easy to secure an original image related to the fire. For this reason, we learn the deep learning model with the problem of decreasing the diversity of fire objects.

표 2에서 오탐지 데이터는 현장적용 단계에서 자동으로 도출된 오탐 데이터를 의미하며, FP data 1은 화재 오탐지의 개수와 보행자 오탐지의 개수가 1:2의 비율로 구성되고 FP data 2는 보행자 오탐지 데이터가 지배적이다. FP data 1은 화재 오탐지와 보행자 오탐지를 동시에 저감되는 효과를 검토하기 위해 구성된 데이터이고, FP data2는 보행자 오탐지의 저감 효과 검토를 주목적으로 하여 구성된 데이터이다. 이렇게 구성된 것은 레이블링 데이터에서 화재 객체수가 적어서 딥러닝 모델을 적용한 현장에서 발생하는 화재 오탐지의 유형이 단순하므로 화재 오탐지의 저감이 용이하기 때문이다. 또한 레이블링 데이터에서 화재 오탐지를 터널 내 경광등, 차량의 후미등, 작업차량의 경광등 등의 불빛을 화재 오탐지로 정의하였으므로 FP data 1에서 화재 오탐지로 정의된 객체 데이터691개를 포함하고 FP data 2에서는 22개만 포함되었다. 반면 보행자 오탐지의 경우, 규모에 따른 오탐지 저감효과를 확인하기 위하여 FP data 1에서는 1357개, FP data 2에서는 7999개의 보행자 오탐지 데이터를 포함한다.In Table 2, false detection data means false positive data automatically derived in the field application stage. FP data 1 is the ratio of the number of false fire detections to the number of false pedestrian detections in a ratio of 1:2, and FP data 2 is for pedestrians. False positive data dominates. FP data 1 is data constructed to examine the effect of simultaneously reducing false fire detection and pedestrian false detection, and FP data 2 is data constructed for the main purpose of reviewing the reduction effect of false pedestrian detection. This configuration is because the number of fire objects in the labeling data is small, so the type of false fire detection that occurs at the site to which the deep learning model is applied is simple, so it is easy to reduce false fire detections. In addition, since the false fire detection in the labeling data was defined as the light of the tunnel warning light, the tail lamp of the vehicle, and the warning light of the working vehicle as the false fire detection, FP data 1 includes 691 object data defined as false fire detections, and FP data 2 Only 22 were included. On the other hand, in the case of pedestrian false positives, FP data 1 includes 1357 data and FP data 2 includes 7999 pedestrian false positives to confirm the effect of reducing false positives according to the scale.

Data categoryData category Number of imagesNumber of images CarCar PersonPerson FireFire False_fireFalse_fire False_personFalse_person AAAA 3883138831 219292219292 2661226612 00 181984181984 00 BBbb 873873 00 00 857857 713713 00 CCCC 74717471 5229652296 90429042 00 17511751 00 DDDD 2373923739 175138175138 1148711487 00 00 00 FP data1FP data1 20412041 00 00 00 691691 13571357 FP data2FP data2 80078007 00 00 00 2222 79997999

3.2.2 딥러닝 모델에 따른 데이터 구성 및 평가방법상기 표 2에서 서술한 레이블링 데이터와 오탐지 데이터를 바탕으로 학습에 사용될 데이터셋을 구성하였으며, 목적에 따라 표 3과 같이 3개의 유형으로 나누었다. 표 3에서 Model 1은 레이블링 데이터만 학습하며, 오탐지 데이터를 추가하여 학습한 Model 2, Model 3을 비교하기 위해 학습된 모델이다. Model 2는 FP data 1 오탐지 데이터셋을 추가하였으며, 화재 오탐지와 보행자 오탐지를 한번에 저감하는 효과를 검토하기 위한 목적을 가진다. 마지막으로 Model 3은 Model 2보다 확실한 보행자 오탐지의 저감 효과 검토를 위해 FP data 1과 FP data 2를 추가하여 학습을 진행한다.3.2.2 Data composition and evaluation method according to the deep learning model Based on the labeling data and false detection data described in Table 2 above, a dataset to be used for learning was constructed and divided into three types as shown in Table 3 according to the purpose. In Table 3, Model 1 learns only the labeling data, and it is a trained model to compare Model 2 and Model 3 learned by adding false-positive data. Model 2 added the FP data 1 false detection dataset, and has the purpose of examining the effect of reducing false fire detection and pedestrian false detection at the same time. Finally, Model 3 proceeds with learning by adding FP data 1 and FP data 2 to examine the reduction effect of false pedestrian detection more reliable than Model 2.

Model namemodel name Including datasetIncluding dataset Model1Model1 Labeled datasetLabeled dataset Model2Model2 Labeled dataset + FP data1Labeled dataset + FP data1 Model3Model3 Labeled dataset + FP data1 + FP data2Labeled dataset + FP data1 + FP data2

이러한 모델 조건을 기반으로 하여 표 4와 같은 딥러닝 모델 학습 조건으로 학습을 진행한다. 딥러닝 모델은 딥러닝 객체인식 분야에서 널리 쓰이고 있는 Faster R-CNN (Regional Convolutional Neural Network)을 사용한다. 그래픽카드는 NVIDIA GTX 1070 8 GB를 사용하며, 리눅스 환경에서 딥러닝 모델의 학습 및 추론을 진행하였다. 각 모델마다 10 epoch씩 학습하였다.Based on these model conditions, learning proceeds with the deep learning model learning conditions shown in Table 4. The deep learning model uses Faster R-CNN (Regional Convolutional Neural Network), which is widely used in the field of deep learning object recognition. The graphics card uses NVIDIA GTX 1070 8 GB, and deep learning model training and inference were performed in a Linux environment. Each model was trained for 10 epochs.

Deep learning modeldeep learning model Faster R-CNNFaster R-CNN GPUGPU NVIDIA GTX 1070 8 GBNVIDIA GTX 1070 8 GB OSOS Linuxmint 18.3Linuxmint 18.3 EpochEpoch 1010

딥러닝 모델의 평가는 레이블링 데이터에 대한 재추론, 보행자 오탐지 데이터의 인식 개수, 딥러닝 모델 현장적용 후 화재 오탐지 데이터의 인식현황을 확인한다. 레이블링 데이터를 재추론하여 기존 레이블링 데이터만 학습한 Model 1과 비교하여 차량, 화재, 보행자 객체인식 능력이 향상되었는지 비교평가를 진행한다. 보행자 오탐지 데이터의 경우, 딥러닝 모델의 학습에 사용한 보행자 오탐지 개수에 따른 보행자 오탐지의 저감성능을 평가하며, Model 2에 사용한 보행자 오탐지 데이터와 Model 3에 사용한 보행자 오탐지 데이터를 따로 평가한다. 화재 오탐지의 경우, Model 2를 현장에 적용한 뒤 모니터링하여 화재 오탐지가 저감되었는지 직접 확인한다.3.2.3 레이블링 데이터에 대한 재추론 평가The evaluation of the deep learning model checks the re-inference of the labeling data, the number of recognition of false pedestrian detection data, and the recognition status of the false fire detection data after applying the deep learning model to the field. By reinferring the labeling data, a comparative evaluation is performed to see if the vehicle, fire, and pedestrian object recognition ability is improved compared with Model 1, which learned only the existing labeling data. In the case of pedestrian false detection data, the reduction performance of pedestrian false detections is evaluated according to the number of false pedestrian detections used for training the deep learning model, and the pedestrian false detection data used in Model 2 and the pedestrian false detection data used in Model 3 are evaluated separately. do. In the case of false fire detection, apply Model 2 to the site and monitor it to directly check whether false fire detection has been reduced. 3.2.3 Reinference evaluation of labeling data

각 딥러닝 모델에 따른 레이블링 데이터에 대한 재추론 결과는 다음의 도 10과 같다.The re-inference result for the labeling data according to each deep learning model is shown in FIG. 10 below.

도 10은 딥러닝 모델의 레이블링 데이터에 대한 재추론 결과를 보여주는 그래프이다.10 is a graph showing the re-inference result for the labeling data of the deep learning model.

도 10을 참조하면, 차량과 보행자의 경우, Model 1과 비교해 Model 2와 Model 3의 객체인식 성능이 더 뛰어난 결과를 보여준다. 이러한 결과는 오탐지 데이터를 포함하여 학습하면 기존 레이블링 데이터의 객체인식 능력을 저해하지 않으며, 오히려 객체인식 능력을 향상시킬 수 있었다. 차량은 Model 2와 Model 3이 비슷한 객체인식 능력을 보이지만, 보행자의 경우 오탐지 데이터를 더 추가하여 학습한 Model 3이 Model 2보다 더 나은 보행자 객체인식 능력을 보였다. 다시 말하면 보행자 객체 클래스에서 보행자 오탐지 데이터를 추가하여 학습할수록 보행자에 대한 오탐지의 저감능력이 향상된다고 할 수 있다. 한 편, 화재의 객체인식 능력은 0.9의 AP값으로 Model 1, Model 2와 Model 3이 같은 값을 가지는데, 레이블링 데이터에서 화재의 객체 수가 적고 화재에 대한 학습 난이도가 낮기 때문에 3개의 모델이 모두 주어진 데이터에서 화재 객체에 대하여 완전하게 학습되었다.Referring to FIG. 10 , in the case of a vehicle and a pedestrian, the object recognition performance of Model 2 and Model 3 is better than that of Model 1. As a result, learning including false-detection data did not impair the object recognition ability of the existing labeling data, but rather improved the object recognition ability. For vehicles, Model 2 and Model 3 showed similar object recognition ability, but in the case of pedestrians, Model 3, which was learned by adding more false-detection data, showed better pedestrian object recognition ability than Model 2. In other words, it can be said that the ability to reduce false positives for pedestrians is improved as the pedestrian object class adds and learns the pedestrian false detection data. On the other hand, the fire object recognition ability has an AP value of 0.9, and Model 1, Model 2, and Model 3 have the same value. From the data given, the fire object was fully trained.

3.2.4 오탐지 데이터의 인식개수 평가3.2.4 Evaluation of the number of recognition of false positive data

레이블링 데이터를 재추론함으로써 차량 객체인식 성능의 향상, 보행자 오탐지의 저감에 따른 보행자 객체인식 성능의 향상, 일관성 있게 유지된 화재의 객체인식 성능을 확인할 수 있었다. 그러나 보행자 오탐지와 화재 오탐지의 저감 성능을 직접적으로 확인하기 위해서는 오탐지 데이터를 직접 추론하는 작업과 현장에 오탐지를 포함하여 적용한 딥러닝 모델을 모니터링하는 작업이 필요하다.By re-inferring the labeling data, it was possible to confirm the improvement of vehicle object recognition performance, the improvement of pedestrian object recognition performance according to the reduction of false pedestrian detection, and the consistently maintained fire object recognition performance. However, in order to directly check the performance of reducing false positives for pedestrians and fires, it is necessary to directly infer false detection data and to monitor a deep learning model applied to the field including false detections.

딥러닝 모델에 대한 보행자 오탐지 저감성능에 대한 평가는 표 5와 같이 오탐지 데이터를 포함한 Model 2와 Model 3을 대상으로 하였으며, 각각 Model 2에서 학습된 보행자 오탐지 데이터 1357개와 Model 3에서 사용된 보행자 오탐지 데이터 9358개에 대하여 재추론하였다.The evaluation of the pedestrian false detection reduction performance of the deep learning model was targeted for Model 2 and Model 3 including false detection data as shown in Table 5. We re-inferred on 9358 false-positive data for pedestrians.

Target modeltarget model Number of detected persons as FPNumber of detected persons as FP 1357 Negative examples1357 Negative examples 9358 Negative examples9358 Negative examples Model2Model2 329329 32703270 Model3Model3 3434 466466

보행자 오탐지 데이터에 대한 재추론 결과는 Model 3가 훨씬 우수한 오탐지 저감성능을 보였다. 먼저 1357개의 보행자 오탐지에 대하여 추론한 경우, Model 2의 329개와 비교하여 Model 3은 34개만 오탐지가 발생하였다. 그리고 9358개의 보행자 오탐지를 추론한 결과, Model 2는 3270개의 보행자 오탐지를 발생시켰으며, Model 3은 466개의 보행자 오탐지만 발생하였다. 종합적으로 판단하면 Model 2는 추론 대상 보행자 오탐지 데이터의 24%, 35%의 비율로 보행자 오탐지를 발생시켰지만, Model 3은 2.5%, 5%의 비율만 보행자 오탐지를 발생시켰다. 따라서 Model 2보다 많은 보행자 오탐지 데이터를 추가하여 학습한 Model 3의 보행자 오탐지의 저감성능이 뛰어나다고 할 수 있다.As a result of re-inference on pedestrian false-detection data, Model 3 showed much better performance in reducing false-detection. First, when inferring 1357 false positives for pedestrians, only 34 false positives occurred in Model 3 compared to 329 in Model 2. And as a result of inferring 9358 false positives for pedestrians, Model 2 generated 3270 false positives for pedestrians, and Model 3 generated only 466 false positives for pedestrians. Comprehensively, Model 2 generated pedestrian false positives at a rate of 24% and 35% of the inferred pedestrian false positive data, whereas Model 3 generated false pedestrian false positives only at 2.5% and 5% of the inferred pedestrian false positives data. Therefore, it can be said that Model 3, which was learned by adding more pedestrian false detection data than Model 2, has excellent performance in reducing false pedestrian detection.

도 11은 딥러닝 모델의 현장 적용에 대한 모니터링 현황을 보여주는 그래프이다.11 is a graph showing the monitoring status for field application of the deep learning model.

도 11을 참조하면, 화재 오탐지의 저감성능 확인을 위한 딥러닝 모델 현장 적용에 대한 모니터링 현황으로, 도 5에서 화재에 대한 모니터링 현황과 이어지며, 딥러닝 모델의 현장 설치 후 55일까지 모델1을 사용하고 56일부터 모델2를 사용하였다.Referring to FIG. 11 , it is the monitoring status of the application of the deep learning model to the field to confirm the reduction performance of false fire detection, and it is connected with the monitoring status of the fire in FIG. 5, and until 55 days after the field installation of the deep learning model, Model 1 , and model 2 was used from the 56th day.

그 결과, 모델1에서는 최대 120개, 보통 0~40개의 화재 오탐지가 발생되었지만, 모델2를 적용한 시점 이후로 0~3개의 화재 오탐지만 발생되었다. 모델2에서 사용된 화재 오탐지의 데이터 개수는 FP data 1에서 691개인데, 이 데이터만으로도 확실하게 화재 오탐지를 저감시킬 수 있었다. 그러나 화재 레이블링 데이터의 개수는 857개로 많지 않은 편이므로 보행자 오탐지와 비교하면 화재 오탐지의 저감이 훨씬 용이한 것으로 판단할 수 있다.As a result, in Model 1, a maximum of 120 false fire detections, usually 0 to 40, occurred, but only 0 to 3 false fire detections occurred after the time when Model 2 was applied. The number of data of false fire detection used in Model 2 is 691 in FP data 1, and this data alone could certainly reduce false fire detection. However, since the number of fire labeling data is not much at 857, it can be judged that the reduction of false fire detection is much easier compared to false detection of pedestrians.

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~ unit' used in this embodiment means software or a hardware component such as a field-programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '-part' is not limited to software or hardware. The '~ unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

100: 영상 획득부
200: 데이터 구축부
300: 모델 학습부
400: 객체 추론부
500: 오탐지 정의부
100: image acquisition unit
200: data construction unit
300: model learning unit
400: object inference unit
500: false positive definition unit

Claims (12)

영상을 획득하는 영상 획득부;
상기 영상 획득부로부터 획득된 기준 영상을 기초로 학습용 영상 빅데이터를 구축하고 상기 구축된 학습용 영상 빅데이터의 상기 기준 영상으로부터 학습 대상 객체를 추출하여 상기 추출된 학습 대상 객체를 기초로 딥러닝 모델을 학습시키는 모델 학습부;
상기 학습된 딥러닝 모델을 기초로 상기 영상 획득부로부터 제공 받는 감시 영상 내 대상 객체를 추론하여 상기 추론된 결과로 유고상황 데이터를 생성하는 객체 추론부; 및
상기 생성된 유고상황 데이터를 정탐지 데이터와 오탐지 데이터로 분류하고, 상기 분류된 오탐지 데이터를 미리 정해진 오탐지 대상 객체에 대한 적어도 하나의 객체 오탐지 데이터로 정의하는 오탐지 정의부를 포함하고,
상기 모델 학습부는,
상기 학습용 영상 빅데이터에 상기 정의된 적어도 하나의 객체 오탐지 데이터를 추가시켜 상기 딥러닝 모델을 재 학습시키는, 딥러닝 모델을 학습시키기 위한 장치.
an image acquisition unit for acquiring an image;
Building image big data for learning based on the reference image obtained from the image acquisition unit, extracting a learning object from the reference image of the constructed image big data for learning, a deep learning model based on the extracted learning object a model learning unit for learning;
an object inference unit for inferring a target object in the surveillance image provided from the image acquisition unit based on the learned deep learning model, and generating emergency situation data as a result of the inference; and
A false detection definition unit for classifying the generated accidental situation data into forward detection data and false detection data, and defining the classified false detection data as at least one object false detection data for a predetermined false detection target object;
The model learning unit,
An apparatus for learning a deep learning model, which re-trains the deep learning model by adding the defined at least one object false detection data to the training image big data.
제1항에 있어서,
상기 오탐지 정의부는,
상기 유고상황 데이터로부터 정탐지와 오탐지를 사용자로부터 지정받아 상기 정탐지 데이터와 상기 오탐지 데이터를 분류하는, 딥러닝 모델을 학습시키기 위한 장치.
According to claim 1,
The false detection definition unit,
An apparatus for training a deep learning model by receiving a designation of a forward detection and a false detection from a user from the accidental situation data and classifying the forward detection data and the false detection data.
제1항에 있어서,
상기 미리 정해진 오탐지 대상 객체는 제1 대상 객체와 제2 대상 객체를 포함하고,
상기 오탐지 정의부는,
상기 오탐지 데이터를 상기 제1 대상 객체와 상기 제2 대상 객체 중 적어도 상기 제2 대상 객체에 대한 객체 오탐지 데이터로 정의하는, 딥러닝 모델을 학습시키기 위한 장치.
According to claim 1,
The predetermined false detection target object includes a first target object and a second target object,
The false detection definition unit,
An apparatus for training a deep learning model, defining the false detection data as object false detection data for at least the second target object among the first target object and the second target object.
제3항에 있어서,
상기 오탐지 데이터는 오탐지된 영상과 상기 오탐지 영상 내 오탐지 대상 객체에 대한 레이블링 정보를 포함하고,
상기 오탐지 정의부는,
상기 오탐지 대상 객체가 상기 제1 대상 객체인 경우 해당 대상 객체의 레이블링 정보를 제거하고,
상기 오탐지 대상 객체가 상기 제2 대상 객체인 경우 해당 대상 객체의 레이블링 정보 중 객체 클래스명을 오탐지 대상 객체임을 나타내기 위한 오류객체로 변경하는, 딥러닝 모델을 학습시키기 위한 장치.
4. The method of claim 3,
The false detection data includes a false detection image and labeling information on a false detection target object in the false detection image,
The false detection definition unit,
When the false detection target object is the first target object, the labeling information of the corresponding target object is removed,
When the false detection target object is the second target object, an apparatus for learning a deep learning model that changes an object class name in labeling information of the corresponding target object to an error object for indicating that it is a false detection target object.
제4항에 있어서,
상기 오탐지 정의부는,
상기 오탐지 대상 객체가 상기 제2 대상 객체인 경우 상기 오탐지 영상의 해당 오탐지 대상 객체가 존재하는 영역을 제외한 나머지 영역을 제거하는, 딥러닝 모델을 학습시키기 위한 장치.
5. The method of claim 4,
The false detection definition unit,
When the false detection target object is the second target object, an apparatus for training a deep learning model by removing a region other than a region in which a corresponding false detection target object of the false detection image exists.
제5항에 있어서,
상기 오탐지 정의부는,
상기 오탐지 대상 객체가 존재하는 영역을 제외한 나머지 영역이 모두 제거된 오탐지 영상과 상기 변경된 레이블링 정보를 포함하는 오탐지 데이터를 해당 오탐지 객체 대상에 대한 오탐지 데이터로 정의하는, 딥러닝 모델을 학습시키기 위한 장치.
6. The method of claim 5,
The false detection definition unit,
A deep learning model that defines false detection data including the false detection image and the changed labeling information from which all areas except the area in which the false detection target object exists are false detection data for the corresponding false detection object target. device for learning.
영상 획득부로부터 획득된 기준 영상을 기초로 학습용 영상 빅데이터를 구축하고 상기 구축된 학습용 영상 빅데이터의 상기 기준 영상으로부터 학습 대상 객체를 추출하여 상기 추출된 학습 대상 객체를 기초로 딥러닝 모델을 학습시키는 단계;
상기 학습된 딥러닝 모델을 기초로 상기 영상 획득부로부터 제공 받는 감시 영상 내 대상 객체를 추론하여 상기 추론된 결과로 유고상황 데이터를 생성하는 단계; 및
상기 생성된 유고상황 데이터를 정탐지 데이터와 오탐지 데이터로 분류하고, 상기 분류된 오탐지 데이터를 미리 정해진 오탐지 대상 객체에 대한 적어도 하나의 객체 오탐지 데이터로 정의하는 단계; 및
상기 정의된 적어도 하나의 객체 오탐지 데이터를 상기 학습용 영상 빅데이터에 추가시켜 상기 딥러닝 모델을 재 학습시키는 단계를 포함하는, 딥러닝 모델을 학습시키기 위한 방법.
Building image big data for learning based on the reference image obtained from the image acquisition unit, extracting a learning object from the reference image of the constructed image big data for learning, and learning a deep learning model based on the extracted learning object making;
inferring a target object in the surveillance image provided from the image acquisition unit based on the learned deep learning model and generating emergency situation data as the inferred result; and
classifying the generated emergency situation data into forward detection data and false detection data, and defining the classified false detection data as at least one object false detection data for a predetermined false detection target object; and
A method for learning a deep learning model, comprising the step of re-learning the deep learning model by adding the defined at least one object false detection data to the image big data for training.
제7항에 있어서,
상기 정의하는 단계에서는,
상기 유고상황 데이터로부터 정탐지와 오탐지를 사용자로부터 지정받아 상기 정탐지 데이터와 상기 오탐지 데이터를 분류하는, 딥러닝 모델을 학습시키기 위한 방법.
8. The method of claim 7,
In the above definition step,
A method for training a deep learning model, receiving a designation of a forward detection and a false detection from a user from the accidental situation data and classifying the forward detection data and the false detection data.
제8항에 있어서,
상기 미리 정해진 오탐지 대상 객체는 제1 대상 객체와 제2 대상 객체를 포함하고,
상기 정의하는 단계에서는,
상기 오탐지 데이터를 상기 제1 대상 객체와 상기 제2 대상 객체 중 적어도 상기 제2 대상 객체에 대한 객체 오탐지 데이터로 정의하는, 딥러닝 모델을 학습시키기 위한 방법.
9. The method of claim 8,
The predetermined false detection target object includes a first target object and a second target object,
In the above definition step,
A method for training a deep learning model, defining the false detection data as object false detection data for at least the second target object among the first target object and the second target object.
제7항에 있어서,
상기 오탐지 데이터는 오탐지된 영상과 상기 오탐지 영상 내 오탐지 대상 객체에 대한 레이블링 정보를 포함하고,
상기 정의하는 단계에서는,
상기 오탐지 대상 객체가 상기 제1 대상 객체인 경우 해당 대상 객체의 레이블링 정보를 제거하고,
상기 오탐지 대상 객체가 상기 제2 대상 객체인 경우 해당 대상 객체의 레이블링 정보 중 객체 클래스명을 오탐지 대상 객체임을 나타내기 위한 오류객체로 변경하는, 딥러닝 모델을 학습시키기 위한 방법.
8. The method of claim 7,
The false detection data includes a false detection image and labeling information on a false detection target object in the false detection image,
In the above definition step,
When the false detection target object is the first target object, the labeling information of the corresponding target object is removed,
When the false detection target object is the second target object, a method for training a deep learning model by changing an object class name in labeling information of the corresponding target object to an error object for indicating that it is a false detection target object.
제10항에 있어서,
상기 정의하는 단계에서는,
상기 오탐지 대상 객체가 상기 제2 대상 객체인 경우 상기 오탐지 영상의 해당 오탐지 대상 객체가 존재하는 영역을 제외한 나머지 영역을 제거하는, 딥러닝 모델을 학습시키기 위한 방법.
11. The method of claim 10,
In the above definition step,
When the false detection target object is the second target object, the method for training a deep learning model by removing the remaining areas except for the area in which the corresponding false detection target object of the false detection image exists.
제11항에 있어서,
상기 정의하는 단계에서는,
상기 오탐지 대상 객체가 존재하는 영역을 제외한 나머지 영역이 모두 제거된 오탐지 영상과 상기 변경된 레이블링 정보를 포함하는 오탐지 데이터를 해당 오탐지 객체 대상에 대한 오탐지 데이터로 정의하는, 딥러닝 모델을 학습시키기 위한 방법.
12. The method of claim 11,
In the above definition step,
A deep learning model that defines false detection data including the false detection image and the changed labeling information from which all areas except the area in which the false detection target object exists are false detection data for the corresponding false detection object target. How to learn.
KR1020200064272A 2020-04-29 2020-05-28 Apparatus for learning deep learning model and method thereof KR102500975B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200052441 2020-04-29
KR1020200052441 2020-04-29

Publications (2)

Publication Number Publication Date
KR20210133827A true KR20210133827A (en) 2021-11-08
KR102500975B1 KR102500975B1 (en) 2023-02-21

Family

ID=78497177

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200064272A KR102500975B1 (en) 2020-04-29 2020-05-28 Apparatus for learning deep learning model and method thereof

Country Status (1)

Country Link
KR (1) KR102500975B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102508537B1 (en) * 2022-01-11 2023-03-09 주식회사 시온테크 Reverse driving prevention system
KR102521725B1 (en) * 2022-06-30 2023-04-17 주식회사 아이미츠 Fire detection system based on artificial intelligence, fire detection device and method thereof
KR20230085001A (en) 2021-12-06 2023-06-13 한국전자기술연구원 Method and system for creating deep learning model based on setting optimization strategy for intellignent object detection

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160097690A (en) * 2015-02-09 2016-08-18 한화테크윈 주식회사 Method for detecting object and surveillance system adopting the method
KR20200044182A (en) * 2018-10-05 2020-04-29 삼성전자주식회사 Method for recognizing object and autonomous driving device therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160097690A (en) * 2015-02-09 2016-08-18 한화테크윈 주식회사 Method for detecting object and surveillance system adopting the method
KR20200044182A (en) * 2018-10-05 2020-04-29 삼성전자주식회사 Method for recognizing object and autonomous driving device therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230085001A (en) 2021-12-06 2023-06-13 한국전자기술연구원 Method and system for creating deep learning model based on setting optimization strategy for intellignent object detection
KR102508537B1 (en) * 2022-01-11 2023-03-09 주식회사 시온테크 Reverse driving prevention system
KR102521725B1 (en) * 2022-06-30 2023-04-17 주식회사 아이미츠 Fire detection system based on artificial intelligence, fire detection device and method thereof

Also Published As

Publication number Publication date
KR102500975B1 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
Zhang et al. Automated detection of grade-crossing-trespassing near misses based on computer vision analysis of surveillance video data
US8614744B2 (en) Area monitoring using prototypical tracks
KR20210133827A (en) Apparatus for learning deep learning model and method thereof
US8744125B2 (en) Clustering-based object classification
Bird et al. Real time, online detection of abandoned objects in public areas
CN103069434B (en) For the method and system of multi-mode video case index
CN103517042B (en) A kind of nursing house old man's hazardous act monitoring method
CN101587622B (en) Forest rocket detecting and identifying method and apparatus based on video image intelligent analysis
KR20200071799A (en) object recognition and counting method using deep learning artificial intelligence technology
CN110222596B (en) Driver behavior analysis anti-cheating method based on vision
KR101040049B1 (en) Fast and robust method for tracking the multiple moving objects in video-based surveillance system
CN113484858A (en) Intrusion detection method and system
CA3196344A1 (en) Rail feature identification system
CN109001210B (en) System and method for detecting aging and cracking of sealing rubber strip of civil air defense door
CN111783700B (en) Automatic recognition and early warning method and system for pavement foreign matters
CN112598865B (en) Monitoring method and system for preventing cable line from being damaged by external force
CN104077571A (en) Method for detecting abnormal behavior of throng by adopting single-class serialization model
CN105741503A (en) Parking lot real time early warning method under present monitoring device
CN117294818A (en) Building site panoramic monitoring method for airport construction
CN117423157A (en) Mine abnormal video action understanding method combining migration learning and regional invasion
CN116311071A (en) Substation perimeter foreign matter identification method and system integrating frame difference and CA
CN111627224A (en) Vehicle speed abnormality detection method, device, equipment and storage medium
CN114581863A (en) Vehicle dangerous state identification method and system
JP2023536692A (en) AI-based monitoring of racetracks
Al Jarouf et al. A hybrid method to detect and verify vehicle crash with haar-like features and svm over the web

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant