WO2023158068A1 - 객체검출률 향상을 위한 학습시스템 및 그 방법 - Google Patents

객체검출률 향상을 위한 학습시스템 및 그 방법 Download PDF

Info

Publication number
WO2023158068A1
WO2023158068A1 PCT/KR2022/018966 KR2022018966W WO2023158068A1 WO 2023158068 A1 WO2023158068 A1 WO 2023158068A1 KR 2022018966 W KR2022018966 W KR 2022018966W WO 2023158068 A1 WO2023158068 A1 WO 2023158068A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
condition
weather condition
meteorological
weather
Prior art date
Application number
PCT/KR2022/018966
Other languages
English (en)
French (fr)
Inventor
김승모
Original Assignee
김승모
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김승모 filed Critical 김승모
Publication of WO2023158068A1 publication Critical patent/WO2023158068A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Definitions

  • the present invention relates to a learning system and method for improving an object detection rate, and in particular, determines the meteorological condition of images collected by a data collection device, and provides a separate object detection module for each meteorological condition to convert data on a clear day to reference data. It relates to a learning system and method for improving the object detection rate that can increase the object detection rate by generating learning data by simulating each weather condition.
  • video equipment such as CCTVs and black boxes have been widely used in daily life.
  • the video captured by the video equipment is usefully used in various fields, and is particularly actively used in public order such as security and criminal investigation.
  • videos of multiple imaging devices are used to efficiently identify the moving path of a suspect or missing person.
  • image data is received from a data collection device such as a cctv, and an object is detected through a single detection model regardless of weather condition determination.
  • a data collection device such as a cctv
  • an object is detected through a single detection model regardless of weather condition determination.
  • the input data on a clear (clear) day has little noise, so there is no problem in object detection, but in weather conditions such as rainfall, snowfall, fog, and fine dust, the corresponding weather condition becomes noise and object detection is not performed properly. can occur
  • the present invention determines the meteorological condition of the image collected by the data collection device, provides a separate object detection module for each meteorological condition, and simulates the data of a clear day for each meteorological condition using the data of a clear day as reference data to create learning data and increase the object detection rate. It aims to be able to increase.
  • a learning system for improving the object detection rate according to the present invention for achieving the above object is a data collection unit that collects basic data from a data collection device; receives weather data from a weather sensor, determines and classifies the weather conditions of the basic data and one or more object detection modules for each weather condition, each of the classified basic data determined by the meteorological condition determination unit being input data into an object detection module corresponding to each weather condition to obtain an object Its feature is that it includes; AI object detection unit for detecting.
  • the meteorological conditions are the first meteorological condition (clear sky), the second meteorological condition (rainfall), the third meteorological condition (snowfall), the fourth meteorological condition (fog), the fifth meteorological condition (fine dust), and the sixth meteorological condition. Its characteristic is that it is classified as a meteorological condition (other).
  • the meteorological sensor is characterized in that it transmits meteorological data about the meteorological condition of the location of the data collecting device to the meteorological state determining unit in conjunction with the data collecting device.
  • the AI object detection unit sets reference data, performs deep learning on the reference data, and simulates each weather condition on the reference data to generate learning data for each weather condition; and one or more objects for each weather condition. Its feature is that it includes; an object detection module including a detection module.
  • the data learning unit includes a reference data setting module for setting reference data for learning; and a learning module for copying the reference data for each weather condition and generating learning data for each weather condition using the same;
  • the reference data is characterized in that it is basic data classified as a first weather condition, which is a weather condition on a clear day.
  • the learning module is characterized in that it simulates each meteorological condition in reference data using a GAN algorithm and generates learning data for each meteorological condition using this.
  • the object detection unit may include: a first detection module receiving basic data classified as a first weather state as input data and detecting an object; a second detection module receiving basic data classified as a second weather state as input data and detecting an object; a third detection module receiving basic data classified as a third weather state as input data and detecting an object; A fourth detection module receiving basic data classified as a fourth weather state as input data and detecting an object; and a fifth detection module receiving basic data classified as a fifth weather state as input data and detecting an object.
  • the point has its characteristics.
  • the learning method for improving the object detection rate according to the present invention for achieving the above object includes collecting basic data from a data collection device; Determining and classifying weather conditions of the collected basic data; and inputting the basic data classified according to the weather conditions determined by the weather condition determination unit as input data to an object detection module corresponding to each weather condition to obtain an object Its feature is that it includes; detecting.
  • the meteorological conditions are the first meteorological condition (clear sky), the second meteorological condition (rainfall), the third meteorological condition (snowfall), the fourth meteorological condition (fog), the fifth meteorological condition (fine dust), and the sixth meteorological condition. Its characteristic is that it is classified as a meteorological condition (other).
  • the meteorological sensor is characterized in that it transmits meteorological data about the meteorological condition of the location of the data collecting device to the meteorological state determining unit in conjunction with the data collecting device.
  • the step of detecting an object by inputting the basic data classified according to the weather condition determined by the weather condition determination unit to an object detection module corresponding to each weather condition as input data includes setting reference data; Copying the reference data for each weather condition and generating learning data for each weather condition using the same; and receiving basic data classified as each weather condition as input data and detecting an object; It has a characteristic.
  • the reference data is characterized in that it is basic data classified as a first weather condition, which is a weather condition on a clear day.
  • the step of simulating the reference data for each weather condition and generating learning data for each weather condition using the same simulates each weather condition for the reference data using a GAN algorithm and learns for each weather condition using the GAN algorithm. It is characterized by the fact that it generates data.
  • the step of detecting an object by receiving basic data classified as each weather state as input data; is performed by an object detector, and the object detector receives basic data classified as the first weather state as input data and detects an object.
  • a first detection module for detecting a second detection module receiving basic data classified as a second weather state as input data and detecting an object; a third detection module receiving basic data classified as a third weather state as input data and detecting an object;
  • a fourth detection module receiving basic data classified as a fourth weather state as input data and detecting an object; and a fifth detection module receiving basic data classified as a fifth weather state as input data and detecting an object.
  • the point has its characteristics.
  • the meteorological condition of the image collected by the data collection device is determined, and a separate object detection module is provided for each meteorological condition to create learning data by copying the data of a clear day as reference data for each meteorological condition, detection rate can be increased.
  • FIG. 2 is a diagram showing the configuration of a learning system for improving an object detection rate according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing the configuration of the weather state determination unit and object detection unit of FIG. 2 .
  • FIG. 4 is a diagram showing the configuration of a learning method for improving an object detection rate according to an embodiment of the present invention.
  • one component when one component is referred to as “connected” or “connected” to another component, the one component may be directly connected or directly connected to the other component, but in particular Unless otherwise described, it should be understood that they may be connected or connected via another component in the middle.
  • FIG. 2 is a diagram showing the configuration of a learning system for improving an object detection rate according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing the configuration of the weather state determination unit and object detection unit of FIG. 2 .
  • the learning system for improving the object detection rate according to the present invention includes a data collection device 100, a data collection unit 200, a weather condition determination unit 300 and an AI object detection unit 400. consists of including
  • the data collection device 100 may be a device such as a CCTV or a black box in one embodiment. However, it is not limited thereto.
  • the data collection unit 200 collects basic data from the data collection device 100 .
  • the basic data may be, for example, image data. However, it is not limited thereto.
  • the collected basic data is stored in the basic data DB 51.
  • the meteorological state determination unit 300 receives meteorological data from the meteorological sensor 20 , determines and classifies the meteorological conditions of basic data collected in the data collection unit 200 .
  • the meteorological conditions may be grouped into settings.
  • the meteorological conditions include a first meteorological condition (clear sky), a second meteorological condition (rainfall), a third meteorological condition (snowfall), a fourth meteorological condition (fog), a fifth meteorological condition (fine dust), and a sixth meteorological condition (fine dust). It can be classified as a weather condition (other).
  • the classification is not limited to this as an example.
  • the meteorological condition determination unit 300 first determines which of the first to sixth meteorological conditions the collected basic data is, and converts the collected basic data according to the determined meteorological condition to the first weather condition. State ⁇ can be classified as one of the sixth weather conditions.
  • the meteorological sensor 20 may be interlocked with the data collection device 100 to transmit meteorological data about the meteorological condition of the location of the data collection device 100 to the meteorological condition determining unit 300 .
  • the meteorological state determination unit 300 combines the basic data received from the data collection unit 200 and the meteorological data received from the weather sensor 20 according to location information and time information to determine the weather condition of the basic data. and can be classified.
  • the classified basic data is stored in the classified data DB 52.
  • the AI object detection unit 400 includes one or more object detection modules for each weather condition, and uses the basic data classified according to the weather condition determined by the weather condition determination unit 300 as input data, respectively, corresponding to each weather condition.
  • the object is detected by inputting it to the object detection module.
  • the AI object detection unit 400 includes a data learning unit 410 and an object detection unit 420.
  • the data learning unit 410 sets reference data, performs deep learning on the reference data, and simulates each weather condition on the reference data to generate learning data for each weather condition.
  • the data learning unit 410 includes a reference data setting module 411 and a learning module 412.
  • the reference data setting module 411 may set reference data to proceed with learning. It is preferable to set the basic data classified as the first weather condition, which is a clear day, as the reference data, but is not limited thereto. However, in the present invention, it is limited to setting the basic data classified as the first weather condition, which is the basic data of a clear day with the least amount of noise, as the reference data.
  • the learning module 412 may copy the reference data for each weather condition and generate learning data for each weather condition using this. More specifically, the learning module 412 simulates each weather condition in reference data using a GAN algorithm and generates learning data for each weather condition using this. That is, the learning module 412 may generate first weather condition learning data by simulating the first weather condition (clear weather) using a GAN algorithm on the reference data of the first weather condition (clear weather). In addition, the learning module 412 may generate second weather condition learning data by simulating the second weather condition (rainfall) using a GAN algorithm on the reference data of the first weather condition (clear weather).
  • the learning module 412 may generate third weather condition learning data by simulating a third weather condition (snowfall) using a GAN algorithm on the reference data of the first weather condition (clear weather).
  • the learning module 412 may generate fourth weather condition learning data by simulating a fourth weather condition (fog) using a GAN algorithm on the reference data of the first weather condition (clear sky).
  • the learning module 412 may generate fifth weather condition learning data by simulating a fifth weather condition (fine dust) using a GAN algorithm on the reference data of the first weather condition (clear sky).
  • the generated learning data for each weather condition is stored in the learning data DB 53 for each weather condition.
  • the learning module 412 may re-learn the learning data for each weather condition using a GAN algorithm to continuously generate additional learning data for each weather condition.
  • the object detection unit 420 may include one or more object detection modules for each weather condition. More specifically, the object detection unit 420 receives the basic data classified as the first weather condition as input data and the first detection module 421 for detecting objects, and receives the basic data classified as the second weather condition as input data.
  • It may include a fourth detection module 424 for detecting an object and a fifth detection module 425 for detecting an object by receiving basic data classified as a fifth weather state as input data.
  • the first detection module 421 receives only the basic data determined as the first weather condition by the weather condition determination unit 300 as input data and performs object detection. When the first detection module 421 detects an object, it detects the object using only the first weather condition learning data of the learning data DB 53.
  • the second detection module 422 receives only the basic data determined as the second weather condition by the weather condition determination unit 300 as input data and performs object detection. When the second detection module 422 detects an object, it detects the object using only the second weather state learning data of the learning data DB 53.
  • the third detection module 423 receives only the basic data determined as the third weather condition by the weather condition determining unit 300 as input data and performs object detection. When detecting an object, the third detection module 423 performs object detection using only the third weather state learning data of the learning data DB 53.
  • the fourth detection module 424 receives only the basic data determined as the fourth weather condition by the weather condition determining unit 300 as input data and performs object detection. When detecting an object, the fourth detection module 424 performs object detection using only the fourth weather state learning data of the learning data DB 53 .
  • the fifth detection module 425 receives only the basic data determined as the fifth weather condition by the weather condition determination unit 300 as input data and performs object detection. When detecting an object, the fifth detection module 425 performs object detection using only the fifth weather state learning data of the learning data DB 53.
  • the present invention utilizes a detection module composed only of the meteorological state learning data according to the meteorological state input data in the object detection unit, so that various types of meteorological state input data are received as shown in FIG. 1 and a single model detection module is used.
  • the object detection rate can be improved and the object detection time can be shortened even in weather conditions such as rain, snowfall, fog, and fine dust.
  • FIG. 4 is a diagram showing the configuration of a learning method for improving an object detection rate according to an embodiment of the present invention.
  • a step of collecting basic data from the data collection device 100 is performed.
  • the step S100 is performed by the data collection unit 200 .
  • the data collection device 100 may be a device such as a CCTV or a black box in one embodiment. However, it is not limited thereto.
  • the data collection unit 200 collects basic data from the data collection device 100 .
  • the basic data may be, for example, image data. However, it is not limited thereto.
  • the collected basic data is stored in the basic data DB 51.
  • a step (S200) of determining and classifying the meteorological conditions of the collected basic data is performed.
  • the step S200 is performed by the meteorological condition determining unit 300 .
  • the meteorological state determination unit 300 receives meteorological data from the meteorological sensor 20 , determines and classifies the meteorological conditions of basic data collected in the data collection unit 200 .
  • the meteorological conditions may be grouped into settings.
  • the meteorological conditions include a first meteorological condition (clear sky), a second meteorological condition (rainfall), a third meteorological condition (snowfall), a fourth meteorological condition (fog), a fifth meteorological condition (fine dust), and a sixth meteorological condition (fine dust). It can be classified as a weather condition (other).
  • the classification is not limited to this as an example.
  • the meteorological condition determination unit 300 first determines which of the first to sixth meteorological conditions the collected basic data is, and converts the collected basic data according to the determined meteorological condition to the first weather condition. State ⁇ can be classified as one of the sixth weather conditions.
  • the meteorological sensor 20 may be interlocked with the data collection device 100 to transmit meteorological data about the meteorological condition of the location of the data collection device 100 to the meteorological condition determining unit 300 .
  • the meteorological state determination unit 300 combines the basic data received from the data collection unit 200 and the meteorological data received from the weather sensor 20 according to location information and time information to determine the weather condition of the basic data. and can be classified.
  • the classified basic data is stored in the classified data DB 52.
  • a step of detecting an object by inputting the basic data classified according to the weather condition determined by the weather condition determination unit 300 to an object detection module corresponding to each weather condition as input data (S300) is performed.
  • the above step S300 is performed by the AI object detection unit 400.
  • the AI object detection unit 400 includes a data learning unit 410 and an object detection unit 420.
  • the step S300 includes setting reference data (S310), copying the reference data for each weather condition, and using this to generate learning data for each weather condition (S320), and basic data classified for each weather condition. It may be performed including receiving as input data and detecting an object (S330).
  • the step S310 is performed by the reference data setting module 411
  • the step S320 is performed by the learning module 412
  • the step S330 is performed by the object detection unit 420.
  • the data learning unit 410 sets reference data, performs deep learning on the reference data, and simulates each weather condition on the reference data to generate learning data for each weather condition.
  • the data learning unit 410 includes a reference data setting module 411 and a learning module 412.
  • the reference data setting module 411 may set reference data to proceed with learning. It is preferable to set the basic data classified as the first weather condition, which is a clear day, as the reference data, but is not limited thereto. However, in the present invention, it is limited to setting the basic data classified as the first weather condition, which is the basic data of a clear day with the least amount of noise, as the reference data.
  • each meteorological condition may be simulated in the reference data using a GAN algorithm, and learning data for each meteorological condition may be generated using this.
  • the learning module 412 simulates each weather condition in the reference data using a GAN algorithm, and generates learning data for each weather condition using this. That is, the learning module 412 may generate first weather condition learning data by simulating the first weather condition (clear weather) using a GAN algorithm on the reference data of the first weather condition (clear weather).
  • the learning module 412 may generate second weather condition learning data by simulating the second weather condition (rainfall) using a GAN algorithm on the reference data of the first weather condition (clear weather).
  • the learning module 412 may generate third weather condition learning data by simulating a third weather condition (snowfall) using a GAN algorithm on the reference data of the first weather condition (clear weather).
  • the learning module 412 may generate fourth weather condition learning data by simulating a fourth weather condition (fog) using a GAN algorithm on the reference data of the first weather condition (clear sky).
  • the learning module 412 may generate fifth weather condition learning data by simulating a fifth weather condition (fine dust) using a GAN algorithm on the reference data of the first weather condition (clear sky).
  • the generated learning data for each weather condition is stored in the learning data DB 53 for each weather condition.
  • the object detection unit 420 may include one or more object detection modules for each weather condition. More specifically, the object detection unit 420 receives the basic data classified as the first weather condition as input data and the first detection module 421 for detecting objects, and receives the basic data classified as the second weather condition as input data.
  • It may include a fourth detection module 424 for detecting an object and a fifth detection module 425 for detecting an object by receiving basic data classified as a fifth weather state as input data.
  • the first detection module 421 receives only the basic data determined as the first weather condition by the weather condition determination unit 300 as input data and performs object detection. When the first detection module 421 detects an object, it detects the object using only the first weather condition learning data of the learning data DB 53.
  • the second detection module 422 receives only the basic data determined as the second weather condition by the weather condition determination unit 300 as input data and performs object detection. When the second detection module 422 detects an object, it detects the object using only the second weather condition learning data of the learning data DB 53.
  • the third detection module 423 receives only the basic data determined as the third weather condition by the weather condition determining unit 300 as input data and performs object detection. When detecting an object, the third detection module 423 performs object detection using only the third weather state learning data of the learning data DB 53.
  • the fourth detection module 424 receives only the basic data determined as the fourth weather condition by the weather condition determining unit 300 as input data and performs object detection. When detecting an object, the fourth detection module 424 performs object detection using only the fourth weather state learning data of the learning data DB 53 .
  • the fifth detection module 425 receives only the basic data determined as the fifth weather condition by the weather condition determination unit 300 as input data and performs object detection. When detecting an object, the fifth detection module 425 performs object detection using only the fifth weather state learning data of the learning data DB 53.
  • the learning system and method for improving the object detection rate according to the present invention can be used industrially in the related technical field.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 객체검출률 향상을 위한 학습시스템은, 데이터 수집장치로부터 기초데이터를 수집하는 데이터 수집부;기상센서로부터 기상데이터를 수신받아 상기 기초데이터의 기상상태를 판단하고 분류하는 기상상태 판단부;및기상상태별 하나 이상의 객체 검출모듈을 포함하고, 상기 기상상태 판단부에서 판단된 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출하는 AI 객체 검출부;를 포함하는 점에 그 특징이 있다. 본 발명에 따르면, 데이터 수집장치에서 수집된 영상의 기상상태를 판단하고, 기상상태별 별도의 객체 검출 모듈을 구비하여 청명한 날의 데이터를 기준데이터로 하여 기상상태별로 모사하여 학습데이터를 생성하여 객체검출률을 높일 수 있다.

Description

객체검출률 향상을 위한 학습시스템 및 그 방법
본 발명은 객체검출률 향상을 위한 학습시스템 및 그 방법에 관한 것으로, 특히 데이터 수집장치에서 수집된 영상의 기상상태를 판단하고, 기상상태별 별도의 객체 검출 모듈을 구비하여 청명한 날의 데이터를 기준데이터로 하여 기상상태별로 모사하여 학습데이터를 생성하여 객체검출률을 높일 수 있는 객체검출률 향상을 위한 학습시스템 및 그 방법에 관한 것이다.
최근 일상 생활 속에서 CCTV, 블랙박스 등의 영상 장비가 널리 사용되고 있다. 상기 영상 장비에 의해 촬영된 비디오는 다양한 분야에서 유용하게 사용되는 데, 특히 보안, 범죄 수사 등 치안 부분에서 활발히 이용되고 있다. 예를 들어, 용의자 혹은 실종자의 이동 경로 등을 효율적으로 파악하기 위해 다수의 영상 장비의 비디오를 이용한다.
종래에는 도 1과 같이 cctv와 같은 데이터 수집 장치로부터 영상데이터를 입력받아 기상상태 판단과 상관없이 단일 검출모델을 통해 객체를 검출하게된다. 이 때, 청명(맑음)한 날의 입력데이터는 노이즈가 적어 객체 검출에 문제가 없으나, 강우, 강설, 안개, 미세먼지와 같은 기상상태에서는 해당 기상상태가 노이즈가 되어 객체 검출이 제대로 되지 않는 문제가 생길 수 있다.
본 발명은 데이터 수집장치에서 수집된 영상의 기상상태를 판단하고, 기상상태별 별도의 객체 검출 모듈을 구비하여 청명한 날의 데이터를 기준데이터로 하여 기상상태별로 모사하여 학습데이터를 생성하여 객체검출률을 높일 수 있는 것을 목적으로 한다.
상기 과제를 달성하기 위한 본 발명에 따른 객체검출률 향상을 위한 학습시스템은, 데이터 수집장치로부터 기초데이터를 수집하는 데이터 수집부;기상센서로부터 기상데이터를 수신받아 상기 기초데이터의 기상상태를 판단하고 분류하는 기상상태 판단부;및기상상태별 하나 이상의 객체 검출모듈을 포함하고, 상기 기상상태 판단부에서 판단된 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출하는 AI 객체 검출부;를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 기상상태는 제1기상상태(청명), 제2기상상태(강우), 제3기상상태(강설), 제4기상상태(안개), 제5기상상태(미세먼지), 제6기상상태(기타)로 분류되는 점에 그 특징이 있다.
여기서, 특히 상기 기상센서는 상기 데이터 수집장치와 연동되어 상기 데이터 수집장치의 위치의 기상상태에 관한 기상데이터를 상기 기상상태 판단부에 전송하는 점에 그 특징이 있다.
여기서, 특히 상기 AI 객체 검출부는, 기준데이터를 설정하고 상기 기준데이터를 딥러닝 학습하여 기준데이터에 각 기상상태를 모사하여 기상상태별 학습데이터를 생성하는 데이터 학습부;및 기상상태별 하나 이상의 객체 검출모듈을 포함하는 객체 검출모듈;을 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 데이터 학습부는, 학습을 진행할 기준데이터를 설정하는 기준데이터 설정모듈;및 상기 기준데이터를 기상상태별로 모사하고, 이를 이용하여 각 기상상태별 학습데이터를 생성하는 학습모듈;을 포함하고, 상기 기준데이터는 청명한 날의 기상상태인 제1기상상태로 분류된 기초데이터인 점에 그 특징이 있다.
여기서, 특히 상기 학습모듈은 GAN 알고리즘을 이용하여 기준데이터에 각 기상상태를 모사하고 이를 이용하여 기상상태별 학습데이터를 생성하는 점에 그 특징이 있다.
여기서, 특히 상기 객체 검출부는, 제1기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제1검출모듈; 제2기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제2검출모듈; 제3기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제3검출모듈; 제4기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제4검출모듈;및 제5기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제5검출모듈;을 포함하는 점에 그 특징이 있다.
또한, 상기 과제를 달성하기 위한 본 발명에 따른 객체검출률 향상을 위한 학습방법은, 데이터 수집장치로부터 기초데이터를 수집하는 단계; 상기 수집된 기초데이터의 기상상태를 판단하고 분류하는 단계;및 기상상태 판단부에서 판단된 기상상태에 따라 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출하는 단계;를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 기상상태는 제1기상상태(청명), 제2기상상태(강우), 제3기상상태(강설), 제4기상상태(안개), 제5기상상태(미세먼지), 제6기상상태(기타)로 분류되는 점에 그 특징이 있다.
여기서, 특히 상기 기상센서는 상기 데이터 수집장치와 연동되어 상기 데이터 수집장치의 위치의 기상상태에 관한 기상데이터를 상기 기상상태 판단부에 전송하는 점에 그 특징이 있다.
여기서, 특히 기상상태 판단부에서 판단된 기상상태에 따라 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출하는 단계는, 기준데이터를 설정하는 단계; 상기 기준데이터를 기상상태별로 모사하고, 이를 이용하여 각 기상상태별 학습데이터를 생성하는 단계;및 각 기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 단계;를 포함하는 점에 그 특징이 있다.
여기서, 특히 상기 기준데이터는 청명한 날의 기상상태인 제1기상상태로 분류된 기초데이터인 점에 그 특징이 있다.
여기서, 특히 상기 기준데이터를 기상상태별로 모사하고, 이를 이용하여 각 기상상태별 학습데이터를 생성하는 단계;는, GAN 알고리즘을 이용하여 기준데이터에 각 기상상태를 모사하고 이를 이용하여 기상상태별 학습데이터를 생성하는 점에 그 특징이 있다.
여기서, 특히 각 기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 단계;는 객체 검출부에서 수행되고, 상기 객체 검출부는, 제1기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제1검출모듈; 제2기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제2검출모듈; 제3기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제3검출모듈; 제4기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제4검출모듈;및 제5기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제5검출모듈;을 포함하는 점에 그 특징이 있다.
본 발명에 따르면, 데이터 수집장치에서 수집된 영상의 기상상태를 판단하고, 기상상태별 별도의 객체 검출 모듈을 구비하여 청명한 날의 데이터를 기준데이터로 하여 기상상태별로 모사하여 학습데이터를 생성하여 객체검출률을 높일 수 있다.
도 1은 종래기술을 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 객체검출률 향상을 위한 학습시스템의 구성을 도시한 도면이다.
도 3은 도 2의 기상상태 판단부 및 객체검출부의 구성을 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 객체검출률 향상을 위한 학습방법의 구성을 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
이하, 본 발명의 바람직한 실시 예를 첨부한 도면에 의거하여 상세하게 설명하면 다음과 같다.
도 2는 본 발명의 일 실시 예에 따른 객체검출률 향상을 위한 학습시스템의 구성을 도시한 도면이다.
도 3은 도 2의 기상상태 판단부 및 객체검출부의 구성을 도시한 도면이다.
도 2 및 도 3을 참조하면, 본 발명에 따른 객체검출률 향상을 위한 학습시스템은 데이터 수집장치(100), 데이터 수집부(200), 기상상태 판단부(300) 및 AI 객체 검출부(400)를 포함하여 구성된다.
상기 데이터 수집장치(100)는 일 실시예로 CCTV, 블랙박스와 같은 장치일 수 있다. 다만, 이에 한정되지 않는다.
상기 데이터 수집부(200)는 상기 데이터 수집장치(100)로부터 기초데이터를 수집한다. 상기 기초데이터는 일 실시 예로, 영상데이터일 수 있다. 다만, 이에 한정되지 않는다.
상기 수집된 기초데이터는 기초데이터 DB(51)에 저장된다.
상기 기상상태 판단부(300)는 기상센서(20)로부터 기상데이터를 수신받아 데이터 수집부(200)에 수집된 기초데이터의 기상상태를 판단하고 분류한다. 상기 기상상태는 설정으로 기 분류될 수 있다. 일 실시 예로, 기상상태는 제1기상상태(청명), 제2기상상태(강우), 제3기상상태(강설), 제4기상상태(안개), 제5기상상태(미세먼지), 제6기상상태(기타)로 기 분류될 수 있다. 상기 분류는 하나의 실시 예로 이에 한정되지 않는다.
보다 구체적으로, 상기 기상상태 판단부(300)는 수집된 기초데이터를 제1기상상태 ~ 제6기상상태 중 어느 기상상태인지 먼저 판단하고, 판단된 기상상태에 따라 수집된 기초데이터를 제1기상상태 ~ 제6기상상태 중 어느 하나로 분류할 수 있다.
상기 기상센서(20)는 상기 데이터 수집장치(100)와 연동되어 상기 데이터 수집장치(100)의 위치의 기상상태에 관한 기상데이터를 상기 기상상태 판단부(300)에 전송할 수 있다. 상기 기상상태 판단부(300)는 데이터 수집부(200)에서 수신된 기초데이터와 상기 기상센서(20)에서 수신된 기상데이터를 위치정보 및 시간정보에 따라 조합하여 상기 기초데이터의 기상상태를 판단하고 분류할 수 있다.
상기 분류된 기초데이터는 분류데이터 DB(52)에 저장된다.
AI 객체 검출부(400)는 기상상태별 하나 이상의 객체 검출모듈을 포함하고, 상기 기상상태 판단부(300)에서 판단된 기상상태에 따라 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출한다.
상기 AI 객체 검출부(400)는 데이터 학습부(410) 및 객체 검출부(420)를 포함하여 구성된다.
상기 데이터 학습부(410)는 기준데이터를 설정하고, 상기 기준데이터를 딥러닝 학습하여 기준데이터에 각 기상상태를 모사하여 기상상태별 학습데이터를 생성한다.
상기 데이터 학습부(410)는 기준데이터 설정모듈(411) 및 학습모듈(412)을 포함하여 구성된다.
상기 기준데이터 설정모듈(411)은 학습을 진행할 기준데이터를 설정할 수 있다. 기준데이터는 청명한 날인 제1기상상태로 분류된 기초데이터를 기준데이터로 설정하는 것이 바람직하나 이에 한정되지 않는다. 다만, 본 발명에서는 노이즈가 가장 적은 청명한 날의 기초데이터인 제1기상상태로 분류된 기초데이터를 기준데이터로 설정하는 것으로 한정하고 설명하도록 한다.
상기 학습모듈(412)은 상기 기준데이터를 기상상태별로 모사하고, 이를 이용하여 각 기상상태별 학습데이터를 생성할 수 있다. 보다 구체적으로, 상기 학습모듈(412)은 GAN 알고리즘을 이용하여 기준데이터에 각 기상상태를 모사하고 이를 이용하여 기상상태별 학습데이터를 생성한다. 즉, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제1기상상태(청명)를 모사하여 제1기상상태 학습데이터를 생성할 수 있다. 또한, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제2기상상태(강우)를 모사하여 제2기상상태 학습데이터를 생성할 수 있다. 또한, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제3기상상태(강설)를 모사하여 제3기상상태 학습데이터를 생성할 수 있다. 또한, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제4기상상태(안개)를 모사하여 제4기상상태 학습데이터를 생성할 수 있다. 또한, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제5기상상태(미세먼지)를 모사하여 제5기상상태 학습데이터를 생성할 수 있다.
상기 생성된 기상상태별 학습데이터는 기상상태별로 학습데이터 DB(53)에 저장된다.
상기 학습모듈(412)은 상기 기상상태별 학습데이터를 GAN 알고리즘을 이용하여 다시 학습하여 추가적으로 기상상태별 학습데이터를 계속 생성할 수 있다.
상기 객체 검출부(420)는 기상상태별 하나 이상의 객체 검출모듈을 포함할 수 있다. 보다 구체적으로, 상기 객체 검출부(420)는 제1기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제1검출모듈(421), 제2기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제2검출모듈(422), 제3기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제3검출모듈(423), 제4기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제4검출모듈(424) 및 제5기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제5검출모듈(425)을 포함할 수 있다.
상기 제1검출모듈(421)은 상기 기상상태 판단부(300)에서 제1기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제1검출모듈(421)은 객체 검출 시, 학습데이터 DB(53)의 제1기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
상기 제2검출모듈(422)은 상기 기상상태 판단부(300)에서 제2기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제2검출모듈(422)은 객체 검출 시, 학습데이터 DB(53)의 제2기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
상기 제3검출모듈(423)은 상기 기상상태 판단부(300)에서 제3기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제3검출모듈(423)은 객체 검출 시, 학습데이터 DB(53)의 제3기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
상기 제4검출모듈(424)은 상기 기상상태 판단부(300)에서 제4기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제4검출모듈(424)은 객체 검출 시, 학습데이터 DB(53)의 제4기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
상기 제5검출모듈(425)은 상기 기상상태 판단부(300)에서 제5기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제5검출모듈(425)은 객체 검출 시, 학습데이터 DB(53)의 제5기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
본 발명은 상기 설명과 같이, 객체 검출부가 기상상태 입력데이터에 따라 해당 기상상태 학습데이터 만으로 구성된 검출모듈을 활용함으로써, 도 1과 같이 다종의 기상상태의 입력데이터를 입력받아 단일 모델의 검출모듈로 객체 검출을 하는 것과 대비하여, 강우, 강설, 안개, 미세먼지와 같은 기상일 때에도 객체검출률을 향상시킬수 있고 객체 검출시간을 단축시킬 수 있게 된다.
도 4는 본 발명의 일 실시 예에 따른 객체검출률 향상을 위한 학습방법의 구성을 도시한 도면이다.
도 4를 참조하면, 본 발명에 따른 객체검출률 향상을 위한 학습방법은, 먼저 데이터 수집장치(100)로부터 기초데이터를 수집하는 단계(S100)가 수행된다. 상기 S100 단계는 데이터 수집부(200)에서 수행된다.
상기 데이터 수집장치(100)는 일 실시예로 CCTV, 블랙박스와 같은 장치일 수 있다. 다만, 이에 한정되지 않는다.
상기 데이터 수집부(200)는 상기 데이터 수집장치(100)로부터 기초데이터를 수집한다. 상기 기초데이터는 일 실시 예로, 영상데이터일 수 있다. 다만, 이에 한정되지 않는다.
상기 수집된 기초데이터는 기초데이터 DB(51)에 저장된다.
이어서, 상기 수집된 기초데이터의 기상상태를 판단하고 분류하는 단계(S200)가 수행된다. 상기 S200 단계는 기상상태 판단부(300)에서 수행된다.
상기 기상상태 판단부(300)는 기상센서(20)로부터 기상데이터를 수신받아 데이터 수집부(200)에 수집된 기초데이터의 기상상태를 판단하고 분류한다. 상기 기상상태는 설정으로 기 분류될 수 있다. 일 실시 예로, 기상상태는 제1기상상태(청명), 제2기상상태(강우), 제3기상상태(강설), 제4기상상태(안개), 제5기상상태(미세먼지), 제6기상상태(기타)로 기 분류될 수 있다. 상기 분류는 하나의 실시 예로 이에 한정되지 않는다.
보다 구체적으로, 상기 기상상태 판단부(300)는 수집된 기초데이터를 제1기상상태 ~ 제6기상상태 중 어느 기상상태인지 먼저 판단하고, 판단된 기상상태에 따라 수집된 기초데이터를 제1기상상태 ~ 제6기상상태 중 어느 하나로 분류할 수 있다.
상기 기상센서(20)는 상기 데이터 수집장치(100)와 연동되어 상기 데이터 수집장치(100)의 위치의 기상상태에 관한 기상데이터를 상기 기상상태 판단부(300)에 전송할 수 있다. 상기 기상상태 판단부(300)는 데이터 수집부(200)에서 수신된 기초데이터와 상기 기상센서(20)에서 수신된 기상데이터를 위치정보 및 시간정보에 따라 조합하여 상기 기초데이터의 기상상태를 판단하고 분류할 수 있다.
상기 분류된 기초데이터는 분류데이터 DB(52)에 저장된다.
이이서, 기상상태 판단부(300)에서 판단된 기상상태에 따라 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출하는 단계(S300)가 수행된다.
상기 S300 단계는 AI 객체 검출부(400)에서 수행된다. 상기 AI 객체 검출부(400)는 데이터 학습부(410) 및 객체 검출부(420)를 포함하여 구성된다.
상기 S300 단계는, 기준데이터를 설정하는 단계(S310), 상기 기준데이터를 기상상태별로 모사하고, 이를 이용하여 각 기상상태별 학습데이터를 생성하는 단계(S320) 및 각 기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 단계(S330)를 포함하여 수행될 수 있다. 상기 S310 단계는 기준데이터 설정모듈(411)에서 수행되고, 상기 S320 단계는 학습모듈(412)에서 수행되고, 상기 S330 단계는 객체 검출부(420)에서 수행된다.
상기 데이터 학습부(410)는 기준데이터를 설정하고, 상기 기준데이터를 딥러닝 학습하여 기준데이터에 각 기상상태를 모사하여 기상상태별 학습데이터를 생성한다. 상기 데이터 학습부(410)는 기준데이터 설정모듈(411) 및 학습모듈(412)을 포함하여 구성된다.
상기 기준데이터 설정모듈(411)은 학습을 진행할 기준데이터를 설정할 수 있다. 기준데이터는 청명한 날인 제1기상상태로 분류된 기초데이터를 기준데이터로 설정하는 것이 바람직하나 이에 한정되지 않는다. 다만, 본 발명에서는 노이즈가 가장 적은 청명한 날의 기초데이터인 제1기상상태로 분류된 기초데이터를 기준데이터로 설정하는 것으로 한정하고 설명하도록 한다.
상기 S320 단계는 GAN 알고리즘을 이용하여 기준데이터에 각 기상상태를 모사하고 이를 이용하여 기상상태별 학습데이터를 생성할 수 있다. 보다 구체적으로, S320 단계에서 학습모듈(412)은 GAN 알고리즘을 이용하여 기준데이터에 각 기상상태를 모사하고 이를 이용하여 기상상태별 학습데이터를 생성한다. 즉, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제1기상상태(청명)를 모사하여 제1기상상태 학습데이터를 생성할 수 있다. 또한, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제2기상상태(강우)를 모사하여 제2기상상태 학습데이터를 생성할 수 있다. 또한, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제3기상상태(강설)를 모사하여 제3기상상태 학습데이터를 생성할 수 있다. 또한, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제4기상상태(안개)를 모사하여 제4기상상태 학습데이터를 생성할 수 있다. 또한, 상기 학습모듈(412)은 제1기상상태(청명)인 기준데이터에 GAN 알고리즘을 이용하여 제5기상상태(미세먼지)를 모사하여 제5기상상태 학습데이터를 생성할 수 있다.
상기 생성된 기상상태별 학습데이터는 기상상태별 학습데이터 DB(53)에 저장된다.
S330 단계에서 객체 검출부(420)는 기상상태별 하나 이상의 객체 검출모듈을 포함할 수 있다. 보다 구체적으로, 상기 객체 검출부(420)는 제1기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제1검출모듈(421), 제2기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제2검출모듈(422), 제3기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제3검출모듈(423), 제4기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제4검출모듈(424) 및 제5기상상태로 분류된 기초데이터를 입력데이터로 받아 객체 검출하는 제5검출모듈(425)을 포함할 수 있다.
상기 제1검출모듈(421)은 상기 기상상태 판단부(300)에서 제1기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제1검출모듈(421)은 객체 검출 시, 학습데이터 DB(53)의 제1기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
상기 제2검출모듈(422)은 상기 기상상태 판단부(300)에서 제2기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제2검출모듈(422)은 객체 검출 시, 학습데이터 DB(53)의 제2기상싱태 학습데이터만을 이용하여 객체 검출을 진행한다.
상기 제3검출모듈(423)은 상기 기상상태 판단부(300)에서 제3기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제3검출모듈(423)은 객체 검출 시, 학습데이터 DB(53)의 제3기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
상기 제4검출모듈(424)은 상기 기상상태 판단부(300)에서 제4기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제4검출모듈(424)은 객체 검출 시, 학습데이터 DB(53)의 제4기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
상기 제5검출모듈(425)은 상기 기상상태 판단부(300)에서 제5기상상태로 판단된 기초데이터만을 입력데이터로 받아 객체 검출을 진행한다. 상기 제5검출모듈(425)은 객체 검출 시, 학습데이터 DB(53)의 제5기상상태 학습데이터만을 이용하여 객체 검출을 진행한다.
본 발명의 권리범위는 상술한 실시 예에 한정되는 것이 아니라 첨부된 특허청구범위 내에서 다양한 형태의 실시 예로 구현될 수 있다. 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자라면 누구든지 변형 가능한 다양한 범위까지 본 발명의 청구범위 기재의 범위 내에 있는 것으로 본다.
본 발명에 따른 객체검출률 향상을 위한 학습시스템 및 그 방법은 해당 기술분야에서 산업상 이용가능하다.

Claims (14)

  1. 데이터 수집장치로부터 기초데이터를 수집하는 데이터 수집부;
    기상센서로부터 기상데이터를 수신받아 상기 기초데이터의 기상상태를 판단하고 분류하는 기상상태 판단부;및
    기상상태별 하나 이상의 객체 검출모듈을 포함하고, 상기 기상상태 판단부에서 판단된 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출하는 AI 객체 검출부;를 포함하는,
    객체검출률 향상을 위한 학습시스템.
  2. 제1항에 있어서,
    상기 기상상태는 제1기상상태(청명), 제2기상상태(강우), 제3기상상태(강설), 제4기상상태(안개), 제5기상상태(미세먼지), 제6기상상태(기타)로 분류되는,
    객체검출률 향상을 위한 학습시스템.
  3. 제2항에 있어서,
    상기 기상센서는 상기 데이터 수집장치와 연동되어 상기 데이터 수집장치의 위치의 기상상태에 관한 기상데이터를 상기 기상상태 판단부에 전송하는,
    객체검출률 향상을 위한 학습시스템.
  4. 제3항에 있어서,
    상기 AI 객체 검출부는,
    기준데이터를 설정하고 상기 기준데이터를 딥러닝 학습하여 기준데이터에 각 기상상태를 모사하여 기상상태별 학습데이터를 생성하는 데이터 학습부;및
    기상상태별 하나 이상의 객체 검출모듈을 포함하는 객체 검출부;를 포함하는,
    객체검출률 향상을 위한 학습시스템.
  5. 제4항에 있어서,
    상기 데이터 학습부는,
    학습을 진행할 기준데이터를 설정하는 기준데이터 설정모듈;및
    상기 기준데이터를 기상상태별로 모사하고, 이를 이용하여 각 기상상태별 학습데이터를 생성하는 학습모듈;을 포함하고,
    상기 기준데이터는 청명한 날의 기상상태인 제1기상상태로 분류된 기초데이터인,
    객체검출률 향상을 위한 학습시스템.
  6. 제5항에 있어서,
    상기 학습모듈은 GAN 알고리즘을 이용하여 기준데이터에 각 기상상태를 모사하고 이를 이용하여 기상상태별 학습데이터를 생성하는,
    객체검출률 향상을 위한 학습시스템.
  7. 제6항에 있어서,
    상기 객체 검출부는,
    제1기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제1검출모듈;
    제2기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제2검출모듈;
    제3기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제3검출모듈;
    제4기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제4검출모듈;및
    제5기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제5검출모듈;을 포함하는,
    객체검출률 향상을 위한 학습시스템.
  8. 데이터 수집장치로부터 기초데이터를 수집하는 단계;
    상기 수집된 기초데이터의 기상상태를 판단하고 분류하는 단계;및
    기상상태 판단부에서 판단된 기상상태에 따라 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출하는 단계;를 포함하는,
    객체검출률 향상을 위한 학습방법.
  9. 제8항에 있어서,
    상기 기상상태는 제1기상상태(청명), 제2기상상태(강우), 제3기상상태(강설), 제4기상상태(안개), 제5기상상태(미세먼지), 제6기상상태(기타)로 분류되는,
    객체검출률 향상을 위한 학습방법.
  10. 제9항에 있어서,
    상기 기상센서는 상기 데이터 수집장치와 연동되어 상기 데이터 수집장치의 위치의 기상상태에 관한 기상데이터를 상기 기상상태 판단부에 전송하는,
    객체검출률 향상을 위한 학습방법.
  11. 제10항에 있어서,
    기상상태 판단부에서 판단된 기상상태에 따라 분류된 기초데이터를 각각 입력데이터로 하여 각 기상상태에 해당하는 객체 검출모듈에 입력하여 객체를 검출하는 단계는,
    기준데이터를 설정하는 단계;
    상기 기준데이터를 기상상태별로 모사하고, 이를 이용하여 각 기상상태별 학습데이터를 생성하는 단계;및
    각 기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 단계;를 포함하는,
    객체검출률 향상을 위한 학습방법.
  12. 제11항에 있어서,
    상기 기준데이터는 청명한 날의 기상상태인 제1기상상태로 분류된 기초데이터인,
    객체검출률 향상을 위한 학습방법.
  13. 제12항에 있어서,
    상기 기준데이터를 기상상태별로 모사하고, 이를 이용하여 각 기상상태별 학습데이터를 생성하는 단계;는,
    GAN 알고리즘을 이용하여 기준데이터에 각 기상상태를 모사하고 이를 이용하여 기상상태별 학습데이터를 생성하는,
    객체검출률 향상을 위한 학습방법.
  14. 제13항에 있어서,
    각 기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 단계;는 객체 검출부에서 수행되고,
    상기 객체 검출부는,
    제1기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제1검출모듈;
    제2기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제2검출모듈;
    제3기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제3검출모듈;
    제4기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제4검출모듈;및
    제5기상상태로 분류된 기초데이터를 입력데이터로 받아 객체를 검출하는 제5검출모듈;을 포함하는,
    객체검출률 향상을 위한 학습방법.
PCT/KR2022/018966 2022-02-15 2022-11-28 객체검출률 향상을 위한 학습시스템 및 그 방법 WO2023158068A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0019521 2022-02-15
KR1020220019521A KR102468997B1 (ko) 2022-02-15 2022-02-15 객체검출률 향상을 위한 학습시스템 및 그 방법

Publications (1)

Publication Number Publication Date
WO2023158068A1 true WO2023158068A1 (ko) 2023-08-24

Family

ID=84234725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/018966 WO2023158068A1 (ko) 2022-02-15 2022-11-28 객체검출률 향상을 위한 학습시스템 및 그 방법

Country Status (2)

Country Link
KR (1) KR102468997B1 (ko)
WO (1) WO2023158068A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102468997B1 (ko) * 2022-02-15 2022-11-18 김승모 객체검출률 향상을 위한 학습시스템 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200027880A (ko) * 2018-09-04 2020-03-13 씨드로닉스(주) 객체 정보 획득 방법 및 이를 수행하는 장치
KR20210030573A (ko) * 2019-09-10 2021-03-18 한국전자통신연구원 신경망 기반 해상 영상 내 기상효과 조절 방법 및 장치
KR20220005142A (ko) * 2020-07-06 2022-01-13 이화여자대학교 산학협력단 인공지능 네트워크를 이용한 바람 벡터 예측 방법 및 분석장치
KR102468997B1 (ko) * 2022-02-15 2022-11-18 김승모 객체검출률 향상을 위한 학습시스템 및 그 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101998027B1 (ko) 2018-06-11 2019-07-08 인하대학교 산학협력단 악천후에서의 도로 객체 검출 기법 학습을 위한 안개 및 비 영상 합성 기법 및 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200027880A (ko) * 2018-09-04 2020-03-13 씨드로닉스(주) 객체 정보 획득 방법 및 이를 수행하는 장치
KR20210030573A (ko) * 2019-09-10 2021-03-18 한국전자통신연구원 신경망 기반 해상 영상 내 기상효과 조절 방법 및 장치
KR20220005142A (ko) * 2020-07-06 2022-01-13 이화여자대학교 산학협력단 인공지능 네트워크를 이용한 바람 벡터 예측 방법 및 분석장치
KR102468997B1 (ko) * 2022-02-15 2022-11-18 김승모 객체검출률 향상을 위한 학습시스템 및 그 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HEO-GEUN YOO, JOURNAL OF KOREA BIG DATA SOCIETY: "The Types of Road Weather Big Data and the Strategy for Their Use: Case Analysis", JEON YONG-JU, KIM GANG-HWA, SEUNGHYUN KIM, vol. 2, no. 2, 1 February 2017 (2017-02-01), pages 129 - 140, XP093085215 *
SHARMA TEENA, DEBAQUE BENOIT, DUCLOS NICOLAS, CHEHRI ABDELLAH, KINDER BRUNO, FORTIER PAUL: "Deep Learning-Based Object Detection and Scene Perception under Bad Weather Conditions", ELECTRONICS, vol. 11, no. 4, 13 February 2022 (2022-02-13), pages 563, XP093085217, DOI: 10.3390/electronics11040563 *

Also Published As

Publication number Publication date
KR102468997B1 (ko) 2022-11-18

Similar Documents

Publication Publication Date Title
WO2019107614A1 (ko) 제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템
WO2021020866A1 (ko) 원격 모니터링을 위한 영상 분석 시스템 및 방법
WO2013115470A1 (en) Integrated control system and method using surveillance camera for vehicle
WO2014061964A1 (ko) 화재 감지 방법 및 장치
WO2016171341A1 (ko) 클라우드 기반 병리 분석 시스템 및 방법
WO2014051337A1 (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
WO2019164074A1 (ko) 미세 먼지 분석 방법 및 이를 수행하기 위한 장치
WO2023158068A1 (ko) 객체검출률 향상을 위한 학습시스템 및 그 방법
WO2012064115A9 (ko) 폐쇄회로 텔레비전 카메라를 이용한 실시간 화재 감시 시스템 및 그 방법
WO2018216948A1 (ko) 인공신경망 분석에 근거한 복합적 물체 인식 시스템 및 방법
WO2016125941A1 (ko) 환경 오염 예측 시스템 및 방법
WO2018151503A2 (ko) 제스처 인식 방법 및 장치
WO2019088335A1 (ko) 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
WO2015182904A1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
WO2020032506A1 (ko) 시각 감지 시스템 및 이를 이용한 시각 감지 방법
WO2021172833A1 (ko) 물체 인식 장치, 물체 인식 방법 및 이를 수행하기 위한 컴퓨터 판독 가능한 기록 매체
WO2018143486A1 (ko) 딥러닝 분석을 위한 모듈화시스템을 이용한 컨텐츠 제공 방법
WO2012137994A1 (ko) 영상인식장치 및 그 영상 감시방법
WO2019124731A1 (ko) 군집화와 딥러닝을 이용한 멀티플렉싱 신호 처리 장치 및 방법
WO2023128186A1 (ko) 멀티-모달 비디오 캡셔닝 기반 영상 보안 시스템 및 방법
WO2013022170A1 (ko) 영상 입력 기기의 접속 장애 판별 장치 및 접속 장애 판별 방법
WO2014058165A1 (ko) 단일객체의 크기를 추정하는 영상 감시장치 및 방법
WO2022019601A1 (ko) 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법
WO2021071258A1 (ko) 인공지능 기반의 휴대용 보안영상 학습장치 및 방법
WO2015167202A1 (ko) 차량번호 실사화 장치, 방법 및 이를 이용한 차량번호 판독시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22927464

Country of ref document: EP

Kind code of ref document: A1