KR102332229B1 - Method for Augmenting Pedestrian Image Data Based-on Deep Learning - Google Patents

Method for Augmenting Pedestrian Image Data Based-on Deep Learning Download PDF

Info

Publication number
KR102332229B1
KR102332229B1 KR1020190148532A KR20190148532A KR102332229B1 KR 102332229 B1 KR102332229 B1 KR 102332229B1 KR 1020190148532 A KR1020190148532 A KR 1020190148532A KR 20190148532 A KR20190148532 A KR 20190148532A KR 102332229 B1 KR102332229 B1 KR 102332229B1
Authority
KR
South Korea
Prior art keywords
pedestrian
image
mask
detection model
area
Prior art date
Application number
KR1020190148532A
Other languages
Korean (ko)
Other versions
KR20210060938A (en
Inventor
강석주
박재서
허준호
Original Assignee
서강대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서강대학교산학협력단 filed Critical 서강대학교산학협력단
Priority to KR1020190148532A priority Critical patent/KR102332229B1/en
Publication of KR20210060938A publication Critical patent/KR20210060938A/en
Application granted granted Critical
Publication of KR102332229B1 publication Critical patent/KR102332229B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Architecture (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

딥러닝 기반 보행자 영상 데이터 증강방법을 개시한다.
본 실시예는, 딥러닝(deep learning) 기반 객체 검출 모델(object detection models)을 이용하여 입력 영상으로부터 운전가능 영역(drivable area) 및 보행자(pedestrian)를 검출한다. 검출된 운전가능 영역 및 보행자에 대한 마스크(masks)를 기반으로 보행자 이상행동(abnormal behavior) 상황에 대한 증강 영상을 자동으로 생성하는 것이 가능한 보행자 영상 데이터 증강방법을 제공한다.
Disclosed is a method for augmenting pedestrian image data based on deep learning.
In this embodiment, a drivable area and a pedestrian are detected from an input image using deep learning-based object detection models. Provided is a pedestrian image data augmentation method capable of automatically generating an augmented image for a pedestrian abnormal behavior situation based on a detected drivable area and masks for the pedestrian.

Description

딥러닝 기반 보행자 영상 데이터 증강방법{Method for Augmenting Pedestrian Image Data Based-on Deep Learning}Method for Augmenting Pedestrian Image Data Based-on Deep Learning

본 발명은 딥러닝 기반 보행자 영상 데이터 증강방법에 관한 것이다.The present invention relates to a method for augmenting pedestrian image data based on deep learning.

이하에 기술되는 내용은 단순히 본 발명과 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다. The content described below merely provides background information related to the present invention and does not constitute the prior art.

도로 교통안전(road traffic safety)에 관련된 정보를 수집하고 분석하는 지능형 시스템(intellectual system)이 널리 연구되고 있다. 지능형 교통안전 시스템은 CCTV(Closed-Circuit Television)로 촬영된 영상을 기반으로, 도로에서 발생하는 비정상적인 상황을 자동으로 탐지하는 도로 이상 탐지(road anomaly detection)를 수행한다. 비정상적인 상황은 그 발생 주기가 매우 긴 경우가 대부분이므로, 사람이 비정상적인 상황을 지속적으로 감시하고, 탐지하는 것은 매우 어렵다. 따라서 지능형 교통안전 시스템은 보행자의 이상행동과 같은 비정상적인 상황을 자동으로 탐지함으로써 사람이 지속적으로 감시할 필요를 줄이는 것을 목표로 한다.An intelligent system for collecting and analyzing information related to road traffic safety has been widely studied. The intelligent traffic safety system performs road anomaly detection that automatically detects abnormal situations occurring on the road based on images captured by CCTV (Closed-Circuit Television). Since the occurrence cycle of an abnormal situation is usually very long, it is very difficult for a person to continuously monitor and detect the abnormal situation. Therefore, the intelligent traffic safety system aims to reduce the need for people to continuously monitor by automatically detecting abnormal situations such as abnormal behavior of pedestrians.

한편, CNN(Convolutional Neural Network)으로 대표되는 딥러닝(deep learning) 모델 기반의 영상처리(image processing) 기술이 지능형 시스템에 널리 이용되고 있다. 딥러닝 모델의 구조 또는 학습 방법 등이 도로 이상 탐지에 대한 성능을 결정할 수 있으므로, 딥러닝 모델을 채용하는 지능형 시스템은 주로 딥러닝 모델의 이용 및 개선에 집중하였다. 그러나, 대다수의 지능형 시스템은 이용되는 딥러닝 모델의 학습에 사용되는 데이터세트(dataset)의 양적 또는 질적 제약이라는 문제점을 안고 있다. 따라서, 일부 지능형 시스템은 데이터세트에 대한 연구를 병행하기도 한다(비특허문헌 3 참조). On the other hand, an image processing technology based on a deep learning model represented by a Convolutional Neural Network (CNN) is widely used in intelligent systems. Since the structure or learning method of the deep learning model can determine the performance of road anomaly detection, the intelligent system employing the deep learning model mainly focused on the use and improvement of the deep learning model. However, most intelligent systems have a problem of quantitative or qualitative limitations of the dataset used for training the used deep learning model. Therefore, some intelligent systems also conduct research on datasets (see Non-Patent Document 3).

보행자 관련 데이터세트로 가장 널리 이용되는 것은 UCSD(University of California, San Diego)의 보행자 이상(pedestrian anomaly) 데이터세트이다(비특허문헌 1 참조). UCSD 데이터세트는 두 개의 서로 다른 정적 카메라로 촬영된 비디오(각각 Ped1 및 Ped2로 호칭함)를 포함하며 각각의 비디오는 보행자 통로를 보여준다. Ped1 비디오는 238 x 158 해상도의 34 개의 학습용 비디오 및 36 개의 평가용 비디오를 포함하고, Ped2 비디오는 360 x 240 해상도의 16 개의 학습용 비디오 및 12 개의 평가용 비디오를 포함한다. 각 비디오는 120 ~ 200 개의 프레임으로 구성된다. The most widely used pedestrian-related dataset is the pedestrian anomaly dataset of the University of California, San Diego (UCSD) (see Non-Patent Document 1). The UCSD dataset contains videos (referred to as Ped1 and Ped2, respectively) taken with two different static cameras, each video showing a pedestrian walkway. Ped1 video contains 34 training videos and 36 evaluation videos in 238 x 158 resolution, and Ped2 video includes 16 training videos and 12 evaluation videos in 360 x 240 resolution. Each video consists of 120 to 200 frames.

UCSD 데이터세트의 학습용 비디오는 보행자 통로를 따라 걷는 사람들이 포함된 이미지이다. 평가용 비디오는 비정상(abnormal) 프레임을 포함하며, 프레임 별로 각각 비정상 객체의 위치에 대한 픽셀 단위 공간 레이블(pixelwise spatial labels)이 있다. Training videos from the UCSD dataset are images of people walking along a pedestrian pathway. The video for evaluation includes abnormal frames, and there are pixelwise spatial labels for the positions of the abnormal objects for each frame.

UCSD 데이터세트는 각 비디오를 구성하는 전체 프레임의 수가 적고 비정상 상황의 종류가 한정적이라는 단점을 지닌다. UCSD 데이터세트는 가방을 위로 던지는 행동과 같은 5 가지 유형의 비정상 상황을 포함하는데, 전체 프레임 대비 비정상 상황에 대한 프레임 수가 많으므로, 비디오에 포함된 상황이 부자연스럽다. 또한 위치 정보에 대한 레이블이 일부 테스트 비디오에 대해서만 제공된다는 단점이 있다.The UCSD dataset has a disadvantage in that the number of total frames constituting each video is small and the types of abnormal situations are limited. The UCSD dataset contains five types of anomalies, such as the behavior of throwing a bag upward, and the number of frames for anomalies compared to the total frame is high, so the situations included in the video are unnatural. It also has the disadvantage that the label for location information is only provided for some test videos.

다른 데이터세트로서, 주로 개찰구를 통해 출입하는 사람들을 주목하는, 지하철 입구 및 출구에 대한 두 개의 긴 비디오를 포함하는 지하철 데이터세트(subway dataset)가 있다(비특허문헌 2 참조). 지하철 데이터세트에서의 비정상적 상황은 개찰구 주변을 뛰어 다니는 사람, 잘못된 방향으로 걷는 사람, 또는 벽을 청소하는 사람을 포함한다. As another dataset, there is a subway dataset containing two long videos of subway entrances and exits, which mainly focus on people entering and exiting through ticket gates (see Non-Patent Document 2). Anomalies in the subway dataset include people running around turnstiles, people walking in the wrong direction, or people cleaning walls.

지하철 데이터세트에는 두 개의 긴 비디오만 제공하므로, 프레임을 추출하는 속도에 대한 정의가 추가로 필요하며, 정확히 어떤 프레임이 비정상으로 표시되는지도 알 수 없다. 또한 비정상 상황의 대상이 되는 객체의 위치 정보에 대한 레이블이 없다는 단점이 있다.Since the subway dataset only provides two long videos, we need an additional definition of the rate at which frames are extracted, and we don't know exactly which frames are marked as anomalous. Also, there is a disadvantage in that there is no label for the location information of the object that is the target of the abnormal situation.

또다른 데이터세트로서, 보행자 통로를 포함하는 건물에 대하여, 건물의 측면을 바라보는 단일 야외 카메라에서 찍은 짧은 비디오 클립을 포함하는 CUHK(Chinese University of Hong Kong)의 어베뉴(avenue) 데이터세트가 있다(비특허문헌 3 참조). CUHK의 어베뉴 데이터세트는 건물을 출입하는 사람들이 포함된, 640 x 360 해상도를 가지는 16 개의 학습용 비디오와 21 개의 평가용 비디오를 포함한다. 평가용 비디오에는 총 47 개의 이상 이벤트가 포함되나, 특이한 행동들이 많이 발생하기 때문에 비디오에 포함된 상황이 부자연스럽다라는 단점이 있다.Another dataset is the avenue dataset from the Chinese University of Hong Kong (CUHK), which contains short video clips taken from a single outdoor camera looking at the side of the building, for a building containing a pedestrian walkway. (See Non-Patent Document 3). CUHK's Avenue dataset contains 16 training videos and 21 evaluation videos with 640 x 360 resolution, including people entering and leaving the building. A total of 47 abnormal events are included in the evaluation video, but there is a disadvantage that the situation included in the video is unnatural because many unusual behaviors occur.

또다른 데이터세트로서, 야외 필드, 야외 마당 또는 실내 로비 주변에서 촬영된 세 가지 짧은 동영상 클립 11 개를 포함하는 UMN(University of Minnesota) 데이터세트가 있다(비특허문헌 4 참조). 각 클립 영상에서의 비정상 상황 영상은 대피 시나리오로서 갑자기 도망가는 사람을 포함한다. 각 동영상 클립은 한 차례의 비정상 상황 이벤트가 발생하는 시점을 포함한다.As another dataset, there is a UMN (University of Minnesota) dataset including eleven three short video clips shot around an outdoor field, an outdoor yard, or an indoor lobby (see Non-Patent Document 4). The abnormal situation image in each clip image includes a person who suddenly runs away as an evacuation scenario. Each video clip contains a point in time when a single anomaly event occurs.

UMN 데이터세트는 학습용 프레임과 평가용 프레임 간의 분할이 명확하지 않다. 또한 비정상 상황에 대한 레이블은 각 동영상의 전체 프레임에 대해 일시적으로만 제공되므로 학습에 사용하기에 적절하지 못하다는 단점이 있다.In the UMN dataset, the division between the training frame and the evaluation frame is not clear. In addition, the label for the abnormal situation is only temporarily provided for the entire frame of each video, so it has a disadvantage that it is not suitable for use in training.

전술한 문제점 외에도 대부분의 공개된 데이터세트는 보행자의 위치에 따른 이상행동, 예컨대 보행자가 횡단보도가 아닌 차도를 건너는 무단횡단(jaywalking)과 같은 교통사고 위험 상황에 해당하는 데이터를 포함하지 않는다. 따라서 무단횡단과 같은 상황을 검출하기 위한 다양한 학습용 데이터를 생성하는 방법을 필요로 한다.In addition to the above problems, most of the public datasets do not include data corresponding to traffic accident risk situations such as abnormal behavior according to the location of pedestrians, for example, jaywalking in which pedestrians cross the roadway rather than crosswalk. Therefore, there is a need for a method for generating various learning data for detecting situations such as jaywalking.

비특허문헌 1: W. Li, V. Mahadevan, and N. Vasconcelos. Anomaly detection and localization in crowded scenes. PAMI, 2014.Non-Patent Document 1: W. Li, V. Mahadevan, and N. Vasconcelos. Anomaly detection and localization in crowded scenes. PAMI, 2014. 비특허문헌 2: A. Adam, E. Rivlin, I. Shimshoni, and D. Reinitz. Robust real-time unusual event detection using multiple fixed-location monitors. PAMI, 2008.Non-Patent Document 2: A. Adam, E. Rivlin, I. Shimshoni, and D. Reinitz. Robust real-time unusual event detection using multiple fixed-location monitors. PAMI, 2008. 비특허문헌 3: C. Lu, J. Shi, and J. Jia. Abnormal event detection at 150 fps in matlab. In ICCV, 2013.Non-Patent Document 3: C. Lu, J. Shi, and J. Jia. Abnormal event detection at 150 fps in matlab. In ICCV, 2013. 비특허문헌 4: Mehran, Ramin, Alexis Oyama, and Mubarak Shah. Abnormal crowd behavior detection using social force model. 2009 IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2009.Non-Patent Document 4: Mehran, Ramin, Alexis Oyama, and Mubarak Shah. Abnormal crowd behavior detection using social force model. 2009 IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2009. 비특허문헌 5: He, Kaiming, et al. "Mask r-cnn." Proceedings of the IEEE international conference on computer vision. 2017.Non-Patent Document 5: He, Kaiming, et al. "Mask r-cnn." Proceedings of the IEEE international conference on computer vision. 2017. 비특허문헌 6: Szegedy, Christian, et al "Going deeper with convolutions" Proceedings of the IEEE conference on computer vision and pattern recognition 2015. Non-Patent Document 6: Szegedy, Christian, et al "Going deeper with convolutions" Proceedings of the IEEE conference on computer vision and pattern recognition 2015.

본 개시는, 딥러닝(deep learning) 기반 객체 검출 모델(object detection models)을 이용하여 입력 영상으로부터 운전가능 영역(drivable area) 및 보행자(pedestrian)를 검출한다. 검출된 운전가능 영역 및 보행자에 대한 마스크(masks)를 기반으로 보행자 이상행동(abnormal behavior) 상황에 대한 증강 영상을 자동으로 생성함으로써, 지능형 교통안전 시스템(intelligent traffic safety system)의 도로 이상(road anomaly)에 대한 탐지 성능(detection performance) 향상이 가능한 보행자 영상 데이터 증강방법을 제공하는 데 주된 목적이 있다.The present disclosure detects a drivable area and a pedestrian from an input image using deep learning-based object detection models. By automatically generating an augmented image for a pedestrian abnormal behavior situation based on the detected drivable area and masks for pedestrians, the road anomaly of the intelligent traffic safety system ), the main purpose of which is to provide a pedestrian image data augmentation method capable of improving detection performance.

본 발명의 실시예에 따르면, 보행자 영상 데이터 증강장치를 이용하는 영상 증강방법에 있어서, 입력 영상(input image)을 획득하는 과정; 딥러닝(deep learning) 기반 영역 검출 모델(area detection model)을 이용하여 상기 입력 영상으로부터 운전가능 영역(drivable area)을 추출하는 과정; 딥러닝 기반 보행자 검출 모델(pedestrian detection model)을 이용하여 상기 입력 영상으로부터 보행자(pedestrian)를 추출하는 과정; 및 상기 운전가능 영역 및 상기 보행자에 대한 마스크(masks)를 기반으로 상기 보행자의 이상행동(abnormal behavior) 상황에 대한 증강 영상(augmented images)을 생성하는 과정을 포함하는 것을 특징으로 하는, 컴퓨터 상에 구현되는 영상 증강방법을 제공한다. According to an embodiment of the present invention, there is provided an image augmentation method using a pedestrian image data augmentation apparatus, the method comprising: acquiring an input image; extracting a drivable area from the input image using a deep learning-based area detection model; extracting a pedestrian from the input image using a deep learning-based pedestrian detection model; and generating augmented images of an abnormal behavior situation of the pedestrian based on the drivable area and masks for the pedestrian. Provided is an image augmentation method implemented.

본 발명의 다른 실시예에 따르면, 입력 영상(image)을 획득하는 입력부; 영역 검출 모델(area detection model)을 이용하여 상기 입력 영상으로부터 운전가능 영역(drivable area)을 추출하는 영역추출부; 보행자 검출 모델(pedestrian detection model)을 이용하여 상기 입력 영상으로부터 보행자(pedestrian)를 추출하는 보행자추출부; 및 상기 운전가능 영역 및 상기 보행자 마스크(masks)를 기반으로 상기 보행자의 이상행동(abnormal behavior) 상황에 대한 증강 영상(augmented images)을 생성하는 데이터증강부를 포함하는 것을 특징으로 하는 보행자 영상 데이터 증강장치를 제공한다. According to another embodiment of the present invention, an input unit for obtaining an input image (image); an area extraction unit for extracting a drivable area from the input image using an area detection model; a pedestrian extraction unit for extracting a pedestrian from the input image using a pedestrian detection model; And Pedestrian image data augmentation device comprising a data augmentation unit for generating augmented images for the abnormal behavior situation of the pedestrian based on the driving area and the pedestrian masks (masks) provides

본 발명의 다른 실시예에 따르면, 영상 증강방법이 포함하는 각 단계를 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터프로그램을 제공한다. According to another embodiment of the present invention, there is provided a computer program stored in a computer-readable recording medium to execute each step included in the image augmentation method.

이상에서 설명한 바와 같이 본 실시예에 따르면, 딥러닝(deep learning)을 기반으로 보행자(pedestrian) 이상행동(abnormal behavior) 상황에 대한 증강 영상을 생성하는 것이 가능한 보행자 영상 데이터 증강방법을 제공함으로써, 증강된 데이터세트를 이용하는 학습 과정에 기반하여, 교통상황 중 보행자의 이상행동에 대한 지능형 교통안전 시스템의 탐지 성능(detection performance) 향상이 가능해지는 효과가 있다.As described above, according to this embodiment, by providing a pedestrian image data augmentation method capable of generating an augmented image for a pedestrian abnormal behavior situation based on deep learning, augmentation Based on the learning process using the collected data set, there is an effect that it becomes possible to improve the detection performance of the intelligent traffic safety system for abnormal behavior of pedestrians in traffic situations.

또한 본 실시예에 따르면, 딥러닝(deep learning)을 기반으로 다양한 장소에서 발생 가능한 보행자 이상행동 상황에 대한 증강 영상을 생성하는 것이 가능한 보행자 영상 데이터 증강방법을 제공함으로써, 발생 가능성이 매우 낮은 보행자 이상행동의 감지에 범용적으로 적용 가능한 감지 시스템의 구축이 가능해지는 효과가 있다.In addition, according to this embodiment, by providing a pedestrian image data augmentation method capable of generating an augmented image for a pedestrian abnormal behavior situation that may occur in various places based on deep learning, a pedestrian abnormality with a very low probability of occurrence There is an effect that it becomes possible to construct a detection system that can be universally applied to the detection of behavior.

도 1은 본 발명의 일 실시예에 따른 보행자 영상 데이터 증강장치에 대한 구성도이다.
도 2는 본 발명의 일 실시예예 따른 영역 검출 모델 및 보행자 검출 모델의 기반이 되는 Mask R-CNN에 대한 구성도이다.
도 3은 본 발명의 일 실시예에 따른 보행자 영상 데이터 증강방법에 대한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 영상 증강방법에 따른 증강 영상 생성 과정을 보여 주는 예시도이다.
도 5는 본 발명의 일 실시예에 따른 분류기 모델의 기반이 되는 GoogleNet에 대한 구성도이다.
1 is a block diagram of a pedestrian image data augmentation apparatus according to an embodiment of the present invention.
2 is a block diagram of Mask R-CNN, which is a basis for a region detection model and a pedestrian detection model according to an embodiment of the present invention.
3 is a flowchart of a pedestrian image data augmentation method according to an embodiment of the present invention.
4 is an exemplary diagram illustrating an augmented image generation process according to an image augmentation method according to an embodiment of the present invention.
5 is a block diagram of GoogleNet, which is the basis of a classifier model according to an embodiment of the present invention.

이하, 본 발명의 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 실시예들의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present embodiments, if it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present embodiments, the detailed description thereof will be omitted.

또한, 본 실시예들의 구성요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성요소를 다른 구성요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Also, in describing the components of the present embodiments, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. Throughout the specification, when a part 'includes' or 'includes' a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. . In addition, the '... Terms such as 'unit' and 'module' mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.

첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.DETAILED DESCRIPTION The detailed description set forth below in conjunction with the appended drawings is intended to describe exemplary embodiments of the present invention and is not intended to represent the only embodiments in which the present invention may be practiced.

본 실시예는 딥러닝(deep learning) 기반 보행자 영상 데이터 증강방법에 내용을 개시한다. 보다 자세하게는, 딥러닝 기반 객체 검출 모델(object detection models)을 이용하여 입력 영상으로부터 운전가능 영역(drivable area) 및 보행자(pedestrian)를 검출한다. 검출된 운전가능 영역 및 사람에 대한 마스크(masks)를 기반으로 보행자 이상행동(abnormal behavior) 상황에 대한 증강 영상을 자동으로 생성하는 것이 가능한 보행자 영상 데이터 증강방법을 제공한다.This embodiment discloses details on a method for augmenting pedestrian image data based on deep learning. In more detail, a drivable area and a pedestrian are detected from an input image using deep learning-based object detection models. Provided is a pedestrian image data augmentation method capable of automatically generating an augmented image for a pedestrian abnormal behavior situation based on a detected drivable area and masks for a person.

도 1은 본 발명의 일 실시예에 따른 보행자 영상 데이터 증강장치에 대한 구성도이다.1 is a block diagram of a pedestrian image data augmentation apparatus according to an embodiment of the present invention.

본 발명에 대한 실시예에 있어서, 보행자 영상 데이터 증강장치(100, 이하 '영상 증강장치')는 입력 영상으로부터 운전가능 영역 및 사람을 검출하고, 검출된 운전가능 영역 및 사람에 대한 마스크를 기반으로 보행자 이상행동 상황에 대한 증강 영상을 생성한다. 영상 증강장치(100)는 입력부(101), 영역추출부(102), 보행자추출부(103) 및 데이터증강부(104)의 전부 또는 일부를 포함한다. 여기서, 본 실시예에 따른 영상 증강장치(100)에 포함되는 구성요소가 반드시 이에 한정되는 것은 아니다. 예컨대, 영상 증강장치(100) 상에 검출 모델의 트레이닝을 위한 트레이닝부(미도시)를 추가로 구비하거나, 외부의 트레이닝부와 연동되는 형태로 구현될 수 있다.In an embodiment of the present invention, the pedestrian image data augmentation apparatus 100 (hereinafter, 'image augmentation apparatus') detects a drivable area and a person from an input image, and based on the detected drivable area and a mask for the person Generates augmented images for pedestrian abnormal behavior situations. The image augmentation apparatus 100 includes all or a part of the input unit 101 , the region extraction unit 102 , the pedestrian extraction unit 103 , and the data augmentation unit 104 . Here, components included in the image augmentation apparatus 100 according to the present embodiment are not necessarily limited thereto. For example, a training unit (not shown) for training the detection model may be additionally provided on the image augmentation apparatus 100 , or may be implemented in the form of interworking with an external training unit.

본 실시예에 따른 입력부(101)는 입력 영상을 획득한다. 입력 영상은 정상 상황을 포함하며, 운전가능 영역 및/또는 복수의 보행자를 포함하는 것으로 가정한다.The input unit 101 according to the present embodiment acquires an input image. It is assumed that the input image includes a normal situation and includes a drivable area and/or a plurality of pedestrians.

본 실시예에 따른 영역추출부(102)는 영역 검출 모델(area detection model)을 기반으로 입력 영상으로부터 운전가능 영역을 추출한다. 영역 검출 모델은 딥러닝 기반의 객체 검출 모델로서, 운전가능 영역이 포함된 학습용 데이터를 이용하여 사전에 트레이닝될 수 있다. 영역추출부(102)는 영역 검출 모델로서, Mask R-CNN(Mask Region-based Convolutional Neural Network)을 이용한다(비특허문헌 5 참조).The area extraction unit 102 according to the present embodiment extracts the drivable area from the input image based on an area detection model. The region detection model is a deep learning-based object detection model, and may be trained in advance using learning data including a drivable region. The region extraction unit 102 uses a Mask Region-based Convolutional Neural Network (R-CNN) as a region detection model (see Non-Patent Document 5).

본 실시예에 따른 보행자추출부(103)는 보행자 검출 모델(pedestrian detection model)을 기반으로 입력 영상으로부터 운전가능 영역을 추출한다. 보행자 검출 모델은 딥러닝 기반의 객체 검출 모델로서, 사람이 포함된 학습용 데이터를 이용하여 사전에 트레이닝될 수 있다. 보행자검출부(103)는 보행자 검출 모델로서 역시 Mask R-CNN을 이용한다.The pedestrian extraction unit 103 according to the present embodiment extracts the drivable area from the input image based on a pedestrian detection model. The pedestrian detection model is a deep learning-based object detection model, and may be trained in advance using data for learning including people. The pedestrian detection unit 103 also uses Mask R-CNN as a pedestrian detection model.

도 2는 본 발명의 일 실시예예 따른 영역 검출 모델 및 보행자 검출 모델의 기반이 되는 Mask R-CNN에 대한 구성도이다. Mask R-CNN은 RoI(Region of Interest)를 기반으로 객체의 ID(identification) 및 바운딩 박스를 생성하는 객체 검출 경로와 병렬로 객체에 대한 마스크(mask)를 검출하는 경로를 포함한다. 2 is a block diagram of Mask R-CNN, which is a basis for a region detection model and a pedestrian detection model according to an embodiment of the present invention. Mask R-CNN includes a path for detecting a mask for an object in parallel with an object detection path that generates an ID (identification) of an object and a bounding box based on a region of interest (RoI).

본 실시예에 따른 데이터증강부(104)는 추출된 운전가능 영역 및 보행자에 대한 마스크를 기반으로 무단횡단(jaywalking)과 같은 보행자 이상행동 상황에 대한 증강 영상을 생성한다.The data augmentation unit 104 according to the present embodiment generates an augmented image for a pedestrian abnormal behavior situation, such as jaywalking, based on the extracted drivable area and the mask for the pedestrian.

본 실시예에 따른 영상 증강장치(100)가 탑재되는 디바이스(미도시)는 프로그램가능 컴퓨터일 수 있으며, 서버(미도시)와 연결이 가능한 적어도 한 개의 통신 인터페이스를 포함한다. The device (not shown) on which the image augmentation apparatus 100 according to the present embodiment is mounted may be a programmable computer and includes at least one communication interface that can be connected to a server (not shown).

전술한 바와 같은 영역 검출 모델 및 보행자 검출 모델에 대한 트레이닝은, 영상 증강장치(100)가 탑재되는 디바이스의 컴퓨팅 파워를 이용하여 디바이스에서 진행될 수 있다. Training for the area detection model and the pedestrian detection model as described above may be performed in the device using the computing power of the device on which the image augmentation apparatus 100 is mounted.

전술한 바와 같은 영역 검출 모델 및 보행자 검출 모델에 대한 트레이닝은 서버에서 진행될 수도 있다. 디바이스 상에 탑재된 영상 증강장치(100)의 구성요소인 영역 검출 모델 및 보행자 검출 모델과 동일한 구조의 딥러닝 모델에 대하여 서버의 트레이닝부는 트레이닝을 수행할 수 있다. 디바이스와 연결되는 통신 인터페이스를 이용하여 서버는 트레이닝된 딥러닝 모델의 파라미터를 디바이스로 전달하고, 전달받은 파라미터를 이용하여 영상 증강장치(100)는 영역 검출 모델 및 보행자 검출 모델의 파라미터를 업데이트할 수 있다. 또한 디바이스 출하 시점 또는 영상 증강장치(100)가 디바이스에 탑재되는 시점에, 영역 검출 모델 및 보행자 검출 모델의 파라미터가 설정될 수 있다. Training for the area detection model and the pedestrian detection model as described above may be performed in the server. The training unit of the server may perform training on the deep learning model having the same structure as the area detection model and the pedestrian detection model, which are components of the image augmentation apparatus 100 mounted on the device. Using a communication interface connected to the device, the server transmits the parameters of the trained deep learning model to the device, and the image augmentation apparatus 100 uses the received parameters to update the parameters of the area detection model and the pedestrian detection model. have. Also, parameters of the area detection model and the pedestrian detection model may be set when the device is shipped or when the image augmentation apparatus 100 is mounted on the device.

이하, 도3 및 도 4를 참조하여, 영상 증강장치(100)을 이용하는 보행자 영상 데이터 증강방법(이하 '영상 증강방법')에 대하여 설명한다.Hereinafter, a pedestrian image data augmentation method (hereinafter, 'image augmentation method') using the image augmentation apparatus 100 will be described with reference to FIGS. 3 and 4 .

도 3은 본 발명의 일 실시예에 따른 보행자 영상 데이터 증강방법에 대한 순서도이다. 도 4는 본 발명의 일 실시예에 따른 영상 증강방법에 따른 증강 영상 생성 과정을 보여 주는 예시도이다.3 is a flowchart of a pedestrian image data augmentation method according to an embodiment of the present invention. 4 is an exemplary diagram illustrating an augmented image generation process according to an image augmentation method according to an embodiment of the present invention.

영상 증강장치(100)의 트레이닝부는 영역 검출 모델 및 보행자 검출 모델에 대한 사전 트레이닝을 수행한다(S301).The training unit of the image augmentation apparatus 100 performs pre-training on the area detection model and the pedestrian detection model (S301).

영역 검출 모델 및 보행자 검출 모델 각각은 Mask R-CNN에 기반하는 딥러닝 기반 객체 검출 모델이다. 영역 검출 모델은 BDD100K(Black box Driving Dataset 100K) 라는 차량용 블랙박스 데이터세트를 학습용 데이터로 이용하여 사전에 트레이닝된다. BDD100K는 대략 십만 개의 블랙박스 동영상 클립을 포함하며, 대부분의 영상이 도로를 포함하므로, 트레이닝부는 운전가능 영역의 검출에 특화되도록 영역 검출 모델을 사전에 트레이닝시킬 수 있다.Each of the area detection model and the pedestrian detection model is a deep learning-based object detection model based on Mask R-CNN. The region detection model is trained in advance using a vehicle black box dataset called BDD100K (Black box Driving Dataset 100K) as training data. The BDD100K includes approximately 100,000 black box video clips, and most of the images include roads, so that the training unit can pre-train the area detection model to be specialized in the detection of the drivable area.

보행자 검출 모델은 MS-COCO 2014(Microsoft Common Object in Context 2014)라는 데이터세트를 학습용 데이터로 이용하여 사전에 트레이닝된다. MS-COCO 데이터세트는 객체 검출 및 분할(segmentation) 등에 이용하기 위한 영상을 포함하며, 데이터세트에 포함된 영상 중 사람이 포함된 영상을 이용하여, 트레이닝부는 보행자의 검출에 특화되도록 보행자 검출 모델을 사전에 트레이닝시킬 수 있다.The pedestrian detection model is trained in advance using a dataset called MS-COCO 2014 (Microsoft Common Object in Context 2014) as training data. The MS-COCO dataset includes images for object detection and segmentation, etc., and using an image containing a person among the images included in the dataset, the training unit develops a pedestrian detection model to specialize in pedestrian detection. It can be pre-trained.

영상 증강장치(100)는 입력 영상을 획득한다(S302). 입력 영상으로는 CUHK에서 수집된 어베뉴 CCTV 영상(비특허문헌 3 참조) 및 Y시의 거리에서 수집된 CCTV 영상이 이용되었다. 입력 영상은 정상 상황을 포함하며, 도 4에 도시된 바와 같이 운전가능 영역 및 적어도 한 명의 보행자를 포함한다.The image augmentation apparatus 100 acquires an input image (S302). As the input image, the Avenue CCTV image collected at CUHK (see Non-Patent Document 3) and the CCTV image collected from the street of Y city were used. The input image includes a normal situation, and includes a drivable area and at least one pedestrian as shown in FIG. 4 .

영상 증강장치(100)는 영역 검출 모델을 이용하여 입력 영상으로부터 운전가능 영역을 검출한다(S303). 영역 검출 모델은 도 4에 도시된 바와 같이 입력 영상으로부터 운전가능 영역에 대한 마스크를 검출할 수 있다. The image augmentation apparatus 100 detects the drivable area from the input image using the area detection model (S303). The region detection model may detect a mask for the drivable region from the input image as shown in FIG. 4 .

영상 증강장치(100)는 보행자 검출 모델을 이용하여 입력 영상으로부터 보행자를 검출한다(S304). 보행자 검출 모델은 도 4에 도시된 바와 같이 입력 영상으로부터 보행자에 대한 마스크를 검출할 수 있다.The image augmentation apparatus 100 detects a pedestrian from the input image using the pedestrian detection model (S304). The pedestrian detection model may detect a mask for the pedestrian from the input image as shown in FIG. 4 .

입력 영상이 복수의 보행자를 포함하는 경우, 다음과 같은 규칙을 따른다. 보행자 검출 모델은 포함된 보행자를 모두 검출하되, 검출 순서에 따라 검출된 보행자를

Figure 112019118719742-pat00001
로 표현한 후, 수학식 1에 표현된 규칙을 기반으로 한 명의 보행자를 선택한다.When the input image includes a plurality of pedestrians, the following rule is followed. The pedestrian detection model detects all included pedestrians, but detects pedestrians according to the detection order.
Figure 112019118719742-pat00001
After expressing as , one pedestrian is selected based on the rule expressed in Equation (1).

Figure 112019118719742-pat00002
Figure 112019118719742-pat00002

여기서 D는 입력 영상에 포함된 운전가능 영역이다. 수학식 1에 표현된 규칙에 따르면, 운전가능 영역에 포함되지 않는, 검출된 보행자에 대하여 검출 순서가 가장 빠른 보행자가 선택된다.Here, D is the drivable area included in the input image. According to the rule expressed in Equation 1, a pedestrian having the earliest detection order is selected with respect to a detected pedestrian that is not included in the drivable area.

영상 증강장치(100)는 운전가능 영역 및 보행자의 마스크를 기반으로 보행자 이상행동 상황에 대한 증강 영상을 생성한다(S305). 영상 증강장치(100)는 도 4에 도시된 바와 같이 보행자의 마스크를 운전가능 영역 마스크 내에 위치하도록 함으로써 무단횡단(jaywalking) 상황에 대한 합성 영상을 생성한다. 또한 복수의 보행자 마스크 및 가로 플립(horizontal flip)이 적용된 보행자 마스크와 복수의 운전가능 영역 마스크를 상호 결합함으로써 보행자 이상행동 상황에 대한 증강 영상을 생성할 수 있다.The image augmentation apparatus 100 generates an augmented image for a pedestrian abnormal behavior situation based on the drivable area and the pedestrian's mask (S305). The image augmentation apparatus 100 generates a composite image for a jaywalking situation by placing the pedestrian's mask within the drivable area mask as shown in FIG. 4 . In addition, by combining a plurality of pedestrian masks and a pedestrian mask to which a horizontal flip is applied, and a plurality of drivable area masks, an augmented image for a pedestrian abnormal behavior situation may be generated.

무단횡단 상황에 대한 증강 영상은 비정상 상황으로 분류되고, 이상행동을 실행하는 보행자의 위치 정보에 대한 레이블도 포함한다. 증강 영상 및 증강 영상에 포함된 레이블은 차후 지능형 교통안전 시스템에 대한 트레이닝 과정에서 사용될 수 있다.The augmented image for the jaywalking situation is classified as an abnormal situation and includes a label for the location information of pedestrians performing abnormal behavior. The augmented image and the label included in the augmented image may be used later in the training process for the intelligent traffic safety system.

이하, 본 실시예에 따른 영상 증강방법에 기반하여 생성된 증강 영상을 포함하는 데이터세트를 지능형 교통안전 시스템의 트레이닝에 적용한 실험예 및 실험 결과를 설명한다. Hereinafter, experimental examples and experimental results in which a dataset including an augmented image generated based on the image augmentation method according to the present embodiment is applied to training of an intelligent traffic safety system will be described.

실험예에서는 교통안전 시스템의 예로서 입력 영상으로부터 무단횡단 상황과 정상 상황을 구분하는 분류기 모델(classifier model)을 이용하였다. 분류기 모델로는 딥러닝 기반의 GoogLeNet이 이용되었다(비특허문헌 6 참조). 도 5에 도시된 바와 같이 GoogLeNet은 깊은 층(deep layered) 구조 기반의 CNN으로서, 분류 성능을 향상시키기 위하여 신경망의 깊이, 즉 레이어의 수를 증가시키되, 각 레이어를 단순화하여 연산량의 증가를 억제시킨 CNN이다.In the experimental example, as an example of a traffic safety system, a classifier model that distinguishes the jaywalking situation from the normal situation from the input image was used. Deep learning-based GoogLeNet was used as the classifier model (see Non-Patent Document 6). As shown in Fig. 5, GoogLeNet is a deep layered structure-based CNN. In order to improve classification performance, the depth of the neural network, that is, the number of layers is increased, but each layer is simplified to suppress the increase in the amount of computation. It's CNN.

분류기 모델은 20,000 개 이상의 이미지 카테고리(categories)를 포함하는 ImageNet 데이터세트를 기반으로 사전 트레이닝된 후, 무단횡단 여부를 구분하기 위한 레이어가 추가된 채로 리트레이닝(retraining)된다.The classifier model is pre-trained based on the ImageNet dataset containing more than 20,000 image categories, and then retrained with an added layer for classifying trespassing.

분류기 모델을 리트레이닝하기 위한 증강 영상 데이터세트, 즉 무단횡단 상황을 포함한 영상은 전술한 바와 같은 영상 증강방법에 기반하여 생성될 수 있다. 실험예에서는 전체 500 장의 증강 무단횡단 영상을 생성하였다. 증강 무단횡단 영상 및 동수의 정상 상황 영상을 이용하여 분류기 모델을 리트레이닝한 후, 검증(validation)용 데이터세트를 이용하여 분류 정확도(classification accuracy, 이하 '정확도')를 측정하였다.An augmented image dataset for retraining the classifier model, ie, an image including a jaywalking situation, may be generated based on the image augmentation method as described above. In the experimental example, a total of 500 augmented jogging images were generated. After retraining the classifier model using the augmented jabs image and the equal number of normal situation images, classification accuracy (hereinafter, 'accuracy') was measured using the validation dataset.

검증용 데이터세트는 337 장의 자연(natural) 무단횡단 영상 및 400 장의 정상 상황 영상을 포함한다. 검증용 데이터세트는 구글 또는 Y시의 CCTV 영상으로부터 수집되었다.The validation dataset contains 337 natural jaywalking images and 400 normal situation images. The data set for verification was collected from CCTV images of Google or Y city.

비교 대상으로는 자연 무단횡단 영상 및 정상 상황 영상을 포함하는 자연 데이터세트를 이용하여 리트레이닝된 분류기 모델을 이용하였다.For comparison, we used a classifier model retrained using a natural dataset including natural gait images and normal situation images.

표 1은 본 실시예가 적용된 분류기 모델 및 자연 데이터세트를 이용하는 분류기 모델에 대한 측정된 정확도를 나타내고 있다.Table 1 shows the measured accuracy of the classifier model to which this embodiment is applied and the classifier model using a natural dataset.

Figure 112019118719742-pat00003
Figure 112019118719742-pat00003

표 1에서 정확도는 수학식 2에 의하여 표현된다. In Table 1, the accuracy is expressed by Equation 2.

Figure 112019118719742-pat00004
Figure 112019118719742-pat00004

여기서, 긍정(positive)은 무단횡단 상황을 부정(negative)은 정상 상황을 의미한다. 또한, TP 및 TN 각각은 무단횡단 및 정상 상황을 제대로 분류한 것이고, FN는 무단횡단을 정상 상황으로, FP은 정상 상황을 무단 횡단으로 분류한 것이다. Here, a positive means a jaywalking situation and a negative means a normal situation. Also, each of TP and TN properly classifies jaywalking and normal situation, FN classifies trespassing as normal situation, and FP classifies normal situation as trespassing.

표 1에 나타낸 바와 같이 본 실시예에 따른 영상 증강방법을 이용하는 분류기 모델의 정확도가 비교 대상에 대하여 8 % 이상 향상되었다. 특히 정상 상황을 무단횡단 상황으로 분류하는 FP 경우가 비교 대상에 비하여 약 1/5 이하로 감소됨으로써 무단횡단 분류에 대한 분류기 모델의 전체적인 성능이 향상되었다.As shown in Table 1, the accuracy of the classifier model using the image augmentation method according to the present embodiment was improved by 8% or more with respect to the comparison target. In particular, the overall performance of the classifier model for trespassing classification was improved as the FP case, which classifies the normal situation as a trespassing situation, was reduced to about 1/5 or less compared to the comparison target.

이상에서 설명한 바와 같이 본 실시예에 따르면, 딥러닝(deep learning)을 기반으로 보행자(pedestrian) 이상행동(abnormal behavior) 상황에 대한 증강 영상을 생성하는 것이 가능한 보행자 영상 데이터 증강방법을 제공함으로써, 증강된 데이터세트를 이용하는 학습 과정에 기반하여, 교통상황 중 보행자의 이상행동에 대한 지능형 교통안전 시스템의 탐지 성능(detection performance) 향상이 가능해지는 효과가 있다.As described above, according to this embodiment, by providing a pedestrian image data augmentation method capable of generating an augmented image for a pedestrian abnormal behavior situation based on deep learning, augmentation Based on the learning process using the collected data set, there is an effect that it becomes possible to improve the detection performance of the intelligent traffic safety system for abnormal behavior of pedestrians in traffic situations.

또한 본 실시예에 따르면, 딥러닝(deep learning)을 기반으로 다양한 장소에서 발생 가능한 보행자 이상행동 상황에 대한 증강 영상을 생성하는 것이 가능한 보행자 영상 데이터 증강방법을 제공함으로써, 발생 가능성이 매우 낮은 보행자 이상행동의 감지에 범용적으로 적용 가능한 감지 시스템의 구축이 가능해지는 효과가 있다. In addition, according to this embodiment, by providing a pedestrian image data augmentation method capable of generating an augmented image for a pedestrian abnormal behavior situation that may occur in various places based on deep learning, a pedestrian abnormality with a very low probability of occurrence There is an effect that it becomes possible to construct a detection system that can be universally applied to the detection of behavior.

본 실시예에 따른 각 순서도에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 순서도에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것이 적용 가능할 것이므로, 순서도는 시계열적인 순서로 한정되는 것은 아니다.Although it is described that each process is sequentially executed in each flowchart according to the present embodiment, the present invention is not limited thereto. In other words, since it may be applicable to change and execute the processes described in the flowchart or to execute one or more processes in parallel, the flowchart is not limited to a time-series order.

본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 디지털 전자 회로, 집적 회로, FPGA(field programmable gate array), ASIC(application specific integrated circuit), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합으로 실현될 수 있다. 이러한 다양한 구현예들은 프로그래밍가능 시스템 상에서 실행가능한 하나 이상의 컴퓨터 프로그램들로 구현되는 것을 포함할 수 있다. 프로그래밍가능 시스템은, 저장 시스템, 적어도 하나의 입력 디바이스, 그리고 적어도 하나의 출력 디바이스로부터 데이터 및 명령들을 수신하고 이들에게 데이터 및 명령들을 전송하도록 결합되는 적어도 하나의 프로그래밍가능 프로세서(이것은 특수 목적 프로세서일 수 있거나 혹은 범용 프로세서일 수 있음)를 포함한다. 컴퓨터 프로그램들(이것은 또한 프로그램들, 소프트웨어, 소프트웨어 애플리케이션들 혹은 코드로서 알려져 있음)은 프로그래밍가능 프로세서에 대한 명령어들을 포함하며 "컴퓨터가 읽을 수 있는 기록매체"에 저장된다. Various implementations of the systems and techniques described herein include digital electronic circuitry, integrated circuits, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), computer hardware, firmware, software, and/or combination can be realized. These various implementations may include being implemented in one or more computer programs executable on a programmable system. The programmable system includes at least one programmable processor (which may be a special purpose processor) coupled to receive data and instructions from, and transmit data and instructions to, a storage system, at least one input device, and at least one output device. or may be a general-purpose processor). Computer programs (also known as programs, software, software applications or code) contain instructions for a programmable processor and are stored on a "computer-readable recording medium".

컴퓨터가 읽을 수 있는 기록매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체는 ROM, CD-ROM, 자기 테이프, 플로피디스크, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등의 비휘발성(non-volatile) 또는 비일시적인(non-transitory) 매체일 수 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송) 및 데이터 전송 매체(data transmission medium)와 같은 일시적인(transitory) 매체를 더 포함할 수도 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다.The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. These computer-readable recording media are non-volatile or non-transitory, such as ROM, CD-ROM, magnetic tape, floppy disk, memory card, hard disk, magneto-optical disk, and storage device. media, and may further include transitory media such as carrier waves (eg, transmission over the Internet) and data transmission media. In addition, the computer-readable recording medium is distributed in network-connected computer systems, and computer-readable codes may be stored and executed in a distributed manner.

본 명세서에 설명되는 시스템들 및 기법들의 다양한 구현예들은, 프로그램가능 컴퓨터에 의하여 구현될 수 있다. 여기서, 컴퓨터는 프로그램가능 프로세서, 데이터 저장 시스템(휘발성 메모리, 비휘발성 메모리, 또는 다른 종류의 저장 시스템이거나 이들의 조합을 포함함) 및 적어도 한 개의 커뮤니케이션 인터페이스를 포함한다. 예컨대, 프로그램가능 컴퓨터는 서버, 네트워크 기기, 셋탑 박스, 내장형 장치, 컴퓨터 확장 모듈, 개인용 컴퓨터, 랩탑, PDA(Personal Data Assistant), 클라우드 컴퓨팅 시스템 또는 모바일 장치 중 하나일 수 있다.Various implementations of the systems and techniques described herein may be implemented by a programmable computer. Here, the computer includes a programmable processor, a data storage system (including volatile memory, non-volatile memory, or other types of storage systems or combinations thereof), and at least one communication interface. For example, a programmable computer may be one of a server, a network appliance, a set-top box, an embedded device, a computer expansion module, a personal computer, a laptop, a Personal Data Assistant (PDA), a cloud computing system, or a mobile device.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible by those skilled in the art to which this embodiment belongs without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the present embodiment.

100: 영상 증강장치 101: 입력부
102: 영역추출부 103: 보행자추출부
104: 데이터증강부
100: image augmentation device 101: input unit
102: area extraction unit 103: pedestrian extraction unit
104: data augmentation unit

Claims (11)

보행자 영상 데이터 증강장치를 이용하는 영상 증강방법에 있어서,
입력 영상(input image)을 획득하는 과정;
딥러닝(deep learning) 기반 영역 검출 모델(area detection model)을 이용하여 상기 입력 영상으로부터 운전가능 영역(drivable area)을 추출하는 과정;
딥러닝 기반 보행자 검출 모델(pedestrian detection model)을 이용하여 상기 입력 영상으로부터 보행자(pedestrian)를 추출하는 과정; 및
상기 운전가능 영역 및 상기 보행자에 대한 마스크(masks)를 기반으로 상기 보행자의 이상행동(abnormal behavior) 상황에 대한 증강 영상(augmented images)을 생성하는 과정
을 포함하되,
상기 증강 영상을 생성하는 과정은,
상기 운전가능 영역에 대한 마스크 내에 상기 보행자에 대한 마스크를 위치시킨 합성 영상을 생성하고, 상기 보행자의 마스크 및 가로 플립(horizontal flip)이 적용된 보행자의 마스크와 상기 운전가능 영역의 마스크를 상호 결합함으로써 상기 보행자의 이상행동 상황에 대한 증강 영상을 생성하는 것을 특징으로 하는, 컴퓨터 상에 구현되는 영상 증강방법.
In the image augmentation method using the pedestrian image data augmentation apparatus,
obtaining an input image;
extracting a drivable area from the input image using a deep learning-based area detection model;
extracting a pedestrian from the input image using a deep learning-based pedestrian detection model; and
A process of generating augmented images of an abnormal behavior situation of the pedestrian based on the drivable area and masks for the pedestrian
including,
The process of generating the augmented image is,
By generating a composite image in which the mask for the pedestrian is positioned within the mask for the drivable area, and combining the mask of the pedestrian and the mask of the pedestrian to which the horizontal flip is applied, and the mask of the drivable area An image augmentation method implemented on a computer, characterized in that generating an augmented image for an abnormal behavior situation of a pedestrian.
제1항에 있어서,
학습용 데이터세트(datasets)를 기반으로 상기 영역 검출 모델 및 상기 보행자 검출 모델에 대한 사전 트레이닝을 수행하는 과정을 더 포함하는 것을 특징으로 하는, 컴퓨터 상에 구현되는 영상 증강방법.
According to claim 1,
The image augmentation method implemented on a computer, characterized in that it further comprises the step of performing pre-training on the area detection model and the pedestrian detection model based on datasets for learning.
제1항에 있어서,
상기 입력 영상은,
상기 운전가능 영역 및/또는 적어도 한 명의 보행자를 포함하는 것을 특징으로 하는, 컴퓨터 상에 구현되는 영상 증강방법.
According to claim 1,
The input image is
An image augmentation method implemented on a computer, characterized in that it includes the drivable area and/or at least one pedestrian.
제1항에 있어서,
상기 입력 영상이 복수의 보행자를 포함하는 경우, 상기 입력 영상 중에 상기 운전가능 영역을 제외한 영역에서 가장 먼저 추출된 한 명의 보행자를 선택하는 것을 특징으로 하는, 컴퓨터 상에 구현되는 영상 증강방법.
According to claim 1,
When the input image includes a plurality of pedestrians, the image augmentation method implemented on a computer, characterized in that selecting one pedestrian extracted first from an area excluding the drivable area from among the input image.
삭제delete 삭제delete 제1항에 있어서,
상기 증강 영상은,
비정상 상황으로 분류되고, 상기 이상행동을 실행하는 보행자의 위치 정보에 대한 레이블을 포함하는 것을 특징으로 하는, 컴퓨터 상에 구현되는 영상 증강방법.
According to claim 1,
The augmented image is
Classified as an abnormal situation, the image augmentation method implemented on a computer, characterized in that it includes a label for the location information of the pedestrian performing the abnormal behavior.
입력 영상(image)을 획득하는 입력부;
영역 검출 모델(area detection model)을 이용하여 상기 입력 영상으로부터 운전가능 영역(drivable area)을 추출하는 영역추출부;
보행자 검출 모델(pedestrian detection model)을 이용하여 상기 입력 영상으로부터 보행자(pedestrian)를 추출하는 보행자추출부; 및
상기 운전가능 영역 및 상기 보행자에 대한 마스크(masks)를 기반으로 상기 보행자의 이상행동(abnormal behavior) 상황에 대한 증강 영상(augmented images)을 생성하는 데이터증강부
를 포함하되,
상기 증강 영상은,
상기 운전가능 영역에 대한 마스크 내에 상기 보행자에 대한 마스크를 위치시킨 합성 영상; 및
상기 보행자의 마스크 및 가로 플립(horizontal flip)이 적용된 보행자의 마스크와 상기 운전가능 영역의 마스크를 상호 결합하여 생성된, 상기 보행자의 이상행동 상황에 대한 증강 영상
을 포함하는 것을 특징으로 하는 보행자 영상 데이터 증강장치.
an input unit for acquiring an input image;
an area extraction unit for extracting a drivable area from the input image using an area detection model;
a pedestrian extraction unit for extracting a pedestrian from the input image using a pedestrian detection model; and
A data augmentation unit that generates augmented images for an abnormal behavior situation of the pedestrian based on the drivable area and masks for the pedestrian
including,
The augmented image is
a composite image in which the mask for the pedestrian is positioned within the mask for the drivable area; and
Augmented image for abnormal behavior situation of the pedestrian, generated by combining the mask of the pedestrian and the mask of the drivable area to which the mask of the pedestrian and the horizontal flip are applied
Pedestrian image data augmentation device comprising a.
제8항에 있어서,
상기 영역 검출 모델 및 상기 보행자 검출 모델은 딥러닝(deep learning) 기반의 신경망으로 구현되되, 학습용 데이터세트(datasets)를 기반으로 사전에 트레이닝되는 것을 특징으로 하는 보행자 영상 데이터 증강장치.
9. The method of claim 8,
The area detection model and the pedestrian detection model are implemented as a deep learning-based neural network, and are trained in advance based on training datasets.
제8항에 있어서,
상기 증강 영상은,
비정상 상황으로 분류되고, 상기 이상행동을 실행하는 보행자의 위치 정보에 대한 레이블을 포함하는 것을 특징으로 하는 보행자 영상 데이터 증강장치.
9. The method of claim 8,
The augmented image is
Pedestrian image data augmentation apparatus classified as an abnormal situation and comprising a label for location information of a pedestrian who executes the abnormal behavior.
제1항 내지 제4항, 또는 제7항 중 어느 한 항에 따른 영상 증강방법이 포함하는 각 단계를 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터프로그램.A computer program stored in a computer-readable recording medium to execute each step included in the image augmentation method according to any one of claims 1 to 4 or 7.
KR1020190148532A 2019-11-19 2019-11-19 Method for Augmenting Pedestrian Image Data Based-on Deep Learning KR102332229B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190148532A KR102332229B1 (en) 2019-11-19 2019-11-19 Method for Augmenting Pedestrian Image Data Based-on Deep Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190148532A KR102332229B1 (en) 2019-11-19 2019-11-19 Method for Augmenting Pedestrian Image Data Based-on Deep Learning

Publications (2)

Publication Number Publication Date
KR20210060938A KR20210060938A (en) 2021-05-27
KR102332229B1 true KR102332229B1 (en) 2021-11-26

Family

ID=76135653

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190148532A KR102332229B1 (en) 2019-11-19 2019-11-19 Method for Augmenting Pedestrian Image Data Based-on Deep Learning

Country Status (1)

Country Link
KR (1) KR102332229B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361370B (en) * 2021-06-02 2023-06-23 南京工业大学 Abnormal behavior detection method based on deep learning
CN113326509B (en) * 2021-06-17 2022-07-19 浙江工业大学 Method and device for detecting poisoning attack of deep learning model based on mutual information
KR20230100024A (en) 2021-12-28 2023-07-05 한국전자통신연구원 Apparatus for data augment of machine learning for sport behavior recognition and method using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101855940B1 (en) * 2015-10-27 2018-05-09 엘지전자 주식회사 Augmented reality providing apparatus for vehicle and control method for the same
KR102099265B1 (en) * 2017-11-27 2020-05-15 고려대학교 산학협력단 System and method for pedestrian-vehicle collision warning based on pedestrian state

Also Published As

Publication number Publication date
KR20210060938A (en) 2021-05-27

Similar Documents

Publication Publication Date Title
US10242282B2 (en) Video redaction method and system
KR102332229B1 (en) Method for Augmenting Pedestrian Image Data Based-on Deep Learning
Avgerinakis et al. Recognition of activities of daily living for smart home environments
Shahbaz et al. Evaluation of background subtraction algorithms for video surveillance
KR20150028589A (en) Apparatus and Method for Providing Object Information
Sharma Human detection and tracking using background subtraction in visual surveillance
US12020510B2 (en) Person authentication apparatus, control method, and non-transitory storage medium
KR101492059B1 (en) Real Time Object Tracking Method and System using the Mean-shift Algorithm
CN111027482B (en) Behavior analysis method and device based on motion vector segmentation analysis
Yang et al. Video anomaly detection for surveillance based on effective frame area
CN114764895A (en) Abnormal behavior detection device and method
Piérard et al. A probabilistic pixel-based approach to detect humans in video streams
Hsieh et al. Grid-based template matching for people counting
KR101766467B1 (en) Alarming apparatus and methd for event occurrence, and providing method of event occurrence determination model
Goswami et al. Unusual event detection in low resolution video for enhancing ATM security
Mahin et al. A simple approach for abandoned object detection
Padmaja et al. Crowd abnormal behaviour detection using convolutional neural network and bidirectional LSTM
Pakhomova et al. Control and preprocessing of graphic data for effective dynamic object recognition
Shrivastav A Real-Time Crowd Detection and Monitoring System using Machine Learning
Cob-Parro et al. A Proposal on Stampede Detection in Real Environments.
Kandavalli et al. Design and implementation of colour texture‐based multiple object detection using morphological gradient approach
Thakur et al. Design of an ATM security through smart-vision
Ribera et al. Automated crowd flow estimation enhanced by crowdsourcing
Swathi et al. Estimation of Crowd Count in a Heavily Occulated Regions
Fomin et al. Research on Neural Networks Integration for Object Classification in Video Analysis Systems

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant