KR102566525B1 - Method and apparatus for analyzing traffic situation - Google Patents

Method and apparatus for analyzing traffic situation Download PDF

Info

Publication number
KR102566525B1
KR102566525B1 KR1020200043000A KR20200043000A KR102566525B1 KR 102566525 B1 KR102566525 B1 KR 102566525B1 KR 1020200043000 A KR1020200043000 A KR 1020200043000A KR 20200043000 A KR20200043000 A KR 20200043000A KR 102566525 B1 KR102566525 B1 KR 102566525B1
Authority
KR
South Korea
Prior art keywords
image
image frame
trajectory
traffic
tracking
Prior art date
Application number
KR1020200043000A
Other languages
Korean (ko)
Other versions
KR20210125371A (en
Inventor
이준구
백장운
이종택
임길택
한병길
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200043000A priority Critical patent/KR102566525B1/en
Publication of KR20210125371A publication Critical patent/KR20210125371A/en
Application granted granted Critical
Publication of KR102566525B1 publication Critical patent/KR102566525B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]

Abstract

제1 기계학습 모델을 사용하여 교통 감시영상에서 객체를 검출하는 단계, 검출된 객체를 추적하여 객체의 궤적을 획득하는 단계, 그리고 제2 기계학습 모델을 사용하여 궤적을 분석함으로써, 궤적에 대응하는 이벤트를 분석하는 단계를 통해 교통 상황을 분석하는 방법이 제공된다.Detecting an object in a traffic monitoring image using a first machine learning model, acquiring a trajectory of the object by tracking the detected object, and analyzing the trajectory using a second machine learning model, thereby corresponding to the trajectory A method for analyzing a traffic situation is provided through the step of analyzing an event.

Description

교통 상황 분석 방법 및 장치{METHOD AND APPARATUS FOR ANALYZING TRAFFIC SITUATION}Traffic situation analysis method and device {METHOD AND APPARATUS FOR ANALYZING TRAFFIC SITUATION}

본 기재는 실시간 감시영상을 바탕으로 교통 상황을 분석하는 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for analyzing traffic conditions based on real-time monitoring images.

통행량은 일반적으로 지역별 및 시간별 녹화 영상을 본 사용자에 의해 단순 반복적 작업으로 계수될 수 있어서, 많은 시간과 비용이 소모된다. 종래의 실시간 차량 검지기에서 루프 센서는 각 도로에 방향별로 설치되기 때문에 많은 설치 비용이 요구되고, 실시간 차량 검지기는 고장 수리가 어려운 단점이 있다. Traffic volume can generally be counted as a simple repetitive task by a user who has viewed recorded images by region and by time, which consumes a lot of time and money. In the conventional real-time vehicle detector, since the loop sensor is installed in each direction on each road, a lot of installation cost is required, and the real-time vehicle detector has a disadvantage in that it is difficult to repair.

또한 종래의 통행량 측정 장치는 비정상 상황을 인식하기 위해 특정한 영역의 특정한 상황에 맞춰진, 제한적인 규칙 기반 방식의 알고리즘을 사용하므로, 인식 가능한 비정상 상황이 제한적이고, 환경 변화에 민감하다.In addition, conventional traffic measurement devices use a limited rule-based algorithm tailored to a specific situation in a specific area to recognize an abnormal situation, so that the number of abnormal situations that can be recognized is limited and sensitive to environmental changes.

한 실시예는, 기계학습 모델을 사용하여 교통 감시영상으로부터 교통 상황을 분석하는 방법을 제공한다.One embodiment provides a method of analyzing traffic conditions from traffic monitoring images using a machine learning model.

한 실시예에 따르면 교통 상황 분석 방법이 제공된다. 상기 교통 상황 분석 방법은, 제1 기계학습 모델을 사용하여 교통 감시영상에서 객체를 검출하는 단계, 검출된 객체를 추적하여 객체의 궤적을 획득하는 단계, 그리고 제2 기계학습 모델을 사용하여 궤적을 분석함으로써, 궤적에 대응하는 이벤트를 분석하는 단계를 포함한다.According to one embodiment, a traffic situation analysis method is provided. The traffic situation analysis method includes detecting an object in a traffic monitoring image using a first machine learning model, acquiring a trajectory of the object by tracking the detected object, and trajectory using a second machine learning model. By analyzing, an event corresponding to the trajectory is analyzed.

인공 신경망을 사용하여 실시간 교통 감시영상으로부터 객체 및 객체의 궤적이 정확히 인식되고, 객체의 각종 움직임에 따른 비정상 이벤트의 발생 또한 신속하고 정확하게 판단될 수 있다. Objects and their trajectories can be accurately recognized from real-time traffic monitoring images using artificial neural networks, and the occurrence of abnormal events according to various movements of objects can be quickly and accurately determined.

도 1은 한 실시예에 따른 교통 상황 분석 장치를 나타낸 블록도이다.
도 2는 한 실시예에 따른 교통 상황 분석 방법을 나타낸 흐름도이다.
도 3은 한 실시예에 따른 교차로의 교통 감시영상 내에서 검출된 객체를 나타낸 예시이다.
도 4는 한 실시예에 따른 객체 검출 방법을 나타낸 흐름도이다.
도 5는 한 실시예에 따른 객체 검출 방법을 나타낸 개념도이다.
도 6은 한 실시예에 따른 객체 재검출 방법을 나타낸 개념도이다.
도 7은 한 실시예에 따른 객체 추적 방법을 나타낸 흐름도이다.
도 8은 한 실시예에 따른 이미지 프레임 내의 객체 추적 결과를 나타낸 예시이다.
도 9는 한 실시예에 따른 궤적 이미지 데이터로부터 분석된 이벤트를 나타낸다.
도 10은 다른 실시예에 따른 교통 상황 분석 장치를 나타낸 블록도이다.
1 is a block diagram illustrating a traffic condition analysis device according to an exemplary embodiment.
2 is a flowchart illustrating a traffic condition analysis method according to an exemplary embodiment.
3 is an example of an object detected in a traffic surveillance image of an intersection according to an exemplary embodiment.
4 is a flowchart illustrating a method of detecting an object according to an exemplary embodiment.
5 is a conceptual diagram illustrating an object detection method according to an exemplary embodiment.
6 is a conceptual diagram illustrating a method of redetecting an object according to an exemplary embodiment.
7 is a flowchart illustrating a method for tracking an object according to an exemplary embodiment.
8 is an example illustrating an object tracking result in an image frame according to an exemplary embodiment.
9 shows events analyzed from trajectory image data according to an embodiment.
10 is a block diagram illustrating a traffic condition analysis device according to another embodiment.

아래에서는 첨부한 도면을 참고로 하여 본 기재의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 기재는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 기재를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly explain the present description in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 한 실시예에 따른 교통 상황 분석 장치를 나타낸 블록도이다.1 is a block diagram illustrating a traffic condition analysis device according to an exemplary embodiment.

도 1을 참조하면, 한 실시예에 따른 교통 상황 분석 장치(100)는 전처리부(110) 및 후처리부(120)를 포함한다. 전처리부(110)는 객체 검출부(111), 객체 추적부(112), 및 객체 데이터베이스(database, DB)(113)를 포함한다. 후처리부(120)는 궤적 변환부(121), 이벤트 분석부(122), 및 이벤트 DB(123)를 포함한다. 한 실시예에 따른 교통 상황 분석 장치(100)는 도로 및 도로 주변의 교통 감시영상을 생성하는 카메라의 주변에 위치할 수도 있고, 카메라로부터 지리적으로 떨어진 곳에 위치하여 유선 또는 무선 네트워크를 통해 카메라로부터 교통 감시영상을 수신할 수 있다.Referring to FIG. 1 , a traffic condition analysis apparatus 100 according to an embodiment includes a pre-processing unit 110 and a post-processing unit 120. The pre-processing unit 110 includes an object detection unit 111, an object tracking unit 112, and an object database (DB) 113. The post-processing unit 120 includes a trajectory conversion unit 121, an event analysis unit 122, and an event DB 123. The traffic condition analysis device 100 according to an embodiment may be located around a camera that generates monitoring images of roads and traffic around the roads, or may be located at a location geographically distant from the camera to transmit traffic from the camera through a wired or wireless network. You can receive surveillance images.

전처리부(110)는 기계학습 모델을 사용하여 실시간으로 촬영되는 교통 감시영상으로부터 이동하는 객체를 검출하고 검출된 객체를 추적할 수 있다. 전처리부(110)는 도로 및 도로에 인접한 영역을 촬영하는 적어도 하나의 카메라로부터 실시간 교통 감시영상 및/또는 교통 정보의 수집을 위해 촬영된 교통 정보 영상을 수신할 수 있다. The pre-processing unit 110 may detect a moving object from a traffic monitoring image captured in real time using a machine learning model and track the detected object. The pre-processing unit 110 may receive a real-time traffic monitoring image and/or a traffic information image captured for collection of traffic information from at least one camera capturing a road and an area adjacent to the road.

객체 검출부(111)는 기계학습 모델(객체 검출 모델)을 사용하여 실시간 교통 감시영상에서 객체를 검출할 수 있다. 객체 검출부(111)는 객체의 검출 결과를 객체 DB(113)에 저장하고, 객체 DB(113)에 저장된 데이터를 사용하여 객체 검출 모델을 트레이닝 및/또는 재트레이닝(re-training) 시킬 수 있다. The object detection unit 111 may detect an object from a real-time traffic monitoring image using a machine learning model (object detection model). The object detector 111 may store object detection results in the object DB 113 and perform training and/or re-training of the object detection model using the data stored in the object DB 113.

객체 추적부(112)는 검출된 객체를 추적하여 객체의 궤적을 획득할 수 있다.The object tracker 112 may obtain a trajectory of the object by tracking the detected object.

객체 DB(113)는 객체의 검출 결과를 저장하고, 객체 검출 모델의 트레이닝시 객체의 검출 결과를 객체 검출부(111)의 객체 검출 모델로 피드백할 수 있다. 한 실시예에 따른 객체 DB(113)는 초기 DB 및 결과 DB를 포함할 수 있다. 초기 DB는 다양한 경로를 통해 공개된 공중 DB 및 사전 수집된 데이터를 포함할 수 있고, 초기 DB에 포함된 데이터를 사용하여 객체 검출 모델의 사전 학습(pre-training)이 수행될 수 있다. The object DB 113 may store object detection results and feed back object detection results to the object detection model of the object detection unit 111 during object detection model training. The object DB 113 according to an embodiment may include an initial DB and a result DB. The initial DB may include public DB and pre-collected data released through various paths, and pre-training of the object detection model may be performed using the data included in the initial DB.

객체 검출 모델의 사전 학습은 한 실시예에 따른 교통 상황 분석 장치(100)가 실전에 배치되기 이전에 수행될 수 있다. 교통 상황 분석 장치(100)가 실전에 배치된 후 실시간으로 전달되는 교통 감시 영상 및/또는 교통 정보 영상을 바탕으로 객체 검출 모델은 재학습되고, 재학습된 객체 검출 모델을 사용하여 교통 감시 영상 내에서 객체가 검출될 수 있다. 검출된 객체의 객체 정보는 검출 결과의 신뢰도(0~100%)와 매칭되어서 결과 DB 내에 저장될 수 있다. 미리 결정된 주기마다 결과 DB 내에 저장된 데이터를 사용하여 객체 검출 모델이 재학습될 수 있어서, 교통 상황 분석 장치(100)는 배치된 장소의 환경에 효율적으로 적응할 수 있고, 객체의 검출 성능이 향상될 수 있다. 또한, 교통 상황 분석 장치(100)는 배치된 장소의 변화, 예를 들어, 차선 확장, 차선 축소 등의 도로 환경의 변화, 각종 공사 등으로 인한 도로 주변 환경의 변화, 출현하는 객체 유형의 변화 등에 효과적으로 대응할 수 있다. 결과 DB 내의 데이터 중 상대적으로 높은 신뢰도를 갖는 데이터만이 객체 검출 모델의 재학습시 사용될 수 있다. 여기서 교통 상황 분석 장치(100)는 사용자가 결과 DB 내의 데이터를 선택할 수 있는 인터페이스를 포함할 수 있다. 사용자가 결과 DB 내의 데이터를 선택할 수 있는 인터페이스는, 특정한 상황(예를 들어 객체의 검출 성능이 개선되지 않거나 저하되는 상황 등)의 발생이 사용자에게 알려졌을 때, 선택, 분류, 제거 등의 학습 데이터의 재설정이 수동으로 수행되기 위해 사용될 수 있다.Pre-learning of the object detection model may be performed before the traffic situation analysis apparatus 100 according to an embodiment is actually deployed. After the traffic situation analysis device 100 is deployed in practice, the object detection model is re-learned based on the traffic monitoring image and/or the traffic information image delivered in real time, and the re-learned object detection model is used in the traffic monitoring image. An object can be detected in Object information of the detected object may be matched with the reliability (0 to 100%) of the detection result and stored in the result DB. Since the object detection model can be re-learned using data stored in the result DB at predetermined intervals, the traffic situation analysis device 100 can efficiently adapt to the environment of the place where it is located, and object detection performance can be improved. there is. In addition, the traffic situation analysis device 100 may be used for changes in the place where it is placed, for example, changes in the road environment such as lane expansion and lane narrowing, changes in the environment around the road due to various construction works, and changes in the types of objects that appear. can respond effectively. Among the data in the result DB, only data having relatively high reliability may be used when retraining the object detection model. Here, the traffic condition analysis apparatus 100 may include an interface through which a user may select data in a result DB. The interface through which the user can select data in the result DB is learning data such as selection, classification, and removal when the user is notified of the occurrence of a specific situation (eg, a situation in which the detection performance of an object is not improved or deteriorated). can be used to manually perform a reset of

후처리부(120)는 추적된 객체의 궤적 정보를 분석용 데이터로 변환하고, 기계학습 모델을 사용하여 분석용 데이터로부터 객체의 궤적에 대응하는 이벤트를 분석할 수 있다. 궤적 정보를 분석용 데이터로 변환하는 것은, 2차원 이미지 분류 방식, 3차원 이미지 분류 방식, 및 포인트 클라우드 분석 방식 등에 따를 수 있다. 예를 들어, 후처리부(120)는 객체의 궤적 정보를 2차원 평면에 투영함으로써 2차원 궤적 이미지를 획득하고, 2차원 이미지 분류를 통해 2차원 궤적 이미지를 분석용 데이터로 변환할 수 있다. 2차원 이미지를 사용하면, 분석 결과가 시각적으로 표시되기 쉽지만 시간적 의미가 상실되고 계산 시간이 길어질 수 있다. 또는 후처리부(120)는 객체의 궤적 정보를 3차원 공간에 투영함으로써 3차원 궤적 이미지를 획득하고, 3차원 이미지 분류를 통해 3차원 궤적 이미지를 분석용 데이터로 변환할 수 있다. 3차원 이미지를 사용하면, 궤적의 공간적 정보와 시간적 정보가 함께 사용될 수 있지만, 2차원 이미지에 비해 계산 시간이 더 길어질 수 있다. 또는 후처리부(120)는 객체의 궤적 정보의 포인터 정보를 사용하여 포인트 클라우드 분석을 통해 분석용 데이터를 생성할 수 있다. 포인터 정보를 사용하면, 시공간 정보도 사용되고 시간 및 메모리 자원이 절약될 수 있다. The post-processing unit 120 may convert trajectory information of the tracked object into data for analysis, and analyze an event corresponding to the trajectory of the object from the data for analysis using a machine learning model. Converting trajectory information into data for analysis may be performed according to a 2D image classification method, a 3D image classification method, a point cloud analysis method, or the like. For example, the post-processing unit 120 may obtain a 2D trajectory image by projecting object trajectory information onto a 2D plane, and convert the 2D trajectory image into data for analysis through 2D image classification. If a two-dimensional image is used, the analysis result is easy to display visually, but the temporal meaning is lost and the calculation time may be increased. Alternatively, the post-processing unit 120 may obtain a 3D trajectory image by projecting the trajectory information of the object onto a 3D space, and convert the 3D trajectory image into data for analysis through 3D image classification. When a 3D image is used, both spatial and temporal information of the trajectory can be used together, but the computation time may be longer than that of a 2D image. Alternatively, the post-processing unit 120 may generate analysis data through point cloud analysis using pointer information of object trajectory information. If pointer information is used, space-time information can also be used and time and memory resources can be saved.

궤적 변환부(121)는 객체의 궤적을 포인터 정보 등의 분석용 데이터로 변환할 수 있다.The trajectory conversion unit 121 may convert the trajectory of the object into analysis data such as pointer information.

이벤트 분석부(122)는 기계학습 모델(이벤트 분석 모델)을 사용하여 객체의 궤적을 나타내는 데이터로부터 객체의 궤적에 대응하는 이벤트를 분석할 수 있다. The event analyzer 122 may analyze an event corresponding to the trajectory of the object from data representing the trajectory of the object using a machine learning model (event analysis model).

이벤트 DB(123)는 이벤트의 분석 결과를 저장하고, 이벤트의 분석 결과를 이벤트 분석부(122)의 이벤트 분석 모델로 피드백함으로써 이벤트 분석 모델의 트레이닝을 수행할 수 있다. 이벤트 DB(123)는 초기 이벤트 DB 및 결과 이벤트 DB를 포함할 수 있다. 초기 이벤트 DB는 이벤트 분석 모델의 사전 트레이닝을 위해 사용될 수 있고, 결과 이벤트 DB는 이벤트 분석 모델의 주기적 또는 비주기적인 재트레이닝을 위해 사용될 수 있다. 예를 들어, 사진 수집된 데이터를 포함하는 초기 이벤트 DB를 통해 사전 트레이닝된 이벤트 분석 모델은, 교통 상황 분석 장치(100)가 설치된 장소에는 아직 최적화되어 있지 않을 수 있다. 따라서, 교통 상황 분석 장치(100)가 설치된 장소에서 수집된 영상 및 검출된 이벤트 등을 사용하여 이벤트 분석 모델이 재트레이닝됨으로써, 이벤트의 분석 성능이 향상될 수 있다. 중앙선 침범 또는 역주행 등의 이벤트는 비정상 이벤트로 분석될 수 있지만, 실시간으로 수집되는 영상을 통해 이벤트 분석 모델이 재트레이닝되면, 중앙선 침범 또는 역주행의 빈도가 비정상적으로 증가하는 것이 학습되고, 이에 따라 이벤트 분석 모델은 중앙선 침범 또는 역주행을 공사 등에 따른 도로 우회 이벤트로 분석해낼 수 있다. 공사 등이 종료되면 역주행 등의 빈도가 감소하고, 이에 따라 재트레이닝된 이벤트 분석 모델은 역주행 이벤트를 다시 올바르게 분석하게 될 수 있다.The event DB 123 may perform event analysis model training by storing event analysis results and feeding back the event analysis results to the event analysis model of the event analyzer 122 . The event DB 123 may include an initial event DB and a result event DB. The initial event DB may be used for pre-training of the event analysis model, and the resulting event DB may be used for periodic or non-periodic re-training of the event analysis model. For example, an event analysis model pre-trained through an initial event DB including photo-collected data may not yet be optimized for a place where the traffic situation analysis apparatus 100 is installed. Accordingly, event analysis performance may be improved by retraining the event analysis model using images collected from the place where the traffic condition analysis device 100 is installed and detected events. Events such as invading the center line or running in reverse can be analyzed as abnormal events, but when the event analysis model is retrained through images collected in real time, it is learned that the frequency of invading the center line or running in reverse is abnormally increased, and event analysis accordingly The model can analyze center line violations or reverse driving as road detour events due to construction. When the construction work is finished, the frequency of reverse driving decreases, and accordingly, the retrained event analysis model may correctly analyze reverse driving events again.

아래에서는 도 2를 참조하여 한 실시예에 따른 교통 상황 분석 장치의 교통 상황 분석 방법을 상세히 설명한다.Hereinafter, a traffic situation analysis method of a traffic situation analysis device according to an embodiment will be described in detail with reference to FIG. 2 .

도 2는 한 실시예에 따른 교통 상황 분석 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a traffic condition analysis method according to an exemplary embodiment.

도 2를 참조하면, 한 실시예에 따른 교통 상황 분석 장치(100)의 객체 검출부(111)는 객체 검출 모델을 사용하여 교통 감시영상 내에서 객체를 검출한다(S110). 객체 검출 모델은 기계학습 모델로서, 객체 검출부(111)에는 객체 탐지를 위한 다양한 기계학습 방식(예를 들어, R-CNN(Region-based Convolutional Neural Networks), SSD(Single Shot Detector), YOLO(you only look once) 등의 딥러닝 방식과 같은 기계학습 알고리즘)을 통해 객체 검출 모델이 생성되어 있다. 객체 검출 모델의 생성을 위해서, 객체 검출부(111)는 객체 검출 모델의 트레이닝을 위한 학습 데이터로서, 실시간으로 생성되거나 또는 미리 녹화된, 교통 감시영상(도로 감시영상 및 도로 주변 영상을 포함할 수 있음)을 사용할 수 있다. 객체 검출부(111)는 교통 감시영상의 각 이미지 프레임과, 이미지 프레임 내의 객체, 객체의 종류 및 위치(2차원 또는 3차원 좌표)에 관한 정보 등을 사용하여 객체 검출 모델을 트레이닝할 수 있다. Referring to FIG. 2 , the object detection unit 111 of the traffic condition analysis device 100 according to an exemplary embodiment detects an object in a traffic monitoring image using an object detection model (S110). The object detection model is a machine learning model, and the object detection unit 111 includes various machine learning methods for object detection (eg, R-CNN (Region-based Convolutional Neural Networks), SSD (Single Shot Detector), YOLO (you An object detection model is created through a machine learning algorithm such as a deep learning method such as only look once). In order to create an object detection model, the object detection unit 111 is used as learning data for object detection model training, generated in real time or pre-recorded, traffic surveillance images (which may include road surveillance images and road surrounding images). ) can be used. The object detection unit 111 may train an object detection model using information about each image frame of the traffic monitoring image, an object in the image frame, and the type and location (2D or 3D coordinates) of the object.

도 3은 한 실시예에 따른 교차로의 교통 감시영상 내에서 검출된 객체를 나타낸 예시이고, 도 4는 한 실시예에 따른 객체 검출 방법을 나타낸 흐름도이고, 도 5는 한 실시예에 따른 객체 검출 방법을 나타낸 개념도이며, 도 6은 한 실시예에 따른 객체 재검출 방법을 나타낸 개념도이다.3 is an example showing objects detected in a traffic monitoring image of an intersection according to an embodiment, FIG. 4 is a flowchart illustrating an object detection method according to an embodiment, and FIG. 5 is an object detection method according to an embodiment. , and FIG. 6 is a conceptual diagram illustrating a method of redetecting an object according to an embodiment.

도 3을 참조하면, 한 실시예에 따른 객체 검출부(111)는 북쪽에서 남쪽으로 진행하는 다수의 차량을 객체로서 검출하였고, 동쪽에서 신호대기 중인 차량을 객체로서 검출하였다. 객체는 점선 박스로 표시되어 있다. 도 3에서 카메라에서 먼 객체(예를 들어, 이미지 프레임의 최상단에서 검출된 객체)는 상대적으로 작기 때문에 객체 검출부(111)는 원근 보정을 통해 객체의 검출 성능을 향상시킬 수 있다.Referring to FIG. 3 , the object detection unit 111 according to an exemplary embodiment detects a plurality of vehicles moving from north to south as objects, and detects a vehicle waiting at a signal in the east as objects. Objects are indicated by dotted boxes. In FIG. 3 , since an object far from the camera (eg, an object detected at the top of an image frame) is relatively small, the object detector 111 may improve object detection performance through perspective correction.

도 4를 참조하면, 한 실시예에 따른 객체 검출부(111)는 이미지 프레임을 원근에 따라 복수의 이미지 블록으로 분할할 수 있다(S111). 도 5를 참조하면, 이미지 프레임은 15개의 크고 작은 이미지 블록으로 분할될 수 있다. 여기서 이미지 블록의 크기는 카메라로부터의 거리에 따라 달라지고, 하나의 이미지 블록은 실제 공간에서 동일한 면적에 대응할 수 있다. Referring to FIG. 4 , the object detection unit 111 according to an exemplary embodiment may divide an image frame into a plurality of image blocks according to perspective (S111). Referring to FIG. 5 , an image frame may be divided into 15 large and small image blocks. Here, the size of the image block varies according to the distance from the camera, and one image block may correspond to the same area in real space.

객체 검출부(111)는 각 이미지 블록을 동일한 크기의 균등 이미지 블록(uniform image block)으로 변환하고(S112), 균등 이미지 블록 내에서 객체를 검출할 수 있다(S113). 도 5를 참조하면, 블록1, 블록2, 블록4, 블록5, 블록7, 블록8, 블록9, 및 블록15 내에서 각각 하나의 객체가 검출되었다. 객체 검출부(111)는 동일한 크기로 변환된 각각의 균등 이미지 블록 내에서 객체를 검출함으로써 카메라로부터 멀리 떨어진 영역에서도 객체의 검출 성능을 향상시킬 수 있다. 이후 객체 검출부(111)는 균등 이미지 블록을 원본 이미지 블록과 같은 크기로 복원할 수 있다(S114). 즉, 도 5를 참조하면, 프로세서(즉, 객체 검출부)는 상기 객체를 검출할 때, 상기 교통 감시영상의 이미지 프레임의 하단일수록 상기 이미지 프레임을 상단 대비 상대적으로 크기가 큰 복수의 이미지 블록으로 분할하고, 상기 교통 감시영상의 이미지 프레임의 상단일수록 상기 이미지 프레임을 하단 대비 상대적으로 크기가 작은 복수의 이미지 블록으로 분할하고, 상기 상대적으로 큰 이미지 블록의 크기는 축소시키고 상기 상대적으로 작은 이미지 블록의 크기는 확대시킴으로써, 동일한 크기의 균등 이미지 블록으로 변환시킨 후, 해당 이미지 블록 내에서 객체를 검출한다.The object detector 111 may convert each image block into a uniform image block having the same size (S112) and detect an object within the uniform image block (S113). Referring to FIG. 5 , one object is detected in each of block 1 , block 2 , block 4 , block 5 , block 7 , block 8 , block 9 , and block 15 . The object detection unit 111 may improve object detection performance even in an area far from the camera by detecting an object in each uniform image block converted to the same size. Afterwards, the object detector 111 may restore the equal image block to the same size as the original image block (S114). That is, referring to FIG. 5 , when the processor (ie, the object detection unit) detects the object, the image frame of the traffic surveillance video is divided into a plurality of image blocks relatively large in size compared to the upper end of the image frame of the traffic monitoring image. and divides the image frame into a plurality of image blocks that are smaller in size compared to the lower portion of the image frame of the traffic surveillance video as the upper portion of the image frame of the traffic surveillance video goes, reduces the size of the relatively large image block, and reduces the size of the relatively small image block. By enlarging, it is converted into a uniform image block of the same size, and then an object is detected within the corresponding image block.

객체 DB(113)는 객체의 검출 결과를 저장할 수 있다. 한 실시예에 따른 객체 DB(113)는 검출된 객체의 종류, 객체가 검출된 위치(좌표 또는 영역), 검출 신뢰도 등의 객체 정보를 객체 이미지와 매칭시켜서 저장할 수 있다. The object DB 113 may store object detection results. The object DB 113 according to an embodiment may match and store object information such as the type of detected object, location (coordinates or area) where the object was detected, and detection reliability with object images.

한 실시예에 따른 객체 검출부(110)는 인공 신경망 네트워크(예를 들어, 심층 신경망(deep neural network, DNN), 콘볼루션 신경망(convolutional neural network, CNN) 등)에 기반한 검출기(예를 들어, yolo, faster-RCNN 등)를 객체 검출 모델에 적용할 수 있다. 예를 들어, 객체 검출부(110)는 미리 결정된 검출 신뢰도가 확보될 때까지 객체 검출 모델의 사전 학습을 반복할 수 있고, 사전 학습의 결과로 획득되는 객체의 객체 이미지 및 객체 정보는 객체 DB(113)에 저장되고 객체 검출 모델의 재트레이닝을 위해 사용될 수 있다. 객체 검출부(111)는 반복적으로 트레이닝된 객체 검출 모델을 사용함으로써, 실시간으로 촬영되는 교통 감시영상에서 객체를 검출하는 속도 및 인식률을 향상시킬 수 있고, 새롭게 추가되는 유형의 객체를 적응적으로 신속히 인식할 수 있다.The object detector 110 according to an embodiment may include a detector (eg, yolo) based on an artificial neural network (eg, a deep neural network (DNN), a convolutional neural network (CNN), etc.) , faster-RCNN, etc.) can be applied to the object detection model. For example, the object detector 110 may repeat prior learning of the object detection model until a predetermined detection reliability is secured, and the object image and object information of the object obtained as a result of the prior learning may be stored in the object DB 113. ) and can be used for retraining the object detection model. The object detection unit 111 can improve the speed and recognition rate of detecting objects in real-time traffic monitoring images by using the repeatedly trained object detection model, and adaptively and quickly recognize newly added types of objects. can do.

다시 도 2를 참조하면, 객체 추적부(112)는 교통 감시영상 내에서 검출된 객체를 추적하여 객체의 궤적을 획득한다(S120). Referring back to FIG. 2 , the object tracker 112 tracks the object detected in the traffic monitoring image and obtains the trajectory of the object (S120).

도 7은 한 실시예에 따른 객체 추적 방법을 나타낸 흐름도이고, 도 8은 한 실시예에 따른 이미지 프레임 내의 객체 추적 결과를 나타낸 예시이다.7 is a flowchart illustrating an object tracking method according to an exemplary embodiment, and FIG. 8 is an example illustrating an object tracking result in an image frame according to an exemplary embodiment.

도 7을 참조하면, 한 실시예에 따른 객체 추적부(112)는 연속되는 이미지 프레임 내의 객체를 미리 결정된 추적 알고리즘에 따라 추적할 수 있다(S121). 미리 결정된 추적 알고리즘은 IOU(Intersection over Union), KCF(Kernelized Correlation Filters), MIL(Multiple Instance Learning), 및 TLD(Tracking, learning and detection)를 포함할 수 있다. 객체 추적부(112)는 객체 추적 성능을 향상시키기 위해서, 딥러닝의 특징 정보와, 색상, 크기, 방향, 거리 등의 핸드크래프트 특징 정보를 추가적으로 사용할 수 있다. 도 8에서 객체를 둘러싸고 있는 박스는 도 8에 도시된 이미지 프레임 내에서 추적되고 있는 객체의 영역을 나타낸다. 도 8에서, 객체에 닿아서 객체의 진행 방향과 반대 방향으로 이어진 점들은 객체의 궤적이고, 각각 이전 이미지 프레임에서 추적된 객체 박스의 중심 좌표에 대응한다. 객체 박스 위의 숫자는 각각 식별 번호, 신뢰도, 이동 거리 등의 정보를 나타낸다. 예를 들어, 도 8의 중심부에서 추적되고 있는 객체의 객체 박스 위의 '370'은 객체의 식별 번호를 나타내고, '0.7,1.0, 919.8'에서 0.7은 객체 검출의 신뢰도이고, 1.0은 객체 추적의 신뢰도이며, '919.8'은 추적된 객체가 이동한 픽셀 거리를 나타낸다. 이동 거리는 특정 객체의 추적이 시작된 이후 특정 객체가 이동한 총 거리를 나타낼 수도 있고, 또는 객체의 정지 등으로 초기화된 이후부터 특정 객체가 이동한 총 거리를 나타낼 수 있다. 이동 거리는 추적되는 객체가 미리 결정된 시간 동안 움직이지 않을 때 0으로 초기화될 수 있다. Referring to FIG. 7 , the object tracking unit 112 according to an exemplary embodiment may track objects in successive image frames according to a predetermined tracking algorithm (S121). The predetermined tracking algorithm may include Intersection over Union (IOU), Kernelized Correlation Filters (KCF), Multiple Instance Learning (MIL), and Tracking, learning and detection (TLD). The object tracking unit 112 may additionally use handcraft feature information such as color, size, direction, distance, and feature information of deep learning to improve object tracking performance. A box surrounding an object in FIG. 8 represents an area of the object being tracked within the image frame shown in FIG. 8 . In FIG. 8 , points that reach the object and run in the direction opposite to the moving direction of the object are trajectories of the object, and correspond to the center coordinates of the object box tracked in the previous image frame. Numbers above the object boxes represent information such as identification number, reliability, and moving distance, respectively. For example, '370' on the object box of the object being tracked in the center of FIG. 8 represents the identification number of the object, 0.7 in '0.7, 1.0, 919.8' is the reliability of object detection, and 1.0 is the reliability of object tracking. Reliability, '919.8' represents the pixel distance the tracked object has moved. The movement distance may represent the total distance traveled by the specific object after the tracking of the specific object started, or the total distance traveled by the specific object after being initialized by stopping the object. The movement distance may be initialized to 0 when the tracked object does not move for a predetermined amount of time.

객체 추적부(112)는 이미지 프레임에서 새로 발견되거나 이미지 프레임에서 사라지는 객체를 관리하기 위해 객체 추적 리스트를 관리할 수 있다. 도 7을 참조하면, 한 실시예에 따른 객체 추적부(112)는 시간적으로 인접한 두 개의 이미지 프레임(예를 들어, 프레임 n 및 프레임 n+1) 내에서 추적되고 있는 객체의 유사도를 계산하고(S122), 계산된 유사도에 따라 유사 객체 쌍을 매칭할 수 있다(S123). The object tracking unit 112 may manage an object tracking list in order to manage objects that are newly discovered in the image frame or disappear from the image frame. Referring to FIG. 7 , the object tracking unit 112 according to an embodiment calculates a similarity of an object being tracked in two temporally adjacent image frames (eg, frame n and frame n+1) ( S122), similar object pairs may be matched according to the calculated similarity (S123).

예를 들어, 객체 추적부(112)는 이미지 프레임 n+1 내에 새롭게 검출된 객체가 있을 때, 새롭게 검출된 객체와 이미지 프레임 n까지 추적된 객체 간의 유사도를 계산할 수 있다. 객체 추적부(112)는 연속하여 입력되는 프레임에서 각각 검출된 객체의 정보(IOU, 컬러 정보, 진행 방향, scale 변화량 등)를 사용하여 프레임 n까지 추적된 객체 및 프레임 n+1에서 검출된 객체 간의 유사도를 계산할 수 있다. 여기서 유사도는 프레임 n까지에서 추적되고 있는 추적 객체와, 프레임 n+1에서 검출된 객체 간의 유사도를 나타내는 유사도 행렬로서 표현될 수 있다. 수학식 1은 프레임 n까지에서 추적된 n개의 추적 객체와 프레임 n+1에서 검출된 m개의 검출 객체의 객체 정보를 나타내고, 표 1은 n개의 추적 객체와 m개의 검출 객체 간의 유사도 행렬을 나타낸다.For example, when there is a newly detected object in image frame n+1, the object tracking unit 112 may calculate a similarity between the newly detected object and the object tracked up to image frame n. The object tracking unit 112 uses information (IOU, color information, direction of movement, amount of scale change, etc.) of each detected object in consecutively input frames to track the object up to frame n and the object detected in frame n+1. The degree of similarity between them can be calculated. Here, the similarity may be expressed as a similarity matrix representing the similarity between the tracked object being tracked up to frame n and the object detected in frame n+1. Equation 1 represents object information of n tracking objects tracked up to frame n and m detection objects detected in frame n+1, and Table 1 shows a similarity matrix between n tracking objects and m detection objects.

표 1의 추적 객체 및 검출 객체 간 유사도는 프레임 n에서 추정 중인 모든 추적 객체의 객체 정보와 프레임 n+1 내의 모든 검출 객체의 객체 정보의 사각 영역 간의 IOU 값으로부터 계산될 수 있다. 또는 추적 객체 및 검출 객체 간 유사도는 IOU, x좌표, y좌표, 너비(width), 높이(height), 스케일(scale), 색상(color) 등의 객체 정보를 벡터화하고, 벡터화된 객체 정보 간의 유클리드 거리, 맨하탄 거리, 헤밍 거리 등 다양한 거리 연산으로부터 계산될 수 있다.The similarity between the tracking object and the detection object in Table 1 can be calculated from the IOU value between the object information of all tracking objects being estimated in frame n and the rectangular area of the object information of all detection objects in frame n+1. Or, the similarity between the tracking object and the detection object vectorizes object information such as IOU, x coordinate, y coordinate, width, height, scale, and color, and Euclidean between vectorized object information It can be calculated from various distance operations such as distance, Manhattan distance, and Hemming distance.

객체 추적부(112)는 유사 객체 쌍의 매칭 결과에 따라 객체 추적 리스트를 갱신할 수 있다(S124). 예를 들어, n번째 이미지 프레임과 n+1번째 이미지 프레임에서 서로 동일한 객체인 것으로 판단된 두 개의 객체가 유사 객체 쌍으로서 매칭될 수 있다. 이후 n+2번째 이미지 프레임에서 n+1번째 이미지 프레임 내의 객체와 동일한 또는 동일한 것으로 판단된 객체가 없을 때, 객체 추적부(112)는 객체가 카메라의 감시 영역에서 사라진 것으로 판단하고 객체 추적 리스트 내에서 유사 객체 쌍을 삭제할 수 있다. The object tracking unit 112 may update the object tracking list according to the matching result of similar object pairs (S124). For example, two objects determined to be the same object in the n-th image frame and the n+1-th image frame may be matched as a similar object pair. Then, when there is no object identical to or determined to be identical to the object in the n+1 th image frame in the n+2 th image frame, the object tracking unit 112 determines that the object has disappeared from the monitoring area of the camera and returns to the object tracking list. You can delete pairs of similar objects from .

표 1의 유사도 행렬에서 프레임 n+1에서 검출된 제1 검출 객체(Detect_1)은 프레임 n까지에서 추적되던 n개의 추적 객체 중에서 제1 추적 객체(Track_1)와의 유사도가 100이므로, 제1 검출 객체의 객체 정보는 제1 추적 객체의 객체 정보로서 객체 추적 리스트에 업데이트될 수 있다. 표 1에서 프레임 n+1에서 검출된 제m 검출 객체(Detect_m)은 프레임 n까지에서 추적되던 모든 검출 객체와의 유사도가 미리 결정된 기준(예를 들어, 90)보다 낮을 수 있고, 이때 제m 검출 객체의 객체 정보는 새로운 추적 객체로서 객체 추적 리스트에 업데이트될 수 있다.In the similarity matrix of Table 1, since the first detection object (Detect_1) detected at frame n+1 has a similarity of 100 to the first tracking object (Track_1) among the n tracking objects tracked up to frame n, Object information may be updated in the object tracking list as object information of the first tracking object. In Table 1, the mth detection object Detect_m detected in frame n+1 may have a similarity lower than a predetermined criterion (eg, 90) with all detection objects tracked up to frame n, and in this case, the mth detection object Object information of an object may be updated in the object tracking list as a new tracking object.

여기서 m이 n보다 클 때(즉, 추적 객체보다 검출 객체가 많을 때), 프레임 n+1 내의 검출 객체 중에는 n개의 추적 객체에 대응하지 않는 객체가 있다. 이때 미리 결정된 제1 프레임 개수 동안 계속하여 대응하는 추적 객체가 없는 검출 객체는 새로운 추적 객체로서 객체 추적 리스트에 업데이트될 수 있다. 또는 m보다 n이 클 때(즉, 추적 객체가 검출 객체보다 많을 때), 프레임 n+1 내의 모든 검출 객체는 프레임 n까지의 추적 객체에 모두 대응하고, 대응하는 검출 객체가 없는 추적 객체가 있을 수 있다. 이때 미리 결정된 제2 프레임 개수 동안 계속하여 대응하는 검출 객체가 없는 추적 객체의 객체 정보는 객체 추적 리스트에서 삭제될 수 있다.Here, when m is greater than n (that is, when there are more detection objects than tracking objects), there are objects that do not correspond to n tracking objects among detection objects in frame n+1. In this case, a detection object that does not have a corresponding tracking object continuously for a predetermined number of frames may be updated in the object tracking list as a new tracking object. Or when n is greater than m (ie, when there are more tracking objects than detection objects), all detection objects in frame n+1 correspond to all tracking objects up to frame n, and there may be tracking objects without corresponding detection objects. can In this case, object information of a tracking object that does not have a corresponding detection object continuously for a predetermined number of frames may be deleted from the object tracking list.

다시 도 2를 참조하면, 한 실시예에 따른 궤적 변환부(121)는 추적된 객체의 궤적을 분석 가능한 분석용 데이터로 변환할 수 있다(S130). 예를 들어, 궤적 변환부(121)는 객체의 궤적을 2차원 이미지에 투영함으로써 궤적 이미지 데이터로 변환하거나, 또는 2차원 또는 3차원 포인터 정보로 변환할 수 있다. Referring back to FIG. 2 , the trajectory conversion unit 121 according to an embodiment may convert the trajectory of the tracked object into analyzeable data for analysis (S130). For example, the trajectory conversion unit 121 may convert the trajectory of an object into trajectory image data by projecting it onto a 2D image, or into 2D or 3D pointer information.

분석용 데이터가 2차원 이미지에 대한 투영으로부터 생성된 궤적 이미지 데이터일 때, 이벤트 분석부(122)는 이미지 패턴 인식 방식을 통해 궤적 이미지 데이터로부터 객체에 발생한 이벤트가 어떤 것인지 분석할 수 있다. 도 9는 한 실시예에 따른 궤적 이미지 데이터로부터 분석된 이벤트를 나타낸다.When the data for analysis is trajectory image data generated from projection on a 2D image, the event analyzer 122 may analyze an event occurring in an object from the trajectory image data through image pattern recognition. 9 shows events analyzed from trajectory image data according to an embodiment.

분석용 데이터가 2차원 또는 3차원 포인터 정보일 때, 이벤트 분석부(122)는 기계학습 모델을 사용하여 궤적 정보와 이벤트 간의 관계를 트레이닝할 수 있기 때문에, 분류 모델의 복잡도를 낮출 수 있고, 메모리를 적게 사용하면서 신속한 처리 속도로 이벤트 분석을 수행할 수 있다.When the data for analysis is 2-dimensional or 3-dimensional pointer information, the event analysis unit 122 can train the relationship between trajectory information and events using a machine learning model, so the complexity of the classification model can be reduced, and memory Event analysis can be performed with fast processing speed while using less.

도 2를 참조하면, 한 실시예에 따른 이벤트 분석부(122)는 기계학습 모델을 사용하여 분석용 데이터를 분석함으로써 궤적에 대응하는 이벤트를 분석할 수 있다(S140). 한 실시예에 따른 이벤트 분석부(122)는 다층 퍼셉트론(multilayer perceptron, MLP) 및 DNN 등의 인공 신경망을 사용하여 분석용 데이터를 분석함으로써, 궤적(즉, 객체의 움직임)을 직진, 방향 전환, 유턴, 충돌, 정지, 차선 변경 등의 이벤트로 분류할 수 있다. 이벤트 분석부(122)는 인공 신경망을 통한 분석용 데이터의 분석을 위해 차선 정보 등 도로의 환경 정보를 사용할 수 있다. 이벤트의 유형은 미리 정의되어 있을 수 있고, 미리 정의된 이벤트에 대응되지 않는 객체의 움직임은 비정상 이벤트로 간주될 수 있다. Referring to FIG. 2 , the event analyzer 122 according to an embodiment may analyze an event corresponding to a trajectory by analyzing data for analysis using a machine learning model (S140). The event analyzer 122 according to an embodiment analyzes data for analysis using an artificial neural network such as a multilayer perceptron (MLP) and a DNN, so that the trajectory (ie, the movement of the object) is straight, changed direction, It can be classified into events such as U-turn, collision, stop, and lane change. The event analyzer 122 may use environment information of the road, such as lane information, to analyze data for analysis through an artificial neural network. The type of event may be predefined, and a motion of an object that does not correspond to the predefined event may be regarded as an abnormal event.

이벤트 DB(123)는 이벤트 분석부(122)의 이벤트 분석 결과를 저장하고, 저장된 이벤트 분석 결과를 이벤트 분석부(122)의 기계학습 모델의 트레이닝을 위한 학습 데이터로서 제공할 수 있다. The event DB 123 may store event analysis results of the event analyzer 122 and provide the stored event analysis results as learning data for training a machine learning model of the event analyzer 122 .

미리 정의된 이벤트에 대응하지 않는 객체의 움직임과 동일한 궤적이 빈번하게 발생하면 이벤트 분석부(122)는 빈번하게 발생하는 비정상 이벤트를 임시적으로 정상 이벤트로 결정할 수 있다. 예를 들어, 도로 또는 도로 주변이 공사 중일 때, 공사 영역 주변에서 미리 정의된 이벤트에 대응하지 않는 객체의 움직임(예를 들어, 중앙선 침범 또는 역주행 등)이 다수 발생할 수 있다. 이 경우 미리 정의된 이벤트에 대응하지 않아서 비정상 이벤트로 분류된 객체의 움직임의 누적 횟수가 미리 결정된 임계치를 초과하면, 이벤트 분석부(122)는 비정상 이벤트로 분류된 객체의 움직임에 관한 궤적을 임시 정상 이벤트로 결정할 수 있다. 이벤트 분석부(122)는 임시 정상 이벤트와 임시 정상 이벤트에 대응하는 영역(즉, 임시 정상 이벤트에 대응하는 궤적이 발생하는 특정 영역(예를 들어, 공사 영역의 주변))을 매칭하여 이벤트 DB(123)에 저장할 수 있다. 즉, 특정 영역에서 발생하는 궤적의 분석에 임시 정상 이벤트가 고려될 수 있고, 이를 통해 공사 영역 주변에서의 중앙선 침범 또는 역주행 등은 임시적으로 정상 이벤트인 것으로 결정될 수 있다. 도로의 공사가 종료되면, 이벤트 분석부(122)는 기계학습 모델을 사용하여 임시 정상 이벤트로 분류되는 궤적의 발생 빈도가 현저히 줄어든 것을 학습하고, 임시 정상 이벤트를 이벤트 DB(123)의 이벤트 리스트에서 삭제할 수 있다. 임시 정상 이벤트가 이벤트 DB(123)에서 삭제되면, 임시 정상 이벤트에 대응하는 특정 영역에서 발생하는 궤적의 정상/비정상 여부는 기존의 이벤트 리스트를 기반으로 판단될 수 있다. If the same trajectory as the motion of an object that does not correspond to a predefined event frequently occurs, the event analyzer 122 may temporarily determine a frequently occurring abnormal event as a normal event. For example, when a road or its vicinity is under construction, a number of movements of an object (eg, crossing a center line or driving backwards) that do not correspond to a predefined event may occur in the vicinity of the construction area. In this case, if the cumulative number of motions of the object classified as an abnormal event because it does not correspond to a predefined event exceeds a predetermined threshold, the event analyzer 122 converts the motion trajectory of the object classified as an abnormal event into a temporary normal event. event can be determined. The event analyzer 122 matches the temporary normal event with the area corresponding to the temporary normal event (ie, a specific area where a trajectory corresponding to the temporary normal event occurs (eg, the vicinity of a construction area)) to obtain an event DB ( 123) can be stored. That is, a temporary normal event may be considered for analysis of a trajectory occurring in a specific area, and through this, a violation of the center line or reverse driving around a construction area may be temporarily determined to be a normal event. When the road construction is finished, the event analysis unit 122 uses a machine learning model to learn that the occurrence frequency of trajectories classified as temporary normal events has significantly decreased, and the temporary normal events are stored in the event list of the event DB 123. can be deleted When the temporary normal event is deleted from the event DB 123, whether a trajectory occurring in a specific area corresponding to the temporary normal event is normal/abnormal can be determined based on the existing event list.

이벤트 분석부(122)의 이벤트 분석 결과는 객체 이미지 및 객체 정보와 함께 교통 관제 시스템(미도시)에 전달될 수 있다. The event analysis result of the event analyzer 122 may be transmitted to a traffic control system (not shown) along with object images and object information.

위에서 설명한 대로, 한 실시예에 따른 교통 상황 분석 장치는 인공 신경망을 사용하여 실시간 교통 감시영상으로부터 객체 및 객체의 궤적을 인식하고, 객체의 각종 움직임에 따른 비정상 이벤트의 발생을 신속하고 정확하게 판단할 수 있다. 또한, 교통 관제 시스템은 교통 감시영상 내에서 검출되고 추적된 객체의 이미지 및 객체 정보와, 객체의 이동 궤적에 따른 이벤트의 분석 결과를 바탕으로, 교통 감시영상 내의 통행량을 측정하고, 비정상 상황의 발생을 인지할 수 있다. 또한, 교통 관제 시스템은 객체의 이미지, 객체 정보, 객체의 이동 궤적에 따른 이벤트 정보와, 주변 지역의 다른 교통 감시영상에 따른 상기 정보를 바탕으로 신호 체계 변경 등 트래픽의 흐름 개선을 위한 조치를 취할 수 있다.As described above, the traffic situation analysis device according to an embodiment recognizes an object and its trajectory from a real-time traffic monitoring image using an artificial neural network, and can quickly and accurately determine the occurrence of abnormal events according to various movements of the object. there is. In addition, the traffic control system measures the traffic volume in the traffic surveillance video based on the image and object information of the object detected and tracked in the traffic surveillance video and the analysis result of the event according to the object's movement trajectory, and detects the occurrence of abnormal situations. can recognize In addition, the traffic control system takes measures to improve the flow of traffic, such as changing the signal system, based on the image of the object, object information, event information according to the movement trajectory of the object, and the above information according to other traffic monitoring images in the surrounding area. can

도 10은 다른 실시예에 따른 교통 상황 분석 장치를 나타낸 블록도이다.10 is a block diagram illustrating a traffic condition analysis device according to another embodiment.

한 실시예에 따른 교통 상황 분석 장치는, 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 도 9를 참조하면, 컴퓨터 시스템(1000)은, 버스(1070)를 통해 통신하는 프로세서(1010), 메모리(1030), 입력 인터페이스 장치(1050), 출력 인터페이스 장치(1060), 및 저장 장치(1040) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(1000)은 또한 네트워크에 결합된 통신 장치(1020)를 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(1030) 또는 저장 장치(1040)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 저장 장치(1040)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다. 본 기재의 실시예에서 메모리는 프로세서의 내부 또는 외부에 위치할 수 있고, 메모리는 이미 알려진 다양한 수단을 통해 프로세서와 연결될 수 있다. 메모리는 다양한 형태의 휘발성 또는 비휘발성 저장 매체이며, 예를 들어, 메모리는 읽기 전용 메모리(read-only memory, ROM) 또는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있다.A traffic condition analysis device according to an embodiment may be implemented in a computer system, for example, a computer readable medium. Referring to FIG. 9 , a computer system 1000 includes a processor 1010, a memory 1030, an input interface device 1050, an output interface device 1060, and a storage device 1040 communicating through a bus 1070. ) may include at least one of Computer system 1000 may also include a communication device 1020 coupled to a network. The processor 1010 may be a central processing unit (CPU) or a semiconductor device that executes instructions stored in the memory 1030 or the storage device 1040 . The memory 1030 and the storage device 1040 may include various types of volatile or non-volatile storage media. For example, memory can include read only memory (ROM) and random access memory (RAM). In an embodiment of the present description, the memory may be located inside or outside the processor, and the memory may be connected to the processor through various known means. Memory is a volatile or non-volatile storage medium in various forms, and may include, for example, read-only memory (ROM) or random access memory (RAM).

따라서, 본 발명의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.Accordingly, an embodiment of the present invention may be implemented as a computer-implemented method or as a non-transitory computer-readable medium in which computer-executable instructions are stored. In one embodiment, when executed by a processor, the computer readable instructions may perform a method according to at least one aspect of the present disclosure.

통신 장치(1020)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. The communication device 1020 may transmit or receive a wired signal or a wireless signal.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. 구체적으로, 본 발명의 실시예에 따른 방법(예, 네트워크 관리 방법, 데이터 전송 방법, 전송 스케줄 생성 방법 등)은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은, 본 발명의 실시예를 위해 특별히 설계되어 구성된 것이거나, 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체는 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치를 포함할 수 있다. 예를 들어, 컴퓨터 판독 가능 기록 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 롬(ROM), 램(RAM), 플래시 메모리 등일 수 있다. 프로그램 명령은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 통해 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. Meanwhile, the embodiments of the present invention are not implemented only through the devices and/or methods described so far, and may be implemented through a program that realizes functions corresponding to the configuration of the embodiments of the present invention or a recording medium in which the program is recorded. And, such implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment. Specifically, the method (eg, network management method, data transmission method, transmission schedule creation method, etc.) according to an embodiment of the present invention is implemented in the form of program commands that can be executed through various computer means, and is stored in a computer readable medium. can be recorded. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the embodiments of the present invention, or may be known and usable to those skilled in the art in the field of computer software. A computer-readable recording medium may include a hardware device configured to store and execute program instructions. For example, computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, floptical disks and It may be the same magneto-optical media, ROM, RAM, flash memory, or the like. The program instructions may include high-level language codes that can be executed by a computer through an interpreter, as well as machine language codes generated by a compiler.

이상에서 실시예에 대하여 상세하게 설명하였지만 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 권리범위에 속하는 것이다.Although the embodiments have been described in detail above, the scope of rights is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts defined in the following claims also fall within the scope of rights.

Claims (10)

교통 상황 분석 방법으로서,
제1 기계학습 모델을 사용하여 교통 감시영상에서 객체를 검출하는 단계,
검출된 객체를 추적하여 상기 객체의 궤적을 획득하는 단계, 그리고
제2 기계학습 모델을 사용하여 상기 궤적을 분석함으로써, 상기 궤적에 대응하는 이벤트를 분석하는 단계를 포함하되,
상기 객체를 검출하는 단계는,
상기 교통 감시영상의 이미지 프레임의 하단일수록 상기 이미지 프레임을 상단 대비 상대적으로 크기가 큰 복수의 이미지 블록으로 분할하고, 상기 교통 감시영상의 이미지 프레임의 상단일수록 상기 이미지 프레임을 하단 대비 상대적으로 크기가 작은 복수의 이미지 블록으로 분할하는 단계; 및
상기 상대적으로 큰 이미지 블록의 크기는 축소시키고 상기 상대적으로 작은 이미지 블록의 크기는 확대시킴으로써, 동일한 크기의 균등 이미지 블록으로 변환시킨 후, 해당 이미지 블록 내에서 객체를 검출하는 단계를 포함하는, 교통 상황 분석 방법.
As a traffic situation analysis method,
Detecting an object in a traffic monitoring image using a first machine learning model;
Tracking the detected object to obtain a trajectory of the object; and
Analyzing an event corresponding to the trajectory by analyzing the trajectory using a second machine learning model,
The step of detecting the object is,
The lower part of the image frame of the traffic surveillance video divides the image frame into a plurality of image blocks relatively large in size compared to the upper part, and the upper part of the image frame of the traffic monitoring video has a smaller size than the lower part of the image frame. segmenting into a plurality of image blocks; and
and converting the relatively large image block into a uniform image block having the same size by reducing the size of the relatively large image block and enlarging the size of the relatively small image block, and then detecting an object in the corresponding image block. analysis method.
제1항에서,
상기 객체를 검출하는 단계는,
상기 객체가 검출된 상기 복수의 균등 이미지 블록을 원본 이미지 블록으로 각각 복원하는 단계
를 더 포함하는, 교통 상황 분석 방법.
In paragraph 1,
The step of detecting the object is,
restoring each of the plurality of uniform image blocks in which the object is detected into an original image block;
Further comprising a traffic situation analysis method.
제1항에서,
상기 객체의 궤적을 획득하는 단계는,
상기 교통 감시영상의 시간적으로 인접한 두 개의 이미지 프레임 내에서 추적되고 있는 객체의 유사도를 계산하는 단계,
계산된 유사도에 따라 유사 객체 쌍을 매칭하는 단계, 그리고
상기 유사 객체 쌍의 매칭 결과에 따라 객체 추적 리스트를 갱신하는 단계
를 포함하는, 교통 상황 분석 방법.
In paragraph 1,
Obtaining the trajectory of the object,
Calculating a similarity of an object being tracked in two temporally adjacent image frames of the traffic monitoring image;
Matching similar object pairs according to the calculated similarity; and
Updating an object tracking list according to a matching result of the similar object pair
Including, traffic situation analysis method.
제3항에서,
상기 객체의 유사도를 계산하는 단계는,
특정 이미지 프레임에서 추적 중인 모든 객체의 객체 정보와 상기 특정 이미지 프레임의 다음 이미지 프레임 내에서 검출된 객체의 객체 정보를 바탕으로 상기 유사도를 계산하는 단계
를 포함하는, 교통 상황 분석 방법.
In paragraph 3,
Calculating the similarity of the objects,
Calculating the degree of similarity based on object information of all objects being tracked in a specific image frame and object information of objects detected in an image frame next to the specific image frame
Including, traffic situation analysis method.
제4항에서,
상기 특정 이미지 프레임에서 추적되고 있는 추적 객체의 객체 정보와 상기 특정 이미지 프레임의 다음 이미지 프레임 내에서 검출된 검출 객체의 객체 정보를 바탕으로 상기 유사도를 계산하는 단계는,
상기 추적 객체의 객체 정보와 상기 검출 객체의 객체 정보를 벡터화하고, 벡터화된 객체 정보 간의 거리 연산을 통해 상기 유사도를 계산하는 단계
를 포함하는, 교통 상황 분석 방법.
In paragraph 4,
Calculating the similarity based on object information of a tracking object being tracked in the specific image frame and object information of a detection object detected in an image frame next to the specific image frame,
vectorizing object information of the tracking object and object information of the detection object, and calculating the similarity through distance calculation between the vectorized object information;
Including, traffic situation analysis method.
교통 상황 분석 장치로서,
프로세서, 메모리, 및 통신부를 포함하고, 상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여,
상기 통신부를 통해 수신된 교통 감시영상에서 제1 기계학습 모델을 사용하여 객체를 검출하는 단계,
검출된 객체를 추적하여 상기 객체의 궤적을 획득하는 단계, 그리고
제2 기계학습 모델을 사용하여 상기 궤적을 분석함으로써, 상기 궤적에 대응하는 이벤트를 분석하는 단계를 수행하되,
상기 프로세서는 상기 객체를 검출하는 단계를 수행할 때,
상기 교통 감시영상의 이미지 프레임의 하단일수록 상기 이미지 프레임을 상단 대비 상대적으로 크기가 큰 복수의 이미지 블록으로 분할하고, 상기 교통 감시영상의 이미지 프레임의 상단일수록 상기 이미지 프레임을 하단 대비 상대적으로 크기가 작은 복수의 이미지 블록으로 분할하는 단계; 및
상기 상대적으로 큰 이미지 블록의 크기는 축소시키고 상기 상대적으로 작은 이미지 블록의 크기는 확대시킴으로써, 동일한 크기의 균등 이미지 블록으로 변환시킨 후, 해당 이미지 블록 내에서 객체를 검출하는 단계를 포함하는,
교통 상황 분석 장치.
As a traffic situation analysis device,
It includes a processor, a memory, and a communication unit, wherein the processor executes a program stored in the memory,
Detecting an object using a first machine learning model in the traffic monitoring image received through the communication unit;
Tracking the detected object to obtain a trajectory of the object; and
Analyzing an event corresponding to the trajectory by analyzing the trajectory using a second machine learning model,
When the processor performs the step of detecting the object,
The lower part of the image frame of the traffic surveillance video divides the image frame into a plurality of image blocks relatively large in size compared to the upper part, and the upper part of the image frame of the traffic monitoring video has a smaller size than the lower part of the image frame. segmenting into a plurality of image blocks; and
By reducing the size of the relatively large image block and enlarging the size of the relatively small image block, converting the relatively large image block into a uniform image block having the same size, and then detecting an object in the corresponding image block,
Traffic situation analysis device.
제6항에서,
상기 프로세서는 상기 객체를 검출하는 단계를 수행할 때,
상기 객체가 검출된 상기 복수의 균등 이미지 블록을 원본 이미지 블록으로 각각 복원하는 단계
를 더 수행하는, 교통 상황 분석 장치.
In paragraph 6,
When the processor performs the step of detecting the object,
restoring each of the plurality of uniform image blocks in which the object is detected into an original image block;
Further, the traffic situation analysis device.
제6항에서,
상기 프로세서는 상기 객체의 궤적을 획득하는 단계를 수행할 때,
상기 교통 감시영상의 시간적으로 인접한 두 개의 이미지 프레임 내에서 추적되고 있는 객체의 유사도를 계산하는 단계,
계산된 유사도에 따라 유사 객체 쌍을 매칭하는 단계, 그리고
상기 유사 객체 쌍의 매칭 결과에 따라 객체 추적 리스트를 갱신하는 단계
를 수행하는, 교통 상황 분석 장치.
In paragraph 6,
When the processor performs the step of acquiring the trajectory of the object,
Calculating a similarity of an object being tracked in two temporally adjacent image frames of the traffic monitoring image;
Matching similar object pairs according to the calculated similarity; and
Updating an object tracking list according to a matching result of the similar object pair
To perform, traffic situation analysis device.
제8항에서,
상기 프로세서는 상기 객체의 유사도를 계산하는 단계를 수행할 때,
특정 이미지 프레임에서 추적 중인 모든 객체의 객체 정보와 상기 특정 이미지 프레임의 다음 이미지 프레임 내에서 검출된 객체의 객체 정보를 바탕으로 상기 유사도를 계산하는 단계
를 수행하는, 교통 상황 분석 장치.
In paragraph 8,
When the processor performs the step of calculating the similarity of the object,
Calculating the degree of similarity based on object information of all objects being tracked in a specific image frame and object information of objects detected in an image frame next to the specific image frame
To perform, traffic situation analysis device.
제9항에서,
상기 프로세서는 상기 특정 이미지 프레임에서 추적되고 있는 추적 객체의 객체 정보와 상기 특정 이미지 프레임의 다음 이미지 프레임 내에서 검출된 검출 객체의 객체 정보를 바탕으로 상기 유사도를 계산하는 단계를 수행할 때,
상기 추적 객체의 객체 정보와 상기 검출 객체의 객체 정보를 벡터화하고, 벡터화된 객체 정보 간의 거리 연산을 통해 상기 유사도를 계산하는 단계
를 수행하는, 교통 상황 분석 장치.
In paragraph 9,
When the processor performs the step of calculating the similarity based on object information of a tracking object being tracked in the specific image frame and object information of a detection object detected in an image frame next to the specific image frame,
vectorizing object information of the tracking object and object information of the detection object, and calculating the similarity through distance calculation between the vectorized object information;
To perform, traffic situation analysis device.
KR1020200043000A 2020-04-08 2020-04-08 Method and apparatus for analyzing traffic situation KR102566525B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200043000A KR102566525B1 (en) 2020-04-08 2020-04-08 Method and apparatus for analyzing traffic situation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200043000A KR102566525B1 (en) 2020-04-08 2020-04-08 Method and apparatus for analyzing traffic situation

Publications (2)

Publication Number Publication Date
KR20210125371A KR20210125371A (en) 2021-10-18
KR102566525B1 true KR102566525B1 (en) 2023-08-21

Family

ID=78271415

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200043000A KR102566525B1 (en) 2020-04-08 2020-04-08 Method and apparatus for analyzing traffic situation

Country Status (1)

Country Link
KR (1) KR102566525B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102533582B1 (en) * 2022-11-10 2023-05-17 주식회사 에이엔비 AI-based driving violation two-wheeled vehicle enforcement system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101234046B1 (en) * 2011-11-11 2013-02-15 재단법인대구경북과학기술원 Method for tracking object using features in object and apparatus thereof
KR101552600B1 (en) 2015-03-31 2015-09-11 (주)서광시스템 Method for tracking multiple walking object simultaneously using sectioned image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102131896B1 (en) * 2014-09-23 2020-07-09 에스케이텔레콤 주식회사 Method and apparatus for monitoring video
KR101995107B1 (en) * 2017-03-23 2019-07-01 한국과학기술원 Method and system for artificial intelligence based video surveillance using deep learning
KR102028930B1 (en) * 2017-12-26 2019-10-07 이노뎁 주식회사 method of providing categorized video processing for moving objects based on AI learning using moving information of objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101234046B1 (en) * 2011-11-11 2013-02-15 재단법인대구경북과학기술원 Method for tracking object using features in object and apparatus thereof
KR101552600B1 (en) 2015-03-31 2015-09-11 (주)서광시스템 Method for tracking multiple walking object simultaneously using sectioned image

Also Published As

Publication number Publication date
KR20210125371A (en) 2021-10-18

Similar Documents

Publication Publication Date Title
JP7430277B2 (en) Obstacle detection method and apparatus, computer device, and computer program
US10740658B2 (en) Object recognition and classification using multiple sensor modalities
US20230144209A1 (en) Lane line detection method and related device
US11380105B2 (en) Identification and classification of traffic conflicts
KR102197946B1 (en) object recognition and counting method using deep learning artificial intelligence technology
US9213901B2 (en) Robust and computationally efficient video-based object tracking in regularized motion environments
WO2019175285A1 (en) Vehicle localization
Giannakeris et al. Speed estimation and abnormality detection from surveillance cameras
JP6910081B2 (en) A method of integrating each driving image acquired from each vehicle that performs cooperative driving and a driving image integration device using this.
Chang et al. Video analytics in smart transportation for the AIC'18 challenge
CN110543807A (en) method for verifying obstacle candidate
US11912310B2 (en) Autonomous driving crash prevention
KR20210052031A (en) Deep Learning based Traffic Flow Analysis Method and System
US20210397187A1 (en) Method and system for operating a mobile robot
KR102566525B1 (en) Method and apparatus for analyzing traffic situation
EP4145398A1 (en) Systems and methods for vehicle camera obstruction detection
EP4341913A2 (en) System for detection and management of uncertainty in perception systems, for new object detection and for situation anticipation
Kuppusamy et al. Traffic Sign Recognition for Autonomous Vehicle Using Optimized YOLOv7 and Convolutional Block Attention Module.
US11715215B2 (en) Untrained systems and methods for vehicle speed estimation
US20220262122A1 (en) Image collection apparatus and image collection method
Mallikarjun et al. Image projection method for vehicle speed estimation model in video system
Mahayash et al. Smart approach for vehicle detection and counting
Abbas et al. Vision based intelligent traffic light management system using Faster R‐CNN
Tseng et al. Turn prediction for special intersections and its case study
Kumar et al. Autonomous Vehicle Along with Surrounding Agent's Path Prediction Using CNN-Based Models

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant