KR102566525B1 - Method and apparatus for analyzing traffic situation - Google Patents
Method and apparatus for analyzing traffic situation Download PDFInfo
- Publication number
- KR102566525B1 KR102566525B1 KR1020200043000A KR20200043000A KR102566525B1 KR 102566525 B1 KR102566525 B1 KR 102566525B1 KR 1020200043000 A KR1020200043000 A KR 1020200043000A KR 20200043000 A KR20200043000 A KR 20200043000A KR 102566525 B1 KR102566525 B1 KR 102566525B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- image frame
- trajectory
- traffic
- tracking
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
Abstract
제1 기계학습 모델을 사용하여 교통 감시영상에서 객체를 검출하는 단계, 검출된 객체를 추적하여 객체의 궤적을 획득하는 단계, 그리고 제2 기계학습 모델을 사용하여 궤적을 분석함으로써, 궤적에 대응하는 이벤트를 분석하는 단계를 통해 교통 상황을 분석하는 방법이 제공된다.Detecting an object in a traffic monitoring image using a first machine learning model, acquiring a trajectory of the object by tracking the detected object, and analyzing the trajectory using a second machine learning model, thereby corresponding to the trajectory A method for analyzing a traffic situation is provided through the step of analyzing an event.
Description
본 기재는 실시간 감시영상을 바탕으로 교통 상황을 분석하는 방법 및 장치에 관한 것이다.The present disclosure relates to a method and apparatus for analyzing traffic conditions based on real-time monitoring images.
통행량은 일반적으로 지역별 및 시간별 녹화 영상을 본 사용자에 의해 단순 반복적 작업으로 계수될 수 있어서, 많은 시간과 비용이 소모된다. 종래의 실시간 차량 검지기에서 루프 센서는 각 도로에 방향별로 설치되기 때문에 많은 설치 비용이 요구되고, 실시간 차량 검지기는 고장 수리가 어려운 단점이 있다. Traffic volume can generally be counted as a simple repetitive task by a user who has viewed recorded images by region and by time, which consumes a lot of time and money. In the conventional real-time vehicle detector, since the loop sensor is installed in each direction on each road, a lot of installation cost is required, and the real-time vehicle detector has a disadvantage in that it is difficult to repair.
또한 종래의 통행량 측정 장치는 비정상 상황을 인식하기 위해 특정한 영역의 특정한 상황에 맞춰진, 제한적인 규칙 기반 방식의 알고리즘을 사용하므로, 인식 가능한 비정상 상황이 제한적이고, 환경 변화에 민감하다.In addition, conventional traffic measurement devices use a limited rule-based algorithm tailored to a specific situation in a specific area to recognize an abnormal situation, so that the number of abnormal situations that can be recognized is limited and sensitive to environmental changes.
한 실시예는, 기계학습 모델을 사용하여 교통 감시영상으로부터 교통 상황을 분석하는 방법을 제공한다.One embodiment provides a method of analyzing traffic conditions from traffic monitoring images using a machine learning model.
한 실시예에 따르면 교통 상황 분석 방법이 제공된다. 상기 교통 상황 분석 방법은, 제1 기계학습 모델을 사용하여 교통 감시영상에서 객체를 검출하는 단계, 검출된 객체를 추적하여 객체의 궤적을 획득하는 단계, 그리고 제2 기계학습 모델을 사용하여 궤적을 분석함으로써, 궤적에 대응하는 이벤트를 분석하는 단계를 포함한다.According to one embodiment, a traffic situation analysis method is provided. The traffic situation analysis method includes detecting an object in a traffic monitoring image using a first machine learning model, acquiring a trajectory of the object by tracking the detected object, and trajectory using a second machine learning model. By analyzing, an event corresponding to the trajectory is analyzed.
인공 신경망을 사용하여 실시간 교통 감시영상으로부터 객체 및 객체의 궤적이 정확히 인식되고, 객체의 각종 움직임에 따른 비정상 이벤트의 발생 또한 신속하고 정확하게 판단될 수 있다. Objects and their trajectories can be accurately recognized from real-time traffic monitoring images using artificial neural networks, and the occurrence of abnormal events according to various movements of objects can be quickly and accurately determined.
도 1은 한 실시예에 따른 교통 상황 분석 장치를 나타낸 블록도이다.
도 2는 한 실시예에 따른 교통 상황 분석 방법을 나타낸 흐름도이다.
도 3은 한 실시예에 따른 교차로의 교통 감시영상 내에서 검출된 객체를 나타낸 예시이다.
도 4는 한 실시예에 따른 객체 검출 방법을 나타낸 흐름도이다.
도 5는 한 실시예에 따른 객체 검출 방법을 나타낸 개념도이다.
도 6은 한 실시예에 따른 객체 재검출 방법을 나타낸 개념도이다.
도 7은 한 실시예에 따른 객체 추적 방법을 나타낸 흐름도이다.
도 8은 한 실시예에 따른 이미지 프레임 내의 객체 추적 결과를 나타낸 예시이다.
도 9는 한 실시예에 따른 궤적 이미지 데이터로부터 분석된 이벤트를 나타낸다.
도 10은 다른 실시예에 따른 교통 상황 분석 장치를 나타낸 블록도이다.1 is a block diagram illustrating a traffic condition analysis device according to an exemplary embodiment.
2 is a flowchart illustrating a traffic condition analysis method according to an exemplary embodiment.
3 is an example of an object detected in a traffic surveillance image of an intersection according to an exemplary embodiment.
4 is a flowchart illustrating a method of detecting an object according to an exemplary embodiment.
5 is a conceptual diagram illustrating an object detection method according to an exemplary embodiment.
6 is a conceptual diagram illustrating a method of redetecting an object according to an exemplary embodiment.
7 is a flowchart illustrating a method for tracking an object according to an exemplary embodiment.
8 is an example illustrating an object tracking result in an image frame according to an exemplary embodiment.
9 shows events analyzed from trajectory image data according to an embodiment.
10 is a block diagram illustrating a traffic condition analysis device according to another embodiment.
아래에서는 첨부한 도면을 참고로 하여 본 기재의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 기재는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 기재를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly explain the present description in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
도 1은 한 실시예에 따른 교통 상황 분석 장치를 나타낸 블록도이다.1 is a block diagram illustrating a traffic condition analysis device according to an exemplary embodiment.
도 1을 참조하면, 한 실시예에 따른 교통 상황 분석 장치(100)는 전처리부(110) 및 후처리부(120)를 포함한다. 전처리부(110)는 객체 검출부(111), 객체 추적부(112), 및 객체 데이터베이스(database, DB)(113)를 포함한다. 후처리부(120)는 궤적 변환부(121), 이벤트 분석부(122), 및 이벤트 DB(123)를 포함한다. 한 실시예에 따른 교통 상황 분석 장치(100)는 도로 및 도로 주변의 교통 감시영상을 생성하는 카메라의 주변에 위치할 수도 있고, 카메라로부터 지리적으로 떨어진 곳에 위치하여 유선 또는 무선 네트워크를 통해 카메라로부터 교통 감시영상을 수신할 수 있다.Referring to FIG. 1 , a traffic
전처리부(110)는 기계학습 모델을 사용하여 실시간으로 촬영되는 교통 감시영상으로부터 이동하는 객체를 검출하고 검출된 객체를 추적할 수 있다. 전처리부(110)는 도로 및 도로에 인접한 영역을 촬영하는 적어도 하나의 카메라로부터 실시간 교통 감시영상 및/또는 교통 정보의 수집을 위해 촬영된 교통 정보 영상을 수신할 수 있다. The
객체 검출부(111)는 기계학습 모델(객체 검출 모델)을 사용하여 실시간 교통 감시영상에서 객체를 검출할 수 있다. 객체 검출부(111)는 객체의 검출 결과를 객체 DB(113)에 저장하고, 객체 DB(113)에 저장된 데이터를 사용하여 객체 검출 모델을 트레이닝 및/또는 재트레이닝(re-training) 시킬 수 있다. The
객체 추적부(112)는 검출된 객체를 추적하여 객체의 궤적을 획득할 수 있다.The
객체 DB(113)는 객체의 검출 결과를 저장하고, 객체 검출 모델의 트레이닝시 객체의 검출 결과를 객체 검출부(111)의 객체 검출 모델로 피드백할 수 있다. 한 실시예에 따른 객체 DB(113)는 초기 DB 및 결과 DB를 포함할 수 있다. 초기 DB는 다양한 경로를 통해 공개된 공중 DB 및 사전 수집된 데이터를 포함할 수 있고, 초기 DB에 포함된 데이터를 사용하여 객체 검출 모델의 사전 학습(pre-training)이 수행될 수 있다. The
객체 검출 모델의 사전 학습은 한 실시예에 따른 교통 상황 분석 장치(100)가 실전에 배치되기 이전에 수행될 수 있다. 교통 상황 분석 장치(100)가 실전에 배치된 후 실시간으로 전달되는 교통 감시 영상 및/또는 교통 정보 영상을 바탕으로 객체 검출 모델은 재학습되고, 재학습된 객체 검출 모델을 사용하여 교통 감시 영상 내에서 객체가 검출될 수 있다. 검출된 객체의 객체 정보는 검출 결과의 신뢰도(0~100%)와 매칭되어서 결과 DB 내에 저장될 수 있다. 미리 결정된 주기마다 결과 DB 내에 저장된 데이터를 사용하여 객체 검출 모델이 재학습될 수 있어서, 교통 상황 분석 장치(100)는 배치된 장소의 환경에 효율적으로 적응할 수 있고, 객체의 검출 성능이 향상될 수 있다. 또한, 교통 상황 분석 장치(100)는 배치된 장소의 변화, 예를 들어, 차선 확장, 차선 축소 등의 도로 환경의 변화, 각종 공사 등으로 인한 도로 주변 환경의 변화, 출현하는 객체 유형의 변화 등에 효과적으로 대응할 수 있다. 결과 DB 내의 데이터 중 상대적으로 높은 신뢰도를 갖는 데이터만이 객체 검출 모델의 재학습시 사용될 수 있다. 여기서 교통 상황 분석 장치(100)는 사용자가 결과 DB 내의 데이터를 선택할 수 있는 인터페이스를 포함할 수 있다. 사용자가 결과 DB 내의 데이터를 선택할 수 있는 인터페이스는, 특정한 상황(예를 들어 객체의 검출 성능이 개선되지 않거나 저하되는 상황 등)의 발생이 사용자에게 알려졌을 때, 선택, 분류, 제거 등의 학습 데이터의 재설정이 수동으로 수행되기 위해 사용될 수 있다.Pre-learning of the object detection model may be performed before the traffic
후처리부(120)는 추적된 객체의 궤적 정보를 분석용 데이터로 변환하고, 기계학습 모델을 사용하여 분석용 데이터로부터 객체의 궤적에 대응하는 이벤트를 분석할 수 있다. 궤적 정보를 분석용 데이터로 변환하는 것은, 2차원 이미지 분류 방식, 3차원 이미지 분류 방식, 및 포인트 클라우드 분석 방식 등에 따를 수 있다. 예를 들어, 후처리부(120)는 객체의 궤적 정보를 2차원 평면에 투영함으로써 2차원 궤적 이미지를 획득하고, 2차원 이미지 분류를 통해 2차원 궤적 이미지를 분석용 데이터로 변환할 수 있다. 2차원 이미지를 사용하면, 분석 결과가 시각적으로 표시되기 쉽지만 시간적 의미가 상실되고 계산 시간이 길어질 수 있다. 또는 후처리부(120)는 객체의 궤적 정보를 3차원 공간에 투영함으로써 3차원 궤적 이미지를 획득하고, 3차원 이미지 분류를 통해 3차원 궤적 이미지를 분석용 데이터로 변환할 수 있다. 3차원 이미지를 사용하면, 궤적의 공간적 정보와 시간적 정보가 함께 사용될 수 있지만, 2차원 이미지에 비해 계산 시간이 더 길어질 수 있다. 또는 후처리부(120)는 객체의 궤적 정보의 포인터 정보를 사용하여 포인트 클라우드 분석을 통해 분석용 데이터를 생성할 수 있다. 포인터 정보를 사용하면, 시공간 정보도 사용되고 시간 및 메모리 자원이 절약될 수 있다. The
궤적 변환부(121)는 객체의 궤적을 포인터 정보 등의 분석용 데이터로 변환할 수 있다.The
이벤트 분석부(122)는 기계학습 모델(이벤트 분석 모델)을 사용하여 객체의 궤적을 나타내는 데이터로부터 객체의 궤적에 대응하는 이벤트를 분석할 수 있다. The
이벤트 DB(123)는 이벤트의 분석 결과를 저장하고, 이벤트의 분석 결과를 이벤트 분석부(122)의 이벤트 분석 모델로 피드백함으로써 이벤트 분석 모델의 트레이닝을 수행할 수 있다. 이벤트 DB(123)는 초기 이벤트 DB 및 결과 이벤트 DB를 포함할 수 있다. 초기 이벤트 DB는 이벤트 분석 모델의 사전 트레이닝을 위해 사용될 수 있고, 결과 이벤트 DB는 이벤트 분석 모델의 주기적 또는 비주기적인 재트레이닝을 위해 사용될 수 있다. 예를 들어, 사진 수집된 데이터를 포함하는 초기 이벤트 DB를 통해 사전 트레이닝된 이벤트 분석 모델은, 교통 상황 분석 장치(100)가 설치된 장소에는 아직 최적화되어 있지 않을 수 있다. 따라서, 교통 상황 분석 장치(100)가 설치된 장소에서 수집된 영상 및 검출된 이벤트 등을 사용하여 이벤트 분석 모델이 재트레이닝됨으로써, 이벤트의 분석 성능이 향상될 수 있다. 중앙선 침범 또는 역주행 등의 이벤트는 비정상 이벤트로 분석될 수 있지만, 실시간으로 수집되는 영상을 통해 이벤트 분석 모델이 재트레이닝되면, 중앙선 침범 또는 역주행의 빈도가 비정상적으로 증가하는 것이 학습되고, 이에 따라 이벤트 분석 모델은 중앙선 침범 또는 역주행을 공사 등에 따른 도로 우회 이벤트로 분석해낼 수 있다. 공사 등이 종료되면 역주행 등의 빈도가 감소하고, 이에 따라 재트레이닝된 이벤트 분석 모델은 역주행 이벤트를 다시 올바르게 분석하게 될 수 있다.The event DB 123 may perform event analysis model training by storing event analysis results and feeding back the event analysis results to the event analysis model of the
아래에서는 도 2를 참조하여 한 실시예에 따른 교통 상황 분석 장치의 교통 상황 분석 방법을 상세히 설명한다.Hereinafter, a traffic situation analysis method of a traffic situation analysis device according to an embodiment will be described in detail with reference to FIG. 2 .
도 2는 한 실시예에 따른 교통 상황 분석 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a traffic condition analysis method according to an exemplary embodiment.
도 2를 참조하면, 한 실시예에 따른 교통 상황 분석 장치(100)의 객체 검출부(111)는 객체 검출 모델을 사용하여 교통 감시영상 내에서 객체를 검출한다(S110). 객체 검출 모델은 기계학습 모델로서, 객체 검출부(111)에는 객체 탐지를 위한 다양한 기계학습 방식(예를 들어, R-CNN(Region-based Convolutional Neural Networks), SSD(Single Shot Detector), YOLO(you only look once) 등의 딥러닝 방식과 같은 기계학습 알고리즘)을 통해 객체 검출 모델이 생성되어 있다. 객체 검출 모델의 생성을 위해서, 객체 검출부(111)는 객체 검출 모델의 트레이닝을 위한 학습 데이터로서, 실시간으로 생성되거나 또는 미리 녹화된, 교통 감시영상(도로 감시영상 및 도로 주변 영상을 포함할 수 있음)을 사용할 수 있다. 객체 검출부(111)는 교통 감시영상의 각 이미지 프레임과, 이미지 프레임 내의 객체, 객체의 종류 및 위치(2차원 또는 3차원 좌표)에 관한 정보 등을 사용하여 객체 검출 모델을 트레이닝할 수 있다. Referring to FIG. 2 , the
도 3은 한 실시예에 따른 교차로의 교통 감시영상 내에서 검출된 객체를 나타낸 예시이고, 도 4는 한 실시예에 따른 객체 검출 방법을 나타낸 흐름도이고, 도 5는 한 실시예에 따른 객체 검출 방법을 나타낸 개념도이며, 도 6은 한 실시예에 따른 객체 재검출 방법을 나타낸 개념도이다.3 is an example showing objects detected in a traffic monitoring image of an intersection according to an embodiment, FIG. 4 is a flowchart illustrating an object detection method according to an embodiment, and FIG. 5 is an object detection method according to an embodiment. , and FIG. 6 is a conceptual diagram illustrating a method of redetecting an object according to an embodiment.
도 3을 참조하면, 한 실시예에 따른 객체 검출부(111)는 북쪽에서 남쪽으로 진행하는 다수의 차량을 객체로서 검출하였고, 동쪽에서 신호대기 중인 차량을 객체로서 검출하였다. 객체는 점선 박스로 표시되어 있다. 도 3에서 카메라에서 먼 객체(예를 들어, 이미지 프레임의 최상단에서 검출된 객체)는 상대적으로 작기 때문에 객체 검출부(111)는 원근 보정을 통해 객체의 검출 성능을 향상시킬 수 있다.Referring to FIG. 3 , the
도 4를 참조하면, 한 실시예에 따른 객체 검출부(111)는 이미지 프레임을 원근에 따라 복수의 이미지 블록으로 분할할 수 있다(S111). 도 5를 참조하면, 이미지 프레임은 15개의 크고 작은 이미지 블록으로 분할될 수 있다. 여기서 이미지 블록의 크기는 카메라로부터의 거리에 따라 달라지고, 하나의 이미지 블록은 실제 공간에서 동일한 면적에 대응할 수 있다. Referring to FIG. 4 , the
객체 검출부(111)는 각 이미지 블록을 동일한 크기의 균등 이미지 블록(uniform image block)으로 변환하고(S112), 균등 이미지 블록 내에서 객체를 검출할 수 있다(S113). 도 5를 참조하면, 블록1, 블록2, 블록4, 블록5, 블록7, 블록8, 블록9, 및 블록15 내에서 각각 하나의 객체가 검출되었다. 객체 검출부(111)는 동일한 크기로 변환된 각각의 균등 이미지 블록 내에서 객체를 검출함으로써 카메라로부터 멀리 떨어진 영역에서도 객체의 검출 성능을 향상시킬 수 있다. 이후 객체 검출부(111)는 균등 이미지 블록을 원본 이미지 블록과 같은 크기로 복원할 수 있다(S114). 즉, 도 5를 참조하면, 프로세서(즉, 객체 검출부)는 상기 객체를 검출할 때, 상기 교통 감시영상의 이미지 프레임의 하단일수록 상기 이미지 프레임을 상단 대비 상대적으로 크기가 큰 복수의 이미지 블록으로 분할하고, 상기 교통 감시영상의 이미지 프레임의 상단일수록 상기 이미지 프레임을 하단 대비 상대적으로 크기가 작은 복수의 이미지 블록으로 분할하고, 상기 상대적으로 큰 이미지 블록의 크기는 축소시키고 상기 상대적으로 작은 이미지 블록의 크기는 확대시킴으로써, 동일한 크기의 균등 이미지 블록으로 변환시킨 후, 해당 이미지 블록 내에서 객체를 검출한다.The
객체 DB(113)는 객체의 검출 결과를 저장할 수 있다. 한 실시예에 따른 객체 DB(113)는 검출된 객체의 종류, 객체가 검출된 위치(좌표 또는 영역), 검출 신뢰도 등의 객체 정보를 객체 이미지와 매칭시켜서 저장할 수 있다. The
한 실시예에 따른 객체 검출부(110)는 인공 신경망 네트워크(예를 들어, 심층 신경망(deep neural network, DNN), 콘볼루션 신경망(convolutional neural network, CNN) 등)에 기반한 검출기(예를 들어, yolo, faster-RCNN 등)를 객체 검출 모델에 적용할 수 있다. 예를 들어, 객체 검출부(110)는 미리 결정된 검출 신뢰도가 확보될 때까지 객체 검출 모델의 사전 학습을 반복할 수 있고, 사전 학습의 결과로 획득되는 객체의 객체 이미지 및 객체 정보는 객체 DB(113)에 저장되고 객체 검출 모델의 재트레이닝을 위해 사용될 수 있다. 객체 검출부(111)는 반복적으로 트레이닝된 객체 검출 모델을 사용함으로써, 실시간으로 촬영되는 교통 감시영상에서 객체를 검출하는 속도 및 인식률을 향상시킬 수 있고, 새롭게 추가되는 유형의 객체를 적응적으로 신속히 인식할 수 있다.The
다시 도 2를 참조하면, 객체 추적부(112)는 교통 감시영상 내에서 검출된 객체를 추적하여 객체의 궤적을 획득한다(S120). Referring back to FIG. 2 , the
도 7은 한 실시예에 따른 객체 추적 방법을 나타낸 흐름도이고, 도 8은 한 실시예에 따른 이미지 프레임 내의 객체 추적 결과를 나타낸 예시이다.7 is a flowchart illustrating an object tracking method according to an exemplary embodiment, and FIG. 8 is an example illustrating an object tracking result in an image frame according to an exemplary embodiment.
도 7을 참조하면, 한 실시예에 따른 객체 추적부(112)는 연속되는 이미지 프레임 내의 객체를 미리 결정된 추적 알고리즘에 따라 추적할 수 있다(S121). 미리 결정된 추적 알고리즘은 IOU(Intersection over Union), KCF(Kernelized Correlation Filters), MIL(Multiple Instance Learning), 및 TLD(Tracking, learning and detection)를 포함할 수 있다. 객체 추적부(112)는 객체 추적 성능을 향상시키기 위해서, 딥러닝의 특징 정보와, 색상, 크기, 방향, 거리 등의 핸드크래프트 특징 정보를 추가적으로 사용할 수 있다. 도 8에서 객체를 둘러싸고 있는 박스는 도 8에 도시된 이미지 프레임 내에서 추적되고 있는 객체의 영역을 나타낸다. 도 8에서, 객체에 닿아서 객체의 진행 방향과 반대 방향으로 이어진 점들은 객체의 궤적이고, 각각 이전 이미지 프레임에서 추적된 객체 박스의 중심 좌표에 대응한다. 객체 박스 위의 숫자는 각각 식별 번호, 신뢰도, 이동 거리 등의 정보를 나타낸다. 예를 들어, 도 8의 중심부에서 추적되고 있는 객체의 객체 박스 위의 '370'은 객체의 식별 번호를 나타내고, '0.7,1.0, 919.8'에서 0.7은 객체 검출의 신뢰도이고, 1.0은 객체 추적의 신뢰도이며, '919.8'은 추적된 객체가 이동한 픽셀 거리를 나타낸다. 이동 거리는 특정 객체의 추적이 시작된 이후 특정 객체가 이동한 총 거리를 나타낼 수도 있고, 또는 객체의 정지 등으로 초기화된 이후부터 특정 객체가 이동한 총 거리를 나타낼 수 있다. 이동 거리는 추적되는 객체가 미리 결정된 시간 동안 움직이지 않을 때 0으로 초기화될 수 있다. Referring to FIG. 7 , the
객체 추적부(112)는 이미지 프레임에서 새로 발견되거나 이미지 프레임에서 사라지는 객체를 관리하기 위해 객체 추적 리스트를 관리할 수 있다. 도 7을 참조하면, 한 실시예에 따른 객체 추적부(112)는 시간적으로 인접한 두 개의 이미지 프레임(예를 들어, 프레임 n 및 프레임 n+1) 내에서 추적되고 있는 객체의 유사도를 계산하고(S122), 계산된 유사도에 따라 유사 객체 쌍을 매칭할 수 있다(S123). The
예를 들어, 객체 추적부(112)는 이미지 프레임 n+1 내에 새롭게 검출된 객체가 있을 때, 새롭게 검출된 객체와 이미지 프레임 n까지 추적된 객체 간의 유사도를 계산할 수 있다. 객체 추적부(112)는 연속하여 입력되는 프레임에서 각각 검출된 객체의 정보(IOU, 컬러 정보, 진행 방향, scale 변화량 등)를 사용하여 프레임 n까지 추적된 객체 및 프레임 n+1에서 검출된 객체 간의 유사도를 계산할 수 있다. 여기서 유사도는 프레임 n까지에서 추적되고 있는 추적 객체와, 프레임 n+1에서 검출된 객체 간의 유사도를 나타내는 유사도 행렬로서 표현될 수 있다. 수학식 1은 프레임 n까지에서 추적된 n개의 추적 객체와 프레임 n+1에서 검출된 m개의 검출 객체의 객체 정보를 나타내고, 표 1은 n개의 추적 객체와 m개의 검출 객체 간의 유사도 행렬을 나타낸다.For example, when there is a newly detected object in image frame n+1, the
표 1의 추적 객체 및 검출 객체 간 유사도는 프레임 n에서 추정 중인 모든 추적 객체의 객체 정보와 프레임 n+1 내의 모든 검출 객체의 객체 정보의 사각 영역 간의 IOU 값으로부터 계산될 수 있다. 또는 추적 객체 및 검출 객체 간 유사도는 IOU, x좌표, y좌표, 너비(width), 높이(height), 스케일(scale), 색상(color) 등의 객체 정보를 벡터화하고, 벡터화된 객체 정보 간의 유클리드 거리, 맨하탄 거리, 헤밍 거리 등 다양한 거리 연산으로부터 계산될 수 있다.The similarity between the tracking object and the detection object in Table 1 can be calculated from the IOU value between the object information of all tracking objects being estimated in frame n and the rectangular area of the object information of all detection objects in
객체 추적부(112)는 유사 객체 쌍의 매칭 결과에 따라 객체 추적 리스트를 갱신할 수 있다(S124). 예를 들어, n번째 이미지 프레임과 n+1번째 이미지 프레임에서 서로 동일한 객체인 것으로 판단된 두 개의 객체가 유사 객체 쌍으로서 매칭될 수 있다. 이후 n+2번째 이미지 프레임에서 n+1번째 이미지 프레임 내의 객체와 동일한 또는 동일한 것으로 판단된 객체가 없을 때, 객체 추적부(112)는 객체가 카메라의 감시 영역에서 사라진 것으로 판단하고 객체 추적 리스트 내에서 유사 객체 쌍을 삭제할 수 있다. The
표 1의 유사도 행렬에서 프레임 n+1에서 검출된 제1 검출 객체(Detect_1)은 프레임 n까지에서 추적되던 n개의 추적 객체 중에서 제1 추적 객체(Track_1)와의 유사도가 100이므로, 제1 검출 객체의 객체 정보는 제1 추적 객체의 객체 정보로서 객체 추적 리스트에 업데이트될 수 있다. 표 1에서 프레임 n+1에서 검출된 제m 검출 객체(Detect_m)은 프레임 n까지에서 추적되던 모든 검출 객체와의 유사도가 미리 결정된 기준(예를 들어, 90)보다 낮을 수 있고, 이때 제m 검출 객체의 객체 정보는 새로운 추적 객체로서 객체 추적 리스트에 업데이트될 수 있다.In the similarity matrix of Table 1, since the first detection object (Detect_1) detected at frame n+1 has a similarity of 100 to the first tracking object (Track_1) among the n tracking objects tracked up to frame n, Object information may be updated in the object tracking list as object information of the first tracking object. In Table 1, the mth detection object Detect_m detected in frame n+1 may have a similarity lower than a predetermined criterion (eg, 90) with all detection objects tracked up to frame n, and in this case, the mth detection object Object information of an object may be updated in the object tracking list as a new tracking object.
여기서 m이 n보다 클 때(즉, 추적 객체보다 검출 객체가 많을 때), 프레임 n+1 내의 검출 객체 중에는 n개의 추적 객체에 대응하지 않는 객체가 있다. 이때 미리 결정된 제1 프레임 개수 동안 계속하여 대응하는 추적 객체가 없는 검출 객체는 새로운 추적 객체로서 객체 추적 리스트에 업데이트될 수 있다. 또는 m보다 n이 클 때(즉, 추적 객체가 검출 객체보다 많을 때), 프레임 n+1 내의 모든 검출 객체는 프레임 n까지의 추적 객체에 모두 대응하고, 대응하는 검출 객체가 없는 추적 객체가 있을 수 있다. 이때 미리 결정된 제2 프레임 개수 동안 계속하여 대응하는 검출 객체가 없는 추적 객체의 객체 정보는 객체 추적 리스트에서 삭제될 수 있다.Here, when m is greater than n (that is, when there are more detection objects than tracking objects), there are objects that do not correspond to n tracking objects among detection objects in
다시 도 2를 참조하면, 한 실시예에 따른 궤적 변환부(121)는 추적된 객체의 궤적을 분석 가능한 분석용 데이터로 변환할 수 있다(S130). 예를 들어, 궤적 변환부(121)는 객체의 궤적을 2차원 이미지에 투영함으로써 궤적 이미지 데이터로 변환하거나, 또는 2차원 또는 3차원 포인터 정보로 변환할 수 있다. Referring back to FIG. 2 , the
분석용 데이터가 2차원 이미지에 대한 투영으로부터 생성된 궤적 이미지 데이터일 때, 이벤트 분석부(122)는 이미지 패턴 인식 방식을 통해 궤적 이미지 데이터로부터 객체에 발생한 이벤트가 어떤 것인지 분석할 수 있다. 도 9는 한 실시예에 따른 궤적 이미지 데이터로부터 분석된 이벤트를 나타낸다.When the data for analysis is trajectory image data generated from projection on a 2D image, the
분석용 데이터가 2차원 또는 3차원 포인터 정보일 때, 이벤트 분석부(122)는 기계학습 모델을 사용하여 궤적 정보와 이벤트 간의 관계를 트레이닝할 수 있기 때문에, 분류 모델의 복잡도를 낮출 수 있고, 메모리를 적게 사용하면서 신속한 처리 속도로 이벤트 분석을 수행할 수 있다.When the data for analysis is 2-dimensional or 3-dimensional pointer information, the
도 2를 참조하면, 한 실시예에 따른 이벤트 분석부(122)는 기계학습 모델을 사용하여 분석용 데이터를 분석함으로써 궤적에 대응하는 이벤트를 분석할 수 있다(S140). 한 실시예에 따른 이벤트 분석부(122)는 다층 퍼셉트론(multilayer perceptron, MLP) 및 DNN 등의 인공 신경망을 사용하여 분석용 데이터를 분석함으로써, 궤적(즉, 객체의 움직임)을 직진, 방향 전환, 유턴, 충돌, 정지, 차선 변경 등의 이벤트로 분류할 수 있다. 이벤트 분석부(122)는 인공 신경망을 통한 분석용 데이터의 분석을 위해 차선 정보 등 도로의 환경 정보를 사용할 수 있다. 이벤트의 유형은 미리 정의되어 있을 수 있고, 미리 정의된 이벤트에 대응되지 않는 객체의 움직임은 비정상 이벤트로 간주될 수 있다. Referring to FIG. 2 , the
이벤트 DB(123)는 이벤트 분석부(122)의 이벤트 분석 결과를 저장하고, 저장된 이벤트 분석 결과를 이벤트 분석부(122)의 기계학습 모델의 트레이닝을 위한 학습 데이터로서 제공할 수 있다. The
미리 정의된 이벤트에 대응하지 않는 객체의 움직임과 동일한 궤적이 빈번하게 발생하면 이벤트 분석부(122)는 빈번하게 발생하는 비정상 이벤트를 임시적으로 정상 이벤트로 결정할 수 있다. 예를 들어, 도로 또는 도로 주변이 공사 중일 때, 공사 영역 주변에서 미리 정의된 이벤트에 대응하지 않는 객체의 움직임(예를 들어, 중앙선 침범 또는 역주행 등)이 다수 발생할 수 있다. 이 경우 미리 정의된 이벤트에 대응하지 않아서 비정상 이벤트로 분류된 객체의 움직임의 누적 횟수가 미리 결정된 임계치를 초과하면, 이벤트 분석부(122)는 비정상 이벤트로 분류된 객체의 움직임에 관한 궤적을 임시 정상 이벤트로 결정할 수 있다. 이벤트 분석부(122)는 임시 정상 이벤트와 임시 정상 이벤트에 대응하는 영역(즉, 임시 정상 이벤트에 대응하는 궤적이 발생하는 특정 영역(예를 들어, 공사 영역의 주변))을 매칭하여 이벤트 DB(123)에 저장할 수 있다. 즉, 특정 영역에서 발생하는 궤적의 분석에 임시 정상 이벤트가 고려될 수 있고, 이를 통해 공사 영역 주변에서의 중앙선 침범 또는 역주행 등은 임시적으로 정상 이벤트인 것으로 결정될 수 있다. 도로의 공사가 종료되면, 이벤트 분석부(122)는 기계학습 모델을 사용하여 임시 정상 이벤트로 분류되는 궤적의 발생 빈도가 현저히 줄어든 것을 학습하고, 임시 정상 이벤트를 이벤트 DB(123)의 이벤트 리스트에서 삭제할 수 있다. 임시 정상 이벤트가 이벤트 DB(123)에서 삭제되면, 임시 정상 이벤트에 대응하는 특정 영역에서 발생하는 궤적의 정상/비정상 여부는 기존의 이벤트 리스트를 기반으로 판단될 수 있다. If the same trajectory as the motion of an object that does not correspond to a predefined event frequently occurs, the
이벤트 분석부(122)의 이벤트 분석 결과는 객체 이미지 및 객체 정보와 함께 교통 관제 시스템(미도시)에 전달될 수 있다. The event analysis result of the
위에서 설명한 대로, 한 실시예에 따른 교통 상황 분석 장치는 인공 신경망을 사용하여 실시간 교통 감시영상으로부터 객체 및 객체의 궤적을 인식하고, 객체의 각종 움직임에 따른 비정상 이벤트의 발생을 신속하고 정확하게 판단할 수 있다. 또한, 교통 관제 시스템은 교통 감시영상 내에서 검출되고 추적된 객체의 이미지 및 객체 정보와, 객체의 이동 궤적에 따른 이벤트의 분석 결과를 바탕으로, 교통 감시영상 내의 통행량을 측정하고, 비정상 상황의 발생을 인지할 수 있다. 또한, 교통 관제 시스템은 객체의 이미지, 객체 정보, 객체의 이동 궤적에 따른 이벤트 정보와, 주변 지역의 다른 교통 감시영상에 따른 상기 정보를 바탕으로 신호 체계 변경 등 트래픽의 흐름 개선을 위한 조치를 취할 수 있다.As described above, the traffic situation analysis device according to an embodiment recognizes an object and its trajectory from a real-time traffic monitoring image using an artificial neural network, and can quickly and accurately determine the occurrence of abnormal events according to various movements of the object. there is. In addition, the traffic control system measures the traffic volume in the traffic surveillance video based on the image and object information of the object detected and tracked in the traffic surveillance video and the analysis result of the event according to the object's movement trajectory, and detects the occurrence of abnormal situations. can recognize In addition, the traffic control system takes measures to improve the flow of traffic, such as changing the signal system, based on the image of the object, object information, event information according to the movement trajectory of the object, and the above information according to other traffic monitoring images in the surrounding area. can
도 10은 다른 실시예에 따른 교통 상황 분석 장치를 나타낸 블록도이다.10 is a block diagram illustrating a traffic condition analysis device according to another embodiment.
한 실시예에 따른 교통 상황 분석 장치는, 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 도 9를 참조하면, 컴퓨터 시스템(1000)은, 버스(1070)를 통해 통신하는 프로세서(1010), 메모리(1030), 입력 인터페이스 장치(1050), 출력 인터페이스 장치(1060), 및 저장 장치(1040) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(1000)은 또한 네트워크에 결합된 통신 장치(1020)를 포함할 수 있다. 프로세서(1010)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(1030) 또는 저장 장치(1040)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(1030) 및 저장 장치(1040)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory) 및 RAM(random access memory)를 포함할 수 있다. 본 기재의 실시예에서 메모리는 프로세서의 내부 또는 외부에 위치할 수 있고, 메모리는 이미 알려진 다양한 수단을 통해 프로세서와 연결될 수 있다. 메모리는 다양한 형태의 휘발성 또는 비휘발성 저장 매체이며, 예를 들어, 메모리는 읽기 전용 메모리(read-only memory, ROM) 또는 랜덤 액세스 메모리(random access memory, RAM)를 포함할 수 있다.A traffic condition analysis device according to an embodiment may be implemented in a computer system, for example, a computer readable medium. Referring to FIG. 9 , a
따라서, 본 발명의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.Accordingly, an embodiment of the present invention may be implemented as a computer-implemented method or as a non-transitory computer-readable medium in which computer-executable instructions are stored. In one embodiment, when executed by a processor, the computer readable instructions may perform a method according to at least one aspect of the present disclosure.
통신 장치(1020)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. The
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. 구체적으로, 본 발명의 실시예에 따른 방법(예, 네트워크 관리 방법, 데이터 전송 방법, 전송 스케줄 생성 방법 등)은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은, 본 발명의 실시예를 위해 특별히 설계되어 구성된 것이거나, 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체는 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치를 포함할 수 있다. 예를 들어, 컴퓨터 판독 가능 기록 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 롬(ROM), 램(RAM), 플래시 메모리 등일 수 있다. 프로그램 명령은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 통해 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. Meanwhile, the embodiments of the present invention are not implemented only through the devices and/or methods described so far, and may be implemented through a program that realizes functions corresponding to the configuration of the embodiments of the present invention or a recording medium in which the program is recorded. And, such implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment. Specifically, the method (eg, network management method, data transmission method, transmission schedule creation method, etc.) according to an embodiment of the present invention is implemented in the form of program commands that can be executed through various computer means, and is stored in a computer readable medium. can be recorded. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the embodiments of the present invention, or may be known and usable to those skilled in the art in the field of computer software. A computer-readable recording medium may include a hardware device configured to store and execute program instructions. For example, computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, floptical disks and It may be the same magneto-optical media, ROM, RAM, flash memory, or the like. The program instructions may include high-level language codes that can be executed by a computer through an interpreter, as well as machine language codes generated by a compiler.
이상에서 실시예에 대하여 상세하게 설명하였지만 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 권리범위에 속하는 것이다.Although the embodiments have been described in detail above, the scope of rights is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts defined in the following claims also fall within the scope of rights.
Claims (10)
제1 기계학습 모델을 사용하여 교통 감시영상에서 객체를 검출하는 단계,
검출된 객체를 추적하여 상기 객체의 궤적을 획득하는 단계, 그리고
제2 기계학습 모델을 사용하여 상기 궤적을 분석함으로써, 상기 궤적에 대응하는 이벤트를 분석하는 단계를 포함하되,
상기 객체를 검출하는 단계는,
상기 교통 감시영상의 이미지 프레임의 하단일수록 상기 이미지 프레임을 상단 대비 상대적으로 크기가 큰 복수의 이미지 블록으로 분할하고, 상기 교통 감시영상의 이미지 프레임의 상단일수록 상기 이미지 프레임을 하단 대비 상대적으로 크기가 작은 복수의 이미지 블록으로 분할하는 단계; 및
상기 상대적으로 큰 이미지 블록의 크기는 축소시키고 상기 상대적으로 작은 이미지 블록의 크기는 확대시킴으로써, 동일한 크기의 균등 이미지 블록으로 변환시킨 후, 해당 이미지 블록 내에서 객체를 검출하는 단계를 포함하는, 교통 상황 분석 방법.As a traffic situation analysis method,
Detecting an object in a traffic monitoring image using a first machine learning model;
Tracking the detected object to obtain a trajectory of the object; and
Analyzing an event corresponding to the trajectory by analyzing the trajectory using a second machine learning model,
The step of detecting the object is,
The lower part of the image frame of the traffic surveillance video divides the image frame into a plurality of image blocks relatively large in size compared to the upper part, and the upper part of the image frame of the traffic monitoring video has a smaller size than the lower part of the image frame. segmenting into a plurality of image blocks; and
and converting the relatively large image block into a uniform image block having the same size by reducing the size of the relatively large image block and enlarging the size of the relatively small image block, and then detecting an object in the corresponding image block. analysis method.
상기 객체를 검출하는 단계는,
상기 객체가 검출된 상기 복수의 균등 이미지 블록을 원본 이미지 블록으로 각각 복원하는 단계
를 더 포함하는, 교통 상황 분석 방법.In paragraph 1,
The step of detecting the object is,
restoring each of the plurality of uniform image blocks in which the object is detected into an original image block;
Further comprising a traffic situation analysis method.
상기 객체의 궤적을 획득하는 단계는,
상기 교통 감시영상의 시간적으로 인접한 두 개의 이미지 프레임 내에서 추적되고 있는 객체의 유사도를 계산하는 단계,
계산된 유사도에 따라 유사 객체 쌍을 매칭하는 단계, 그리고
상기 유사 객체 쌍의 매칭 결과에 따라 객체 추적 리스트를 갱신하는 단계
를 포함하는, 교통 상황 분석 방법.In paragraph 1,
Obtaining the trajectory of the object,
Calculating a similarity of an object being tracked in two temporally adjacent image frames of the traffic monitoring image;
Matching similar object pairs according to the calculated similarity; and
Updating an object tracking list according to a matching result of the similar object pair
Including, traffic situation analysis method.
상기 객체의 유사도를 계산하는 단계는,
특정 이미지 프레임에서 추적 중인 모든 객체의 객체 정보와 상기 특정 이미지 프레임의 다음 이미지 프레임 내에서 검출된 객체의 객체 정보를 바탕으로 상기 유사도를 계산하는 단계
를 포함하는, 교통 상황 분석 방법.In paragraph 3,
Calculating the similarity of the objects,
Calculating the degree of similarity based on object information of all objects being tracked in a specific image frame and object information of objects detected in an image frame next to the specific image frame
Including, traffic situation analysis method.
상기 특정 이미지 프레임에서 추적되고 있는 추적 객체의 객체 정보와 상기 특정 이미지 프레임의 다음 이미지 프레임 내에서 검출된 검출 객체의 객체 정보를 바탕으로 상기 유사도를 계산하는 단계는,
상기 추적 객체의 객체 정보와 상기 검출 객체의 객체 정보를 벡터화하고, 벡터화된 객체 정보 간의 거리 연산을 통해 상기 유사도를 계산하는 단계
를 포함하는, 교통 상황 분석 방법.In paragraph 4,
Calculating the similarity based on object information of a tracking object being tracked in the specific image frame and object information of a detection object detected in an image frame next to the specific image frame,
vectorizing object information of the tracking object and object information of the detection object, and calculating the similarity through distance calculation between the vectorized object information;
Including, traffic situation analysis method.
프로세서, 메모리, 및 통신부를 포함하고, 상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여,
상기 통신부를 통해 수신된 교통 감시영상에서 제1 기계학습 모델을 사용하여 객체를 검출하는 단계,
검출된 객체를 추적하여 상기 객체의 궤적을 획득하는 단계, 그리고
제2 기계학습 모델을 사용하여 상기 궤적을 분석함으로써, 상기 궤적에 대응하는 이벤트를 분석하는 단계를 수행하되,
상기 프로세서는 상기 객체를 검출하는 단계를 수행할 때,
상기 교통 감시영상의 이미지 프레임의 하단일수록 상기 이미지 프레임을 상단 대비 상대적으로 크기가 큰 복수의 이미지 블록으로 분할하고, 상기 교통 감시영상의 이미지 프레임의 상단일수록 상기 이미지 프레임을 하단 대비 상대적으로 크기가 작은 복수의 이미지 블록으로 분할하는 단계; 및
상기 상대적으로 큰 이미지 블록의 크기는 축소시키고 상기 상대적으로 작은 이미지 블록의 크기는 확대시킴으로써, 동일한 크기의 균등 이미지 블록으로 변환시킨 후, 해당 이미지 블록 내에서 객체를 검출하는 단계를 포함하는,
교통 상황 분석 장치.As a traffic situation analysis device,
It includes a processor, a memory, and a communication unit, wherein the processor executes a program stored in the memory,
Detecting an object using a first machine learning model in the traffic monitoring image received through the communication unit;
Tracking the detected object to obtain a trajectory of the object; and
Analyzing an event corresponding to the trajectory by analyzing the trajectory using a second machine learning model,
When the processor performs the step of detecting the object,
The lower part of the image frame of the traffic surveillance video divides the image frame into a plurality of image blocks relatively large in size compared to the upper part, and the upper part of the image frame of the traffic monitoring video has a smaller size than the lower part of the image frame. segmenting into a plurality of image blocks; and
By reducing the size of the relatively large image block and enlarging the size of the relatively small image block, converting the relatively large image block into a uniform image block having the same size, and then detecting an object in the corresponding image block,
Traffic situation analysis device.
상기 프로세서는 상기 객체를 검출하는 단계를 수행할 때,
상기 객체가 검출된 상기 복수의 균등 이미지 블록을 원본 이미지 블록으로 각각 복원하는 단계
를 더 수행하는, 교통 상황 분석 장치.In paragraph 6,
When the processor performs the step of detecting the object,
restoring each of the plurality of uniform image blocks in which the object is detected into an original image block;
Further, the traffic situation analysis device.
상기 프로세서는 상기 객체의 궤적을 획득하는 단계를 수행할 때,
상기 교통 감시영상의 시간적으로 인접한 두 개의 이미지 프레임 내에서 추적되고 있는 객체의 유사도를 계산하는 단계,
계산된 유사도에 따라 유사 객체 쌍을 매칭하는 단계, 그리고
상기 유사 객체 쌍의 매칭 결과에 따라 객체 추적 리스트를 갱신하는 단계
를 수행하는, 교통 상황 분석 장치.In paragraph 6,
When the processor performs the step of acquiring the trajectory of the object,
Calculating a similarity of an object being tracked in two temporally adjacent image frames of the traffic monitoring image;
Matching similar object pairs according to the calculated similarity; and
Updating an object tracking list according to a matching result of the similar object pair
To perform, traffic situation analysis device.
상기 프로세서는 상기 객체의 유사도를 계산하는 단계를 수행할 때,
특정 이미지 프레임에서 추적 중인 모든 객체의 객체 정보와 상기 특정 이미지 프레임의 다음 이미지 프레임 내에서 검출된 객체의 객체 정보를 바탕으로 상기 유사도를 계산하는 단계
를 수행하는, 교통 상황 분석 장치.In paragraph 8,
When the processor performs the step of calculating the similarity of the object,
Calculating the degree of similarity based on object information of all objects being tracked in a specific image frame and object information of objects detected in an image frame next to the specific image frame
To perform, traffic situation analysis device.
상기 프로세서는 상기 특정 이미지 프레임에서 추적되고 있는 추적 객체의 객체 정보와 상기 특정 이미지 프레임의 다음 이미지 프레임 내에서 검출된 검출 객체의 객체 정보를 바탕으로 상기 유사도를 계산하는 단계를 수행할 때,
상기 추적 객체의 객체 정보와 상기 검출 객체의 객체 정보를 벡터화하고, 벡터화된 객체 정보 간의 거리 연산을 통해 상기 유사도를 계산하는 단계
를 수행하는, 교통 상황 분석 장치.In paragraph 9,
When the processor performs the step of calculating the similarity based on object information of a tracking object being tracked in the specific image frame and object information of a detection object detected in an image frame next to the specific image frame,
vectorizing object information of the tracking object and object information of the detection object, and calculating the similarity through distance calculation between the vectorized object information;
To perform, traffic situation analysis device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200043000A KR102566525B1 (en) | 2020-04-08 | 2020-04-08 | Method and apparatus for analyzing traffic situation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200043000A KR102566525B1 (en) | 2020-04-08 | 2020-04-08 | Method and apparatus for analyzing traffic situation |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210125371A KR20210125371A (en) | 2021-10-18 |
KR102566525B1 true KR102566525B1 (en) | 2023-08-21 |
Family
ID=78271415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200043000A KR102566525B1 (en) | 2020-04-08 | 2020-04-08 | Method and apparatus for analyzing traffic situation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102566525B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102533582B1 (en) * | 2022-11-10 | 2023-05-17 | 주식회사 에이엔비 | AI-based driving violation two-wheeled vehicle enforcement system and method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101234046B1 (en) * | 2011-11-11 | 2013-02-15 | 재단법인대구경북과학기술원 | Method for tracking object using features in object and apparatus thereof |
KR101552600B1 (en) | 2015-03-31 | 2015-09-11 | (주)서광시스템 | Method for tracking multiple walking object simultaneously using sectioned image |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102131896B1 (en) * | 2014-09-23 | 2020-07-09 | 에스케이텔레콤 주식회사 | Method and apparatus for monitoring video |
KR101995107B1 (en) * | 2017-03-23 | 2019-07-01 | 한국과학기술원 | Method and system for artificial intelligence based video surveillance using deep learning |
KR102028930B1 (en) * | 2017-12-26 | 2019-10-07 | 이노뎁 주식회사 | method of providing categorized video processing for moving objects based on AI learning using moving information of objects |
-
2020
- 2020-04-08 KR KR1020200043000A patent/KR102566525B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101234046B1 (en) * | 2011-11-11 | 2013-02-15 | 재단법인대구경북과학기술원 | Method for tracking object using features in object and apparatus thereof |
KR101552600B1 (en) | 2015-03-31 | 2015-09-11 | (주)서광시스템 | Method for tracking multiple walking object simultaneously using sectioned image |
Also Published As
Publication number | Publication date |
---|---|
KR20210125371A (en) | 2021-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7430277B2 (en) | Obstacle detection method and apparatus, computer device, and computer program | |
US10740658B2 (en) | Object recognition and classification using multiple sensor modalities | |
US20230144209A1 (en) | Lane line detection method and related device | |
US11380105B2 (en) | Identification and classification of traffic conflicts | |
KR102197946B1 (en) | object recognition and counting method using deep learning artificial intelligence technology | |
US9213901B2 (en) | Robust and computationally efficient video-based object tracking in regularized motion environments | |
WO2019175285A1 (en) | Vehicle localization | |
Giannakeris et al. | Speed estimation and abnormality detection from surveillance cameras | |
JP6910081B2 (en) | A method of integrating each driving image acquired from each vehicle that performs cooperative driving and a driving image integration device using this. | |
Chang et al. | Video analytics in smart transportation for the AIC'18 challenge | |
CN110543807A (en) | method for verifying obstacle candidate | |
US11912310B2 (en) | Autonomous driving crash prevention | |
KR20210052031A (en) | Deep Learning based Traffic Flow Analysis Method and System | |
US20210397187A1 (en) | Method and system for operating a mobile robot | |
KR102566525B1 (en) | Method and apparatus for analyzing traffic situation | |
EP4145398A1 (en) | Systems and methods for vehicle camera obstruction detection | |
EP4341913A2 (en) | System for detection and management of uncertainty in perception systems, for new object detection and for situation anticipation | |
Kuppusamy et al. | Traffic Sign Recognition for Autonomous Vehicle Using Optimized YOLOv7 and Convolutional Block Attention Module. | |
US11715215B2 (en) | Untrained systems and methods for vehicle speed estimation | |
US20220262122A1 (en) | Image collection apparatus and image collection method | |
Mallikarjun et al. | Image projection method for vehicle speed estimation model in video system | |
Mahayash et al. | Smart approach for vehicle detection and counting | |
Abbas et al. | Vision based intelligent traffic light management system using Faster R‐CNN | |
Tseng et al. | Turn prediction for special intersections and its case study | |
Kumar et al. | Autonomous Vehicle Along with Surrounding Agent's Path Prediction Using CNN-Based Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |