KR101294498B1 - Method of objects recognition for tunnel accident monitoring system - Google Patents

Method of objects recognition for tunnel accident monitoring system Download PDF

Info

Publication number
KR101294498B1
KR101294498B1 KR1020110125814A KR20110125814A KR101294498B1 KR 101294498 B1 KR101294498 B1 KR 101294498B1 KR 1020110125814 A KR1020110125814 A KR 1020110125814A KR 20110125814 A KR20110125814 A KR 20110125814A KR 101294498 B1 KR101294498 B1 KR 101294498B1
Authority
KR
South Korea
Prior art keywords
ratio
objects
moving
moving object
labeling
Prior art date
Application number
KR1020110125814A
Other languages
Korean (ko)
Other versions
KR20130059700A (en
Inventor
유윤식
박장식
김현태
김규영
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020110125814A priority Critical patent/KR101294498B1/en
Publication of KR20130059700A publication Critical patent/KR20130059700A/en
Application granted granted Critical
Publication of KR101294498B1 publication Critical patent/KR101294498B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 터널 유고 시스템의 객체 인식방법에 관한 것으로, 보다 상세하게는, 검출된 객체의 크기비율의 범위에 따라 이동객체의 종류를 구분할 수 있는 터널 유고 시스템의 객체 인식방법에 관한 것이다.
카메라 영상을 통해 이동객체를 검출하는 터널 유고 시스템의 객체 인식방법에 있어서, 본 발명의 터널 유고 시스템의 객체 인식방법에 따르면, 영상에서 검출된 이동객체의 외각을 따라 사각형으로 레이블링하는 단계와, 레이블링의 가로, 세로 비율의 범위에 따라 상기 이동객체의 종류를 구분하는 단계를 통하여 객체의 종류를 구분해낼 수 있어 터널 유고상황 시 신속한 대응이 가능하다.
또한, 현재 프레임 영상의 레이블링 비율과 이전 프레임 영상의 레이블링 비율을 비교하여 두 비율이 서로 다르면 상기 이동객체의 겹침이 발생한 것으로 판단함으로써 이동객체의 겹침을 검출해 낼 수 있어 계속적인 추적을 수행할 수 있다.
The present invention relates to an object recognition method of a tunnel note system, and more particularly, to an object recognition method of a tunnel note system capable of classifying a type of a moving object according to a range of size ratios of detected objects.
In the object recognition method of a tunnel note system for detecting a moving object through a camera image, the object recognition method of the tunnel note system according to the present invention comprises the steps of: labeling a rectangle along the outer angle of the detected moving object in the image; Through the step of classifying the type of the moving object according to the range of the aspect ratio of the, it is possible to distinguish the type of the object it is possible to respond quickly in the tunnel situation.
In addition, by comparing the labeling ratio of the current frame image with the labeling ratio of the previous frame image, if the two ratios are different from each other, the overlapping of the moving objects can be detected by determining that the overlapping of the moving objects has occurred, and thus continuous tracking can be performed. have.

Description

터널 유고 시스템의 객체 인식방법 {Method of objects recognition for tunnel accident monitoring system}{Method of objects recognition for tunnel accident monitoring system}

본 발명은 터널 유고 시스템의 객체 인식방법에 관한 것으로, 보다 상세하게는, 검출된 객체의 크기비율의 범위에 따라 이동객체의 종류를 구분할 수 있는 터널 유고 시스템의 객체 인식방법에 관한 것이다.The present invention relates to an object recognition method of a tunnel note system, and more particularly, to an object recognition method of a tunnel note system capable of classifying a type of a moving object according to a range of size ratios of detected objects.

일반적으로 터널과 같은 한정된 공간에서의 차량 사고는 일반도로의 상황보다 심각한 사고가 발생할 가능성이 많다. 이와 같은 유고 상황에 대한 조기 대응 및 관리를 위해 터널 내 영상 감지 시스템이 도입되고 있다. In general, vehicle accidents in confined spaces such as tunnels are more likely to cause serious accidents than on roads. In-tunnel image detection system is introduced for early response and management.

터널 영상유고 감지시스템은 CCTV 영상자료를 분석하여 정지차량, 역주행차량, 보행자, 낙하물 등 유고 유형을 감지하여 관리자에게 알려주는 시스템이며, 도로 터널 방재시설 설치 및 관리지침(2009.8)에서는 이러한 시스템에 사용되는 카메라를 3m ~ 3.5m 높이에 100m ~ 150m 간격으로 설치하도록 권고하고 있다. 한국도로공사 및 국토관리청 등 도로유지 관리 관련 기관에서는 터널 내 영상유고 감지 시스템을 일부 설치하여 운영하고 있으며, 이는 점차 확대될 전망이다. The tunnel image detection system detects types of accidents such as stationary vehicles, driving vehicles, pedestrians, and falling objects by analyzing CCTV image data, and informs the administrator, and the road tunnel disaster prevention facility installation and management guideline (2009.8) is used for such systems. It is recommended that the installed camera be installed at a height of 3m to 3.5m at intervals of 100m to 150m. Road maintenance management organizations such as Korea Expressway Corporation and the Korea Land Management Agency have installed and operated some video image detection systems in tunnels, which are expected to expand gradually.

도 1은 도로터널 방재 시설 지침에 따른 카메라의 감지 범위와 거리를 나타낸 도면이다. 도 1에서 볼 수 있듯이, 터널 내에는 일정간격으로 카메라가 설치되어 있으며, 상황실에서는 CCTV 영상을 통해 각 카메라의 감지범위 내에서 유고 상황을 확인할 수 있도록 되어 있음을 알 수 있다.1 is a diagram illustrating a detection range and a distance of a camera according to a road tunnel disaster prevention facility guideline. As can be seen in Figure 1, the camera is installed at a predetermined interval in the tunnel, it can be seen in the situation room to check the state of Yugo within the detection range of each camera through CCTV images.

객체 추적에 관한 연구는 크게 영역 기반 추적, 특징점 기반 추적, 모델 기반 추적, 필터 기반 추적으로 나눌 수 있다. 그러나 이러한 방법들 모두 객체의 종류를 파악할 수 없어 유고상황시 신속한 대응이 어려운 경향이 있으며, 유고상황을 감지하는데 있어서 객체들의 겹침현상이 발생할 경우 객체 추적에 실패하는 문제점이 있었다.Research on object tracking can be divided into area based tracking, feature point based tracking, model based tracking and filter based tracking. However, all of these methods tend to be difficult to respond quickly to the notice situation because they cannot grasp the type of the object, and there is a problem that the object tracking fails when the overlapping phenomenon occurs in detecting the notice situation.

위와 같은 이유로, 객체의 종류를 구분하는 동시에 객체의 겹침현상을 검출하여 추적할 수 있는 알고리즘이 필요하게 되었다.For the same reason as above, there is a need for an algorithm that can classify objects and detect and track object overlap.

본 발명은 이와 같은 종래의 문제점을 개선하기 위해 제안된 것으로, The present invention is proposed to improve such a conventional problem,

터널 내 유고상황을 감지하는데 있어 객체의 종류를 정확하게 구분해내고, 이와 더불어 객체의 겹침을 검출하여 계속적으로 추적할 수 있는 방법을 제공하는 것을 목적으로 한다.The purpose of this study is to provide a method to accurately classify the types of objects in detecting the presence of tunnels and to detect and track the overlap of objects.

상기의 목적을 달성하기 위해 본 발명의 터널 유고 시스템의 객체 인식방법은, 카메라를 통하여 촬영되는 복수개의 객체를 촬영 거리 구간별로 세분화하여 사각형으로 레이블링화하고 이렇게 레이블링된 객체의 가로 및 세로 비율 정보(이하, 모델링 정보)를 모두 저장한 다음 상기 카메라 영상을 통해 이동객체를 검출하는 터널 유고 시스템의 객체 인식방법으로서,
(a) 상기 카메라를 통하여 검출되는 적어도 하나 이상의 이동객체 각각의 외각을 따라 사각형으로 레이블링하는 단계; 및
(b) 상기 (a) 단계에서 레이블링된 상기 하나 이상의 이동객체 각각의 가로, 세로 수치의 비율을 검출하여 상기 모델링 정보와 비교하여 상기 이동객체의 종류를 구분하는 단계를 포함하며,
적어도 하나 이상의 상기 이동객체의 종류를 구분하는 단계 후, 상기 이동객체가 포함되는 현재 프레임 영상에 포함된 이동객체의 가로 및 세로 레이블링 비율(제 1 비율)과 이전 프레임 영상에 포함된 상기 이동객체의 가로 및 세로 레이블링 비율(제 2 비율)을 상호 비교하여, 상기 제 1 비율 또는 상기 제 2 비율중 적어도 어느 하나가 상기 모델링 정보와 일치하지 아니하는 경우 적어도 하나 이상의 상기 이동객체에 겹침 현상이 발생하였다는 것을 판단하는 것을 특징으로 한다.
In order to achieve the above object, in the object recognition method of the tunnel note system of the present invention, a plurality of objects photographed through a camera are classified into photographing distance sections and labeled as rectangles, and the horizontal and vertical ratio information of the labeled objects ( Hereinafter, as a method of recognizing an object in a tunnel notice system for storing all modeling information) and detecting a moving object through the camera image,
(a) labeling a rectangle along an outer edge of each of at least one moving object detected by the camera; And
(b) detecting a ratio of the horizontal and vertical values of each of the one or more moving objects labeled in step (a), and classifying the type of the moving object by comparing with the modeling information;
After classifying at least one kind of the moving object, a horizontal and vertical labeling ratio (first ratio) of the moving object included in the current frame image including the moving object and the moving object included in the previous frame image; When the horizontal and vertical labeling ratios (second ratios) are compared with each other, when at least one of the first ratio and the second ratios does not coincide with the modeling information, overlapping occurs in at least one or more of the moving objects. It is characterized by judging that.

또한, 본 발명의 터널 유고 시스템의 객체 인식방법의 상기 레이블링의 가로 및 세로 수치는 상기 영상에서 감지되는 범위에서 구간별로 상기 이동객체를 검출할 수 있도록 구분되어 있는 거리와 상기 구분된 거리의 위치에 있는 이동객체의 종류에 따라 미리 저장되어 있는 것이 바람직하며, 상기 거리의 최소값은 상기 영상에서 일부분만 나타난 상기 이동객체의 전체 외형이 최초로 모두 표시되었을 때의 좌표를 기준으로 하는 것이 바람직하다.In addition, the horizontal and vertical numerical values of the labeling of the object recognition method of the tunnel note system of the present invention is located at the distance and the location of the separated distance so as to detect the moving object for each section in the range detected in the image. Preferably, the distance is stored in advance according to the type of the moving object, and the minimum value of the distance is preferably based on the coordinates when the entire appearance of the mobile object, which is partially displayed in the image, is displayed for the first time.

그리고, 본 발명의 터널 유고 시스템의 객체 인식방법의 상기 이동객체 종류 구분 단계는, 상기 레이블링의 상기 가로, 세로 비율이 0.4 이상 2.0 미만인 경우 상기 이동객체는 차량으로 인식하고, 상기 비율이 2.0 이상 6.0 미만인 경우 상기 이동객체는 사람으로 인식하는 것이 바람직하다.The moving object type classification step of the object recognition method of the tunnel note system according to the present invention may include detecting the moving object as a vehicle when the horizontal and vertical ratios of the labeling are 0.4 or more and less than 2.0, and the ratio is 2.0 or more and 6.0. If less, the mobile object is preferably recognized as a person.

삭제delete

본 발명의 터널 유고 시스템의 객체 인식방법에 따르면, According to the object recognition method of the tunnel note system of the present invention,

영상에서 검출된 이동객체의 외각을 따라 사각형으로 레이블링하고, 레이블링의 가로, 세로 비율을 계산하여 비율 범위를 판단함으로써 이동객체의 종류를 구분해낼 수 있어 터널 유고상황 시 신속한 대응이 가능하다.It is possible to distinguish the types of moving objects by labeling the rectangles along the outer edge of the moving object detected from the image, and calculating the horizontal and vertical ratios of the labeling to determine the range of the moving objects.

또한, 현재 프레임 영상의 레이블링 비율과 이전 프레임 영상의 레이블링 비율을 비교하여 두 비율이 서로 다르면 상기 이동객체의 겹침이 발생한 것으로 판단함으로써 이동객체의 겹침을 검출해 낼 수 있어 계속적인 추적을 수행할 수 있다.In addition, by comparing the labeling ratio of the current frame image with the labeling ratio of the previous frame image, if the two ratios are different from each other, the overlapping of the moving objects can be detected by determining that the overlapping of the moving objects has occurred, and thus continuous tracking can be performed. have.

도 1은 도로터널 방재 시설 지침에 따른 감지 범위와 거리를 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 구성도이다.
도 3은 본 발명의 일 실시예에 따른 객체구분단계의 구성도이다.
도 4는 본 발명의 일 실시예에 따른 겹침검출을 나타낸 개념도이다.
도 5는 본 발명의 일 실시예에 따른 실험결과이다.
1 is a view showing the detection range and the distance according to the road tunnel disaster prevention facility guidelines.
2 is a block diagram according to an embodiment of the present invention.
3 is a block diagram of an object classification step according to an embodiment of the present invention.
4 is a conceptual diagram illustrating overlap detection according to an embodiment of the present invention.
5 is an experimental result according to an embodiment of the present invention.

이하에서는 도시된 도면을 참조하여 본 발명의 터널 유고 시스템의 객체 인식방법의 실시예에 관하여 구체적으로 설명하기로 한다.
Hereinafter, an embodiment of an object recognition method of a tunnel note system according to the present invention will be described in detail with reference to the accompanying drawings.

도 2 및 도 3은 본 발명의 터널 유고 시스템의 객체 인식방법의 일 실시예에 따른 구성도이다. 2 and 3 are configuration diagrams according to an embodiment of the object recognition method of the tunnel note system of the present invention.

도 2에 도시된 바와 같이, 본 발명의 터널 유고 시스템의 객체 인식방법을 적용시키기 위해서는 먼저, 카메라 영상을 통해 이동객체를 검출하여야 하며 이를 위해 영상입력단계(100), 객체후보검출단계(200) 및 객체검출단계(300)가 선행될 것이다. 이후 본 발명인 레이블링단계(400)와 객체구분단계(500)를 거쳐 객체의 종류를 구분해내고, 겹침검출단계(600)단계에서 겹쳐있는 이동객체를 검출하여 계속적인 객체추적이 가능하도록한다. 그러므로 앞선 3단계인 영상입력단계(100), 객체후보검출단계(200) 및 객체검출단계(300)는 본 발명의 기술적 사상에는 포함되지는 않으나 본 발명을 적용시키기 위해 전제되어 있어야 할 과정이므로 본 발명의 이해를 돕고자 각 부분의 명칭과 정의에 대해서 먼저 간략하게 설명하기로 한다.
As shown in FIG. 2, in order to apply the object recognition method of the tunnel note system of the present invention, first, a moving object must be detected through a camera image. For this, an image input step 100 and an object candidate detection step 200 are performed. And object detection step 300 will be preceded. Thereafter, the inventors distinguish the types of objects through the labeling step 400 and the object classification step 500, and detect overlapping moving objects in the overlap detection step 600 to enable continuous object tracking. Therefore, the above three steps of the image input step 100, the object candidate detection step 200 and the object detection step 300 are not included in the technical idea of the present invention, but the present invention is a process to be premised in order to apply the present invention. To help understand the invention, the names and definitions of the parts will be briefly described first.

먼저, 영상입력단계(100)은 CCTV의 카메라를 통해서 처리하고자 하는 영상을 입력받는 단계이다. 영상은 카메라의 해상도에 따라 320 X 240, 640 X 480, 720 X 480. 1080 X 720, 1280 X 720 등으로 나눌 수 있으며, 본 발명에서는 1280 X 720 p 영상을 기준으로 설명하기로 한다.
First, the image input step 100 is a step of receiving an image to be processed through the camera of the CCTV. Images can be divided into 320 x 240, 640 x 480, 720 x 480, 1080 x 720, 1280 x 720, etc. according to the resolution of the camera, and the present invention will be described based on the 1280 x 720p image.

다음, 객체후보검출단계(200)에서는 이동객체를 정확하게 검출해내기 위한 사전작업을 수행하는 단계이다. 한편, 본 발명에서 설명하는 객체의 종류는 터널 내 유고 상황 시 추적해야할 대상인 차량, 사람임이 바람직하다. 또한, 본 발명에서 설명하는 이동객체란 현재 이동 중인 객체만으로 한정하는 의미로 해석되어서는 안되며, 이동 중인 객체 뿐만아니라 정지해 있지만 이동가능한 객체도 포함되어 해석되는 것이 바람직하다. 그리고, 본 발명을 설명하는데 있어서, 객체도 기본적으로 이동가능한 것을 전제로 하기 때문에 객체와 이동객체는 혼용되어 사용될 것이다.
Next, the object candidate detection step 200 is a step of performing a preliminary operation to accurately detect the moving object. On the other hand, the type of object described in the present invention is preferably a vehicle, a person to be tracked in the presence situation in the tunnel. In addition, the moving object described in the present invention should not be interpreted in the sense that it is limited to the currently moving object only, it is preferable to include not only the moving object but also the stationary but movable object. In the description of the present invention, the object and the moving object will be used interchangeably because the object is basically movable.

객체후보검출(200)단계는 다시 배경추정과정과 노이즈제거과정으로 나눌 수 있다. 이중, 배경추정을 위해서는 배경과 객체를 분리할 수 있는 가우시안 혼합모델(MoG:Mixture of Gaussian), 커널 밀도 추정(KDE:Kernel Density Estimate), 러닝 가우시안(RGA:Running Gaussian Average) 알고리즘 등을 사용할 수 있다.The object candidate detection step 200 may be divided into a background estimation process and a noise removal process. For background estimation, Gaussian mixture model (MoG), Kernel Density Estimate (KDE), and Running Gaussian Average (RGA) algorithms can be used to separate background and objects. have.

또한, 노이즈 제거를 위해 주어진 마스크 영역의 값들을 크기 순서대로 정렬한 후 중간크기의 값을 선택하는 필터인 미디언 필터(TMF:Temporal Median Filter)를 적용시킬 수 있으며, 모폴로지(Morphology)의 팽창연산(Dilation)을 통해 객체의 특성은 확대시켜 강조하고 배경은 축소시키거나, 반대로 침식연산(Erosion)을 통해 객체는 축소시키고 배경을 강조하는 기법을 사용할 수 있다. In addition, it is possible to apply the Median Filter (TMF), which is a filter that selects a medium value after arranging the values of a given mask area in order of magnitude to remove noise, and expands the morphology of the morphology. (Dilation) can be used to enlarge the object's characteristics and reduce the background, or, conversely, to reduce the object and emphasize the background through erosion.

이처럼, 배경추정과정과 노이즈제거과정을 통해 객체 후보를 검출해낸다.
As such, object candidates are detected through background estimation and noise removal.

다음, 객체검출단계(300)에서는 검출하고자 하는 객체를 학습시키는 에이다부스트(Adaboost) 알고리즘을 통하여 객체와 비객체를 구분하며, 앞서 검출된 객체 후보 중에서 객체를 검출해낸다.
Next, in the object detection step 300, the object and the non-object are distinguished through an Adaboost algorithm for learning the object to be detected, and the object is detected from the previously detected object candidates.

상기 과정을 거쳐 검출된 이동객체는 레이블링단계(400)에서 객체의 외곽을 따라 사각형의 프레임으로 레이블링 되며, 객체구분단계(500)에서 이동객체의 크기비율에 따라 객체의 종류를 구분해 내고, 복수 개의 객체가 겹쳐있을 경우 겹침검출단계(600)단계에서 이를 검출하여 계속적으로 추적이 가능하도록한다.
The moving object detected through the above process is labeled with a rectangular frame along the outer edge of the object in the labeling step 400, and in the object classification step 500, classifies the object type according to the size ratio of the moving object, If two objects overlap, the overlap detection step (600) detects it so that it can be continuously tracked.

여기서, 객체구분단계(500)은 도 3에 도시된 바와 같이 다시 구간별검출(510), 차량 판단(520), 사람 판단(530)으로 구성될 수 있다. 하지만, 이는 필수적인 구성요소들이 아니며 검출목적으로 하는 객체에 따라 그 구성을 추가, 삭제 또는 변경이 가능하다.
Here, the object classification step 500 may be composed of the section detection 510, the vehicle determination 520, the person determination 530 again as shown in FIG. However, this is not an essential component and the configuration can be added, deleted or changed depending on the object to be detected.

구간별검출(510)에서는 영상에서 감지되는 범위에서 구간별로 이동객체를 검출할 수 있도록 일정거리별로 구분하여 검출한다. 본 발명의 일 실시예로 1구간(511):20m이전, 2구간(512):20~50m, 3구간(513):50~100m, 4구간(514):100~150m, 5구간(515):150m 이후로 구분할 수 있으나 한 구간의 거리나 분할 구간의 개수는 감지 및 작업의 효율에 따라 조정가능하다.
The section detection 510 detects the moving object by a predetermined distance so as to detect the moving object for each section in the range detected in the image. In one embodiment of the present invention 1 section (511): 20m before, 2 sections (512): 20 ~ 50m, 3 sections (513): 50 ~ 100m, 4 sections (514): 100 ~ 150m, 5 sections (515) ): It can be classified after 150m, but the distance of one section or the number of division sections can be adjusted according to the efficiency of sensing and work.

이후, 각 구간별로 차량 판단(520), 사람 판단(530) 과정을 거쳐 차량 인식(521) 또는 사람 인식(531)을 하게된다.Thereafter, the vehicle recognition 521 or the person recognition 531 is performed through the vehicle determination 520 and the person determination 530 for each section.

한편, 객체의 구분 및 겹침검출을 위해서는 일정거리 및 객체의 종류에 따른 객체의 높이 수치와 폭 수치를 포함하는 크기 정보 데이터가 미리 저장되어 있는 것이 바람직하며 이에관한 실시예는 [표 1]과 같다.
Meanwhile, in order to classify and detect overlapping objects, size information data including height values and width values of objects according to a certain distance and object type are preferably stored in advance, and embodiments thereof are shown in Table 1 below. .

거리 및 차량 종류에 따른 크기 [ 단위 : 픽셀(Pixel) ]Size according to distance and vehicle type [Unit: Pixel]

Figure 112011094687853-pat00001
Figure 112011094687853-pat00001

본 발명의 일 실시예로 [표 1]은 차량, 사람을 검출할 객체로 하고, 차량은 크기별로 다시 CAR, SUV, TRUCK 의 종류로 구분되며, 각 객체는 카메라에서 멀어질수록 영상에서 보여지는 크기 역시 줄어들게 되므로 일정거리마다([표 1]에서는 10m 간격) 달라지는 가로 수치(W:Wide) 및 세로 수치(H:Height) 데이터를 포함하는 것이 바람직하다. (참고로, 가로 및 세로 수치의 단위는 1280 X 780 p 화면의 픽셀(Pixel) 단위이다.) 또한, 거리의 최소값(0m)은 영상에서 일부분만 나타난 객체의 전체 외형이 최초로 모두 표시되었을 때의 좌표를 기준으로 하는 것이 바람직하다. 즉, 본 발명에서는 카메라를 통하여 촬영되는 복수개의 객체(차량, 사람 등의 물체)를 촬영 거리 구간별로 세분화하여 사각형으로 레이블링화하고 이렇게 레이블링된 객체의 가로 및 세로 비율 정보(이하, 모델링 정보)를 모두 저장한 다음 카메라 영상을 통해 촬영한 이동객체와 비교 판단하는 시스템이다.
As an embodiment of the present invention [Table 1] is a vehicle, the object to detect people, the vehicle is again divided by the type of CAR, SUV, TRUCK by the size, each object is shown in the image farther away from the camera Since the size is also reduced, it is preferable to include the horizontal (W: Wide) and vertical (H: Height) data that vary with each distance (10 m interval in [Table 1]). (Note that the horizontal and vertical values are in pixels on a 1280 x 780 p screen.) In addition, the minimum value of the distance (0m) is the first time the entire appearance of an object that is only partially visible in the image is displayed. It is preferable to refer to the coordinates. That is, in the present invention, a plurality of objects (objects such as a vehicle and a person) photographed through a camera are divided into photographing distance sections and labeled as rectangles, and the horizontal and vertical ratio information (hereinafter, modeling information) of the labeled objects is labeled. It is a system that saves all and compares them with moving objects captured by camera images.

이러한 구성에 따른 객체구분방법은 아래와 같다.Object classification method according to this configuration is as follows.

영상에서 객체가 검출되면 레이블링단계(400)에서 이동객체의 외곽을 따라 사각형의 프레임으로 레이블링을 한 뒤, 객체구분단계(500)에서 레이블링의 폭 수치 대 높이 수치 비율의 범위에 따라 이동객체의 종류를 구분한다.If an object is detected in the image, the labeling step is performed by labeling a rectangular frame along the outer edge of the moving object in the labeling step 400, and then, in the object classification step 500, the type of the moving object according to the range of the width-to-height value ratio of the labeling. Separate.

이때, 객체의 종류를 구분하기 위해서 우선, [표 1]처럼 저장된 객체의 크기 정보를 바탕으로 가로, 세로 비율을 계산하여 저장시킨다. 가로 대 세로 수치의 비율인 경우를 식으로 나타내면, "비율 = 세로 / 가로" 가 되며, 계산된 비율의 범위에 따라 객체를 구분하여 인식한다. At this time, in order to distinguish the types of objects, first, the horizontal and vertical ratios are calculated and stored based on the size information of the stored objects as shown in [Table 1]. When the ratio of the horizontal to vertical values is expressed as an expression, "ratio = vertical / horizontal" becomes, and objects are recognized according to the calculated ratio range.

만약, 그 비율이 0.7 이상 1.2 미만인 경우 상기 이동객체는 낙하물로 인식하고, 상기 비율이 1.2 이상 2 미만인 경우 상기 이동객체는 차량으로 인식하고, 상기 비율이 2 이상 5 미만인 경우 상기 이동객체는 사람으로 인식하는 것이다.If the ratio is 0.7 or more and less than 1.2, the moving object is recognized as a falling object. If the ratio is 1.2 or more and less than 2, the moving object is recognized as a vehicle. When the ratio is 2 or more and less than 5, the moving object is a person. To recognize.

이렇게 크기를 비교하여 객체의 겹침을 검출해내는 과정과 비율을 판단하여 객체의 종류를 구분하는 과정은 상기에서 언급한 1구간(411) ~ 5구간(415) 에 걸쳐 각 구간마다 반복되어 진행된다.The process of detecting overlaps of objects by comparing the sizes and determining the types of objects by judging the proportions are repeated for each section over the above-described sections 1 to 5 and 415. .

예컨대, 2구간(512):20~50m에서 이동객체가 검출되면 객체를 레이블링하고, 레이블링된 객체의 가로가 105 픽셀, 세로가 98 픽셀이면 2구간 중에서도 대략 30m 지점에 객체가 있다는 것을 알 수 있다. 또한, 앞서 언급한 식에 따라 가로 세로 비율을 계산하면 98 / 105 = 0.93 으로, 비율이 0.7 이상 1.2 미만에 속하므로, 이동객체는 차량이며, 차량 중에서도 SUV 임을 알 수 있다.For example, if a moving object is detected in 2 sections 512: 20-50m, the object is labeled, and if the width of the labeled object is 105 pixels wide and 98 pixels long, it can be seen that the object is located approximately 30m among the 2 sections. . In addition, if the aspect ratio is calculated according to the above-mentioned formula, the ratio is 98/105 = 0.93, and since the ratio belongs to 0.7 or more and less than 1.2, it can be seen that the moving object is a vehicle and SUV among the vehicles.

한편, 감지 영역에서 0m 지점과 150m 지점은 객체의 추적이 시작되거나 끝나는 영역이며, 이 두 영역 밖으로 벗어나는 경우 객체가 감지 영역을 벗어나는 경우가 되며 이에 관한 정보는 이전 프레임에서 객체 위치 및 크기 정보를 이용하여 알 수 있다.
On the other hand, the 0m and 150m points in the detection area are the areas where the tracking of the object starts or ends, and if it is out of these two areas, the object leaves the detection area. You can find out.

이동객체의 종류를 구분한 후에는 겹침검출단계(600)를 추가적으로 실행할 수 있다. 겹침검출단계(600)에서는 현재 프레임 영상의 레이블링 비율과 이전 프레임 영상의 레이블링 비율을 비교하여 두 비율이 서로 다르면 상기 이동객체의 겹침이 발생한 것으로 판단한다.After classifying the types of moving objects, the overlap detection step 600 may be additionally performed. In the overlap detection step 600, the labeling ratio of the current frame image is compared with the labeling ratio of the previous frame image.

도 4는 본 발명의 일 실시예에 따른 겹침검출을 나타낸 개념도이다. 도 4에 도시된 바와 같이, 겹침검출단계(600)에서는 이동객체의 개별적인 검출이 이루어졌다가 이후에 객체겹침이 발생하는 경우와 처음부터 객체겹침이 발생했다가 이후에 객체의 이동으로 객체가 개별적으로 분리되어 객체겹침이 해체 경우에서 모두 객체를 겹침을 검출해내어 강인한 추적이 가능하게 된다.4 is a conceptual diagram illustrating overlap detection according to an embodiment of the present invention. As shown in FIG. 4, in the overlap detection step 600, individual detection of moving objects is performed, and then object overlap occurs after the object overlap occurs, and object overlap occurs after the movement of the object. When the object overlap is separated, the object is overlapped to detect the overlap and robust tracking is possible.

예컨대, 이전 프레임의 레이블링 비율이 0.93 였는데 현재 프레임의 레이블링 비율이 0.5 라면, 각 프레임의 레이블링 비율이 다르고 [표 1]을 참조했을 때 이전 프레임의 레이블링 비율만 [표 1]과 일치하는 비율(가로 105, 세로 98 경우)이 존재하므로 이전 프레임의 비율은 그 비율이 검지영역 내에서 이동객체가 검출되었다가 다른 객체의 이동으로 인하여 겹쳐지는 경우라고 해석할 수 있다. 이와 반대의 경우로, 이전 프레임의 레이블링 비율이 0.5 였는데 현재 프레임의 레이블링 비율이 0.93이라면, 각 프레임의 레이블링 비율이 다르고 [표 1]을 참조했을 때 현재 프레임의 레이블링 비율만 [표 1]과 일치하는 비율이 존재하므로 검지영역 내에서 처음부터 여러 개의 객체가 겹쳐져있다가 각각의 객체의 이동으로 인해 겹침이 해제된 경우라고 해석할 수 있다.
즉, 본 발명의 경우, 적어도 하나 이상의 상기 이동객체의 종류를 구분하는 단계 후, 상기 이동객체가 포함되는 현재 프레임 영상에 포함된 이동객체의 가로 및 세로 레이블링 비율(제 1 비율이라 함)과 이전 프레임 영상에 포함된 상기 이동객체의 가로 및 세로 레이블링 비율(제 2 비율이라 함)을 상호 비교하여, 상기 제 1 비율 또는 상기 제 2 비율중 적어도 어느 하나가 상기 모델링 정보와 일치하지 아니하는 경우 적어도 하나 이상의 상기 이동객체에 겹침 현상이 발생하였다는 것을 판단한다.
For example, if the labeling ratio of the previous frame was 0.93 and the labeling ratio of the current frame is 0.5, the labeling ratio of each frame is different, and when referring to [Table 1], only the labeling ratio of the previous frame matches [Table 1] (the horizontal width). 105, vertical 98), the ratio of the previous frame can be interpreted as the ratio of the overlapping due to the movement of another object when the moving object is detected in the detection area. On the contrary, if the labeling ratio of the previous frame was 0.5 and the labeling ratio of the current frame is 0.93, the labeling ratio of each frame is different and only the labeling ratio of the current frame matches [Table 1] when referring to [Table 1]. Since there is a ratio of multiple objects overlapping from the beginning within the detection area, it can be interpreted as the case where the overlapping is released due to the movement of each object.
That is, in the present invention, after the step of classifying at least one kind of the moving object, the horizontal and vertical labeling ratio of the moving object included in the current frame image including the moving object (referred to as the first ratio) and before When the horizontal and vertical labeling ratios (called a second ratio) of the moving object included in the frame image are compared with each other, at least one of the first ratio and the second ratio does not match the modeling information. It is determined that an overlapping phenomenon occurs in at least one of the moving objects.

도 5는 본 발명의 영상 감지 시스템의 객체겹침 검출 및 추적 방법의 일 실시예에 따른 실험결과이다.5 is an experimental result according to an embodiment of the object overlap detection and tracking method of the image detection system of the present invention.

참고로, 실험은 Intel Core2 Quad Q9300 2.5GHz CPU에서 Visual Studio 2010과 영상처리용 오픈소스 라이브러리인 OpenCV를 사용했으며, 1280 X 720p 영상을 바탕으로 본 발명의 영상 감지 시스템의 객체겹침 검출 및 추적 방법에 따른 알고리즘을 적용시켜 실험하였다. 실험결과는 CPU, SW 통합개발환경, 라이브러리, 영상규격 등에 따라 약간의 오차는 있을 수 있으나 유의한 차이를 내지는 않을 것이다.For reference, the experiment used Visual Studio 2010 and OpenCV, an open source library for image processing, on an Intel Core2 Quad Q9300 2.5GHz CPU, and based on the 1280 X 720p image, the object overlap detection and tracking method of the image detection system of the present invention. Experiments were performed by applying the algorithm according to the method. The test result may have some errors depending on CPU, SW integrated development environment, library, and image standard, but it will not make a significant difference.

도 5에 알 수 있듯이, 터널 내 설치되어 있는 카메라를 통해 출력되는 영상, 즉, 원본영상(700)에서는 화면의 우측편에 차량 3대가 지나가고 있음을 관찰할 수 있으며, 본 발명을 적용시킨 결과영상(710)에서는 이를 각각의 차량으로 모두 검출해내어 레이블링 하고 이를 추적함을 확인할 수 있다.
As can be seen in Figure 5, the image output through the camera installed in the tunnel, that is, the original image 700, it can be observed that three vehicles are passing on the right side of the screen, the resultant image to which the present invention is applied In 710, it can be detected that all of the vehicles are detected, labeled, and tracked.

이처럼, 본 발명을 통하여 영상에서 검출된 이동객체를 레이블링하고, 레이블링의 가로, 세로 비율범위를 판단함으로써 이동객체의 종류를 구분해낼 수 있어 터널 유고상황 시에도 신속하게 대응할 수 있다. 또한, 현재 프레임 영상의 레이블링 비율과 이전 프레임 영상의 레이블링 비율을 비교하여 이동객체의 겹침을 검출해 낼 수 있어 강인한 추적을 수행할 수 있게 된다.
As described above, the present invention can label the moving objects detected in the image and determine the types of moving objects by determining the horizontal and vertical ratio ranges of the labeling, so that the moving objects can be quickly responded even when the tunnel is in a state of absence. In addition, by comparing the labeling ratio of the current frame image with the labeling ratio of the previous frame image, the overlapping of the moving object can be detected, thereby enabling robust tracking.

이상, 본 발명의 터널 유고 시스템의 객체 인식방법의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.
As mentioned above, although an embodiment of the object recognition method of the tunnel notice system of the present invention has been described, a person having ordinary knowledge in the relevant technical field is within the scope not departing from the spirit of the present invention described in the claims. The present invention may be variously modified and changed by adding, changing, deleting or adding the same, which will also be included within the scope of the present invention.

100 : 영상입력단계 200 : 객체후보검출단계
300 : 객체검출단계 400 : 레이블링단계
500 : 객체구분단계
510 : 구간별검출 511 : 1구간
512 : 2구간 513 : 3구간
514 : 4구간 515 : 5구간
520 : 차량 판단 521 : 차량 인식
530 : 사람 판단 531 : 사람 인식
600 : 겹침검출단계
700 : 원본영상 710 : 결과영상
100: image input step 200: object candidate detection step
300: object detection step 400: labeling step
500: object classification step
510: Detection by section 511: 1 section
512: 2 sections 513: 3 sections
514: 4 sections 515: 5 sections
520: vehicle determination 521: vehicle recognition
530: people judgment 531: people recognition
600: overlap detection step
700: Original video 710: Result video

Claims (5)

카메라를 통하여 촬영되는 복수개의 객체를 촬영 거리 구간별로 세분화하여 사각형으로 레이블링화하고 이렇게 레이블링된 객체의 가로 및 세로 비율 정보(이하, 모델링 정보)를 모두 저장한 다음 상기 카메라 영상을 통해 이동객체를 검출하는 터널 유고 시스템의 객체 인식방법으로서,
(a) 상기 카메라를 통하여 검출되는 적어도 하나 이상의 이동객체 각각의 외각을 따라 사각형으로 레이블링하는 단계; 및
(b) 상기 (a) 단계에서 레이블링된 상기 하나 이상의 이동객체 각각의 가로, 세로 수치의 비율을 검출하여 상기 모델링 정보와 비교하여 상기 이동객체의 종류를 구분하는 단계를 포함하며,
적어도 하나 이상의 상기 이동객체의 종류를 구분하는 단계 후, 상기 이동객체가 포함되는 현재 프레임 영상에 포함된 이동객체의 가로 및 세로 레이블링 비율(제 1 비율)과 이전 프레임 영상에 포함된 상기 이동객체의 가로 및 세로 레이블링 비율(제 2 비율)을 상호 비교하여, 상기 제 1 비율 또는 상기 제 2 비율중 적어도 어느 하나가 상기 모델링 정보와 일치하지 아니하는 경우 적어도 하나 이상의 상기 이동객체에 겹침 현상이 발생하였다는 것을 판단하는 것을 특징으로 하는 터널 유고 시스템의 객체 인식방법.
A plurality of objects photographed through the camera are subdivided into photographing distance sections to be labeled with a rectangle, and all aspect ratio information (hereinafter, modeling information) of the labeled objects is stored, and then moving objects are detected through the camera image. As an object recognition method of tunnel notice system,
(a) labeling a rectangle along an outer edge of each of at least one moving object detected by the camera; And
(b) detecting a ratio of the horizontal and vertical values of each of the one or more moving objects labeled in step (a), and classifying the type of the moving object by comparing with the modeling information;
After classifying at least one kind of the moving object, a horizontal and vertical labeling ratio (first ratio) of the moving object included in the current frame image including the moving object and the moving object included in the previous frame image; When the horizontal and vertical labeling ratios (second ratios) are compared with each other, when at least one of the first ratio and the second ratios does not coincide with the modeling information, overlapping occurs in at least one or more of the moving objects. Object recognition method of the tunnel yugo system, characterized in that it is determined that.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020110125814A 2011-11-29 2011-11-29 Method of objects recognition for tunnel accident monitoring system KR101294498B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110125814A KR101294498B1 (en) 2011-11-29 2011-11-29 Method of objects recognition for tunnel accident monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110125814A KR101294498B1 (en) 2011-11-29 2011-11-29 Method of objects recognition for tunnel accident monitoring system

Publications (2)

Publication Number Publication Date
KR20130059700A KR20130059700A (en) 2013-06-07
KR101294498B1 true KR101294498B1 (en) 2013-08-07

Family

ID=48858473

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110125814A KR101294498B1 (en) 2011-11-29 2011-11-29 Method of objects recognition for tunnel accident monitoring system

Country Status (1)

Country Link
KR (1) KR101294498B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10614314B2 (en) 2016-06-30 2020-04-07 Kt Corporation Image summarization system and method
US10949675B2 (en) 2016-06-30 2021-03-16 Kt Corporation Image summarization system and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102201314B1 (en) 2014-12-29 2021-01-11 주식회사 만도 System and method for detecting a tunnel using front camera

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100920918B1 (en) * 2008-12-29 2009-10-12 주식회사 넥스파시스템 Object detection system and object detection method using codebook algorism

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100920918B1 (en) * 2008-12-29 2009-10-12 주식회사 넥스파시스템 Object detection system and object detection method using codebook algorism

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
이승수, 칼라 영상내의 객체 추출을 위한 분할 영역간의 관계성 분석 기법, 건국대학교 대학원 박사학위논문, 2005년 2월. *
이승수, 칼라 영상내의 객체 추출을 위한 분할 영역간의 관계성 분석 기법, 건국대학교 대학원 박사학위논문, 2005년 2월.*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10614314B2 (en) 2016-06-30 2020-04-07 Kt Corporation Image summarization system and method
US10949675B2 (en) 2016-06-30 2021-03-16 Kt Corporation Image summarization system and method

Also Published As

Publication number Publication date
KR20130059700A (en) 2013-06-07

Similar Documents

Publication Publication Date Title
US8902053B2 (en) Method and system for lane departure warning
KR101735365B1 (en) The robust object tracking method for environment change and detecting an object of interest in images based on learning
CN108021856B (en) Vehicle tail lamp identification method and device and vehicle
US8301577B2 (en) Intelligent monitoring system for establishing reliable background information in a complex image environment
KR20120083086A (en) Image survailance system and method for detecting left-behind/taken-away of the system
JPH08221577A (en) Device and method for detecting/extracting moving object
EP2951783B1 (en) Method and system for detecting moving objects
CN111626170B (en) Image recognition method for railway side slope falling stone intrusion detection
Fan et al. Robust foreground and abandonment analysis for large-scale abandoned object detection in complex surveillance videos
WO2023039781A1 (en) Method for detecting abandoned object, apparatus, electronic device, and storage medium
Nguyen et al. Real-time validation of vision-based over-height vehicle detection system
Delgado et al. Automatic detection of abnormal human events on train platforms
CN111696135A (en) Intersection ratio-based forbidden parking detection method
KR101294498B1 (en) Method of objects recognition for tunnel accident monitoring system
CN103793921B (en) Moving object extraction method and moving object extraction device
JP7125843B2 (en) Fault detection system
CN111425256B (en) Coal mine tunnel monitoring method and device and computer storage medium
Munajat et al. Vehicle detection and tracking based on corner and lines adjacent detection features
KR20150002040A (en) The way of Real-time Pedestrian Recognition and Tracking using Kalman Filter and Clustering Algorithm based on Cascade Method by HOG
Abdagic et al. Counting traffic using optical flow algorithm on video footage of a complex crossroad
Baek et al. Fast and reliable tracking algorithm for on-road vehicle detection systems
CN114882709A (en) Vehicle congestion detection method and device and computer storage medium
KR20070104999A (en) Moving vehicle tracking and parked vehicle extraction system and method for illegal-parking management
Lin et al. Crossroad traffic surveillance using superpixel tracking and vehicle trajectory analysis
Babu et al. Accident Detection through CCTV Surveillance

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160728

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee