KR102633938B1 - Method for crowd density estimation using cctv video and appartaus therefor - Google Patents

Method for crowd density estimation using cctv video and appartaus therefor Download PDF

Info

Publication number
KR102633938B1
KR102633938B1 KR1020230052611A KR20230052611A KR102633938B1 KR 102633938 B1 KR102633938 B1 KR 102633938B1 KR 1020230052611 A KR1020230052611 A KR 1020230052611A KR 20230052611 A KR20230052611 A KR 20230052611A KR 102633938 B1 KR102633938 B1 KR 102633938B1
Authority
KR
South Korea
Prior art keywords
adjacent
surveillance
people
density
distance
Prior art date
Application number
KR1020230052611A
Other languages
Korean (ko)
Inventor
최원근
Original Assignee
(주)와이드큐브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)와이드큐브 filed Critical (주)와이드큐브
Priority to KR1020230052611A priority Critical patent/KR102633938B1/en
Application granted granted Critical
Publication of KR102633938B1 publication Critical patent/KR102633938B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/005Alarm destination chosen according to a hierarchy of available destinations, e.g. if hospital does not answer send to police station
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 CCTV 영상을 활용하는 영상 분석 방법에 대한 것으로서, 보다 구체적으로는 CCTV 영상을 활용하여 군중의 밀집도를 계산하는 새로운 방법과 그러한 방법이 적용되는 장치에 대한 것이다. 본 발명의 일 실시예에 따른 영상 분석에 의한 군중 밀집도 계산 방법은, 사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 제1길이 및 사람과 사람 사이의 간격에 관련된 제2길이를 설정하는 단계, 촬영장치로부터 감시지역에 대한 감시영상을 획득하는 단계, 상기 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별하는 단계, 상기 객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득하는 단계, 상기 객체와 인접한 적어도 하나의 인접객체 사이의 거리를 상기 감시영상에 표시되는 크기에 기초하여 나타내는 제2측정치를 획득하는 단계, 상기 제1측정치와 상기 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산하는 단계, 상기 객체의 인접간격거리가 상기 제2길이 이하인 경우 상기 객체를 밀집 객체로 분류하는 단계, 및 상기 감시영상으로부터 식별되는 상기 밀집 객체의 수에 기반하여 상기 감시지역의 군중 밀집도를 계산하는 단계를 포함할 수 있다.The present invention relates to a video analysis method using CCTV images, and more specifically, to a new method of calculating crowd density using CCTV images and a device to which such a method is applied. The method for calculating crowd density by video analysis according to an embodiment of the present invention includes a first length related to at least one of the width, length, and height of a person's head and a second length related to the distance between people. Setting steps, obtaining surveillance images of the surveillance area from a photographing device, analyzing the surveillance images to identify at least one human head as an object, a step indicating the size at which the object is displayed in the surveillance images. Obtaining one measurement value, obtaining a second measurement value indicating the distance between the object and at least one adjacent object based on the size displayed in the surveillance image, the ratio between the first measurement value and the first length Calculating the adjacent distance of the object based on the second measurement value and the ratio, classifying the object as a dense object when the adjacent distance of the object is less than or equal to the second length, and It may include calculating the crowd density of the surveillance area based on the number of dense objects identified from the surveillance video.

Description

CCTV 영상을 활용한 군중 밀집도 계산 방법 및 장치{METHOD FOR CROWD DENSITY ESTIMATION USING CCTV VIDEO AND APPARTAUS THEREFOR}Crowd density calculation method and device using CCTV video {METHOD FOR CROWD DENSITY ESTIMATION USING CCTV VIDEO AND APPARTAUS THEREFOR}

본 발명은 CCTV 영상을 활용하는 영상 분석 방법에 대한 것으로서, 보다 구체적으로는 CCTV 영상을 활용하여 군중의 밀집도를 계산하는 새로운 방법과 그러한 방법이 적용되는 장치에 대한 것이다.The present invention relates to a video analysis method using CCTV images, and more specifically, to a new method of calculating crowd density using CCTV images and a device to which such a method is applied.

CCTV는 보안 및 치안의 유지를 목적으로 하는 감시 시스템으로, 민간과 공공의 다양한 영역에서 설치 및 운용되고 있다. 특히 최근에는 범죄 예방, 교통 안전, 재난 대응 등을 목적으로 하는 공공 목적의 CCTV 시스템이 다수 도입되고 있다. 이러한 목적 달성을 위하여, CCTV를 이용하여 획득된 감시영상을 토대로 하는 다양한 영상분석 기법들이 제안되어 있다. 이러한 영상분석 기법들은 상기 감시영상으로부터 감시 대상이 되는 현장에 대한 위험 요소를 자동으로 파악하여 적절한 안전 조치를 취하는 등의 목적으로 활용되고 있다.CCTV is a surveillance system aimed at maintaining security and public order, and is installed and operated in various private and public areas. In particular, many public CCTV systems have been introduced recently for the purposes of crime prevention, traffic safety, and disaster response. To achieve this goal, various video analysis techniques based on surveillance video acquired using CCTV have been proposed. These video analysis techniques are used for the purpose of automatically identifying risk factors for the site being monitored from the surveillance video and taking appropriate safety measures.

상기 위험 요소에는 군중의 과밀로 인한 예기치 못한 사고의 발생 가능성이 포함될 수 있다. 국내외의 여러 불행한 사고 사례로부터, 제한된 공간에 인파가 지나치게 밀집되는 상황이 발생하는 경우 조기에 대응하지 못하면 시민의 생명과 안전에 중대한 위해가 가해지는 사고 상황으로 이어질 수 있음을 알 수 있다.These risk factors may include the possibility of unexpected accidents due to overcrowding. From many unfortunate accident cases at home and abroad, it can be seen that failure to respond early when a situation where too much crowding of people occurs in a limited space can lead to an accident situation that poses a serious risk to the lives and safety of citizens.

종래에 CCTV를 이용하여 이러한 군중의 과밀 상황을 판단하기 위해서는 감시영상에 촬영되는 감시 대상 영역에 대한 실측이 필요하였다. 예를 들어, 감시영상에 촬영된 특정한 공간의 면적이 수평 단위 면적인 것으로 사전에 조정한 다음, 해당 공간에 소정 수 이상의 사람이 검출되면 과밀 상태로 보는 방법이 있었다. 이러한 종래기술은 이른바 "제곱미터당 인원수"와 같이 사람이 인식하기 쉬운 단위로 인파를 탐지하는 데 일부 유용할 수 있으나, 카메라마다 사전 보정이 필요하고, 촬영 각도나 배경 환경에 변화가 발생하는 경우 대응이 어렵다는 문제가 있다.Conventionally, in order to determine such crowd overcrowding using CCTV, actual measurements of the surveillance target area captured in the surveillance video were required. For example, there was a method in which the area of a specific space captured in surveillance video was adjusted in advance to be a horizontal unit area, and then if more than a certain number of people were detected in the space, it was considered overcrowded. This prior art may be partially useful in detecting crowds in units that are easy for humans to recognize, such as the so-called “number of people per square meter,” but each camera requires pre-calibration and responds when changes occur in the shooting angle or background environment. There is a difficult problem.

또 다른 종래의 기술로는 인공지능을 이용한 영상 분석을 이용하여 개별적 사람을 식별해 내고 그 사람의 3차원적 위치 정보를 역산함으로써 결론적으로 군중의 과밀 여부를 판단하는 데 사용되는 기술이 존재하였다. 이러한 방식은 상술한 종래기술과는 달리 카메라에 대한 사전 보정의 필요성이 다소 낮을 수 있다. 그러나, 반면에, 이러한 기술을 활용하는 경우 사람의 위치를 역산하는 과정에 상당한 연산 자원을 소요하므로, 고도의 인공지능과 이를 뒷받침하는 정보처리장치가 필요하게 된다. 이러한 고도의 시스템을 기존에 광범위하게 설치된 CCTV 시스템에 새로이 결합하는 데에는 상당한 시일과 자원이 요구될 것이다.Another conventional technology was to use image analysis using artificial intelligence to identify individual people and calculate the person's three-dimensional location information to ultimately determine whether the crowd was overcrowded. This method, unlike the prior art described above, may require somewhat less prior calibration of the camera. However, on the other hand, when using this technology, the process of recalculating a person's location requires significant computational resources, so advanced artificial intelligence and information processing equipment to support it are required. It will require significant time and resources to integrate such a sophisticated system into an existing, widely installed CCTV system.

본 발명은 상술한 종래기술의 한계를 극복하기 위한 것으로, 비교적 단순한 사람 인식 방법만으로도 사전에 카메라의 보정이 없이 군중의 밀집도를 계산할 수 있는 방법을 제공하는 것을 과제로 한다.The present invention is intended to overcome the limitations of the prior art described above, and its object is to provide a method that can calculate crowd density without prior camera correction using a relatively simple person recognition method.

상술한 기술적 과제의 해결을 위한 본 발명의 일 실시예에 따른 영상 분석에 의한 군중 밀집도 계산 방법은, 사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 제1길이 및 사람과 사람 사이의 간격에 관련된 제2길이를 설정하는 단계, 촬영장치로부터 감시지역에 대한 감시영상을 획득하는 단계, 상기 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별하는 단계, 상기 객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득하는 단계, 상기 객체와 인접한 적어도 하나의 인접객체 사이의 거리를 상기 감시영상에 표시되는 크기에 기초하여 나타내는 제2측정치를 획득하는 단계, 상기 제1측정치와 상기 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산하는 단계, 상기 객체의 인접간격거리가 상기 제2길이 이하인 경우 상기 객체를 밀집 객체로 분류하는 단계, 및 상기 감시영상으로부터 식별되는 상기 밀집 객체의 수에 기반하여 상기 감시지역의 군중 밀집도를 계산하는 단계를 포함할 수 있다.A method of calculating crowd density by video analysis according to an embodiment of the present invention for solving the above-described technical problem includes a first length related to at least one of the width, length, and height of a person's head, and a distance between people. Setting a second length related to the interval of, Obtaining a surveillance image of the surveillance area from a photographing device, Analyzing the surveillance image to identify at least one human head as an object, Wherein the object is the surveillance image Obtaining a first measurement value representing the size displayed in the image, obtaining a second measurement value representing the distance between the object and at least one adjacent object based on the size displayed in the surveillance image, the first measurement value representing the distance between the object and at least one adjacent object based on the size displayed in the surveillance image Calculating a ratio between a measurement value and the first length, and calculating an adjacent spacing distance of the object based on the second measurement value and the ratio, crowding the object when the adjacent spacing distance of the object is less than or equal to the second length. It may include classifying objects as objects, and calculating crowd density in the surveillance area based on the number of dense objects identified from the surveillance video.

상기 방법은, 군중의 밀집도와 관련된 제1기준인원수를 설정하는 단계, 상기 밀집 객체의 수가 상기 제1기준인원수 이상인 경우, 상기 군중 밀집도가 제1 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 제1 경고 정보를 생성하는 단계, 및 상기 제1 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하는 단계를 더 포함할 수 있다.The method includes setting a first reference number of people related to the density of the crowd, if the number of dense objects is greater than or equal to the first reference number of people, determining that the crowd density is greater than or equal to the first standard density, and determining a first standard number of people for the surveillance area. 1. The method may further include generating warning information, and transmitting the first warning information using at least one of display, voice, vibration, light, text, and communication.

상기 방법은, 군중의 밀집도와 관련되고, 상기 제1기준인원수보다 많은 제2기준인원수를 설정하는 단계, 상기 밀집 객체의 수가 상기 제2기준인원수 이상인 경우, 상기 군중 밀집도가 제2 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 제2 경고 정보를 생성하는 단계, 및 상기 제2 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하는 단계를 더 포함하고, 상기 제1 경고 정보와 상기 제2 경고 정보는 상이할 수 있다.The method is related to the density of the crowd and sets a second standard number of people that is greater than the first standard number of people. When the number of dense objects is greater than the second standard number of people, the crowd density is determined to be greater than or equal to the second standard density. Determining and generating second warning information for the surveillance area, and transmitting the second warning information in at least one of display, voice, vibration, light, text, and communication, The first warning information and the second warning information may be different.

상기 제1 경고 정보를 송출하는 단계는, 상기 제1 경고 정보를 상기 감시지역에 위치한 적어도 한 명의 사람에게 송출하는 단계를 포함할 수 있다.The step of transmitting the first warning information may include transmitting the first warning information to at least one person located in the surveillance area.

상기 제1 경고 정보를 송출하는 단계는, 상기 제1 경고 정보를 상기 감시지역의 관리자, 상기 촬영장치의 관리자, 및 상기 감시지역의 안전관리자 중 적어도 한 명에게 송출하는 단계를 포함할 수 있다.The step of transmitting the first warning information may include transmitting the first warning information to at least one of a manager of the surveillance area, a manager of the imaging device, and a safety manager of the surveillance area.

상기 경고 정보를 송출하는 단계는, 상기 제1 경고 정보를 상기 감시지역에 관련된 민간 또는 공공의 관리단체, 경찰기관, 소방기관, 군기관, 중앙행정기관, 및 지방행정기관 중 적어도 한 곳에 송출하는 단계를 포함할 수 있다.The step of transmitting the warning information includes transmitting the first warning information to at least one of a private or public management organization, police agency, fire agency, military agency, central administrative agency, and local administrative agency related to the surveillance area. May include steps.

상기 방법은, 군중의 밀집도와 관련된 제3기준인원수를 설정하는 단계를 더 포함하고, 상기 군중 밀집도를 계산하는 단계는, 상기 감시영상에서 식별되는 객체의 수가 상기 제3기준인원수 이하인 경우, 상기 밀집 객체의 수와 무관하게 상기 군중 밀집도가 제3 기준 밀집도 이하인 것으로 판단하는 단계를 포함할 수 있다.The method further includes the step of setting a third standard number of people related to the density of the crowd, and the step of calculating the crowd density is performed when the number of objects identified in the surveillance video is less than or equal to the third standard number of people. It may include determining that the crowd density is less than or equal to the third standard density regardless of the number of objects.

상기 감시영상은 픽셀(pixel) 정보에 의하여 표현되는 영상이고, 상기 제1측정치는 상기 객체가 상기 표시영상에서 차지하는 픽셀의 개수에 기반하여 획득되고, 상기 제2측정치는 상기 객체와 상기 인접객체 사이에 존재하는 픽셀의 개수에 기반하여 획득될 수 있다.The surveillance image is an image expressed by pixel information, the first measurement value is obtained based on the number of pixels that the object occupies in the display image, and the second measurement value is between the object and the adjacent object. It can be obtained based on the number of pixels present in .

상기 방법은, 상기 인접객체가 상기 감시영상에 표시되는 크기를 나타내는 제3측정치를 획득하는 단계를 더 포함하고, 상기 인접간격거리를 계산하는 단계는, 상기 제1측정치와 제3측정치의 비율에 기반하여 상기 제2측정치를 보정하는 단계를 포함할 수 있다.The method further includes the step of obtaining a third measurement value indicating the size at which the adjacent object is displayed in the surveillance image, and the step of calculating the adjacent interval distance is based on the ratio of the first measurement value and the third measurement value. It may include correcting the second measurement value based on the second measurement value.

상기 방법은, 상기 인접간격거리의 계산에 포함할 인접객체의 수를 나타내는 제4기준인원수를 설정하는 단계를 더 포함하고, 상기 인접간격거리를 계산하는 단계는, 상기 객체에 인접한 상기 제4기준인원수의 인접객체를 지정하고, 상기 객체로부터 상기 각각의 인접객체에 대한 개별 인접간격거리를 계산하고, 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 단계를 포함하고, 상기 평균은 산술 평균, 기하 평균, 조화 평균, 가중 평균, 중앙값, 최빈수, 및 멱평균에 속하는 평균법 중 어느 하나에 의하여 도출될 수 있다.The method further includes the step of setting a fourth standard number of people indicating the number of adjacent objects to be included in the calculation of the adjacent spacing distance, and the step of calculating the adjacent spacing distance includes the fourth standard adjacent to the object. Specifying a number of adjacent objects, calculating an individual adjacent distance for each adjacent object from the object, and calculating the adjacent distance based on an average of the individual adjacent distances, and calculating the average of the adjacent objects. Can be derived by any one of the average methods belonging to the arithmetic mean, geometric mean, harmonic mean, weighted mean, median, mode, and power mean.

상기 인접간격거리를 계산하는 단계는, 상기 감시영상에서 상기 객체와 수평위치가 중첩되는 다른 객체들에 대하여 상기 객체로부터의 개별 제2측정치를 획득하고, 상기 객체와의 제2측정치가 가장 작은 상기 제4기준인원수의 인접객체를 지정하고, 상기 개별 제2측정치로부터 상기 각각의 인접객체에 대한 개별 인접간격거리를 계산하고, 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 단계를 포함할 수 있다.The step of calculating the adjacent spacing distance includes obtaining individual second measurement values from the object with respect to other objects whose horizontal positions overlap with the object in the surveillance image, and determining the second measurement value with the smallest second measurement value with respect to the object. Specifying a fourth standard number of adjacent objects, calculating an individual adjacent spacing distance for each adjacent object from the individual second measurement value, and calculating the adjacent spacing distance based on the average of the individual adjacent spacing distances. may include.

상기 인접간격거리를 계산하는 단계는, 상기 객체로부터 상기 감시영상에서 식별된 적어도 하나의 다른 객체에 대한 개별 제2측정치를 획득하고, 상기 개별 제2측정치로부터 상기 각각의 다른 객체에 대한 개별 인접간격거리를 계산하고, 상기 객체와의 개별 인접간격거리가 가장 작은 상기 제4기준인원수의 인접객체를 지정하고, 상기 각각의 인접개체에 대한 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 단계를 포함할 수 있다.The step of calculating the adjacent interval distance includes obtaining an individual second measurement value from the object to at least one other object identified in the surveillance video, and obtaining an individual adjacent interval for each other object from the individual second measurement value. Calculate the distance, designate the fourth standard number of adjacent objects with the smallest individual adjacent distance to the object, and determine the adjacent object based on the average of the individual adjacent distances for each adjacent object. It may include a calculating step.

상술한 기술적 과제의 해결을 위한 본 발명의 일 실시예에 따른 영상 분석에 의하여 군중 밀집도를 계산하는 장치는, 메모리, 상기 메모리에 연결된 적어도 하나의 프로세서, 및 감시지역에 대한 감시영상을 획득하는 촬영부를 포함하고, 상기 메모리는, 사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 제1길이, 및 사람과 사람 사이의 간격에 관련된 제2길이를 저장하고, 상기 프로세서는, 상기 촬영장치로부터 감시영상을 획득하는 영상수집부, 상기 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별하는 객체추출부, 그리고 상기 객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득하고, 상기 객체와 인접한 적어도 하나의 인접객체 사이의 거리를 상기 감시영상에 표시되는 크기에 기초하여 나타내는 제2측정치를 획득하고, 상기 제1측정치와 상기 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산하고, 상기 객체의 인접간격거리가 상기 제2길이 이하인 경우 상기 객체를 밀집 객체로 분류하고, 상기 감시영상으로부터 식별되는 상기 밀집 객체의 수에 기반하여 상기 감시지역의 군중 밀집도를 계산하는 군중 밀집도 계산부를 포함할 수 있다.A device for calculating crowd density by video analysis according to an embodiment of the present invention for solving the above-described technical problem includes a memory, at least one processor connected to the memory, and a shooting device for acquiring surveillance images of a surveillance area. and a unit, wherein the memory stores a first length related to at least one of the width, length, and height of the person's head, and a second length related to the distance between the people, and the processor stores the image. An image collection unit that acquires surveillance images from a device, an object extraction unit that analyzes the surveillance images to identify at least one human head as an object, and obtains a first measurement value indicating the size at which the object is displayed in the surveillance images. and obtain a second measurement value representing the distance between the object and at least one adjacent object based on the size displayed in the surveillance image, calculate the ratio between the first measurement value and the first length, and calculate the ratio between the first measurement value and the first length. 2 Calculate the adjacent distance of the object based on the measurement value and the ratio, classify the object as a dense object if the adjacent distance of the object is less than the second length, and classify the object as a dense object identified from the surveillance image. It may include a crowd density calculation unit that calculates the crowd density of the surveillance area based on the number.

상기 메모리는, 군중의 밀집도와 관련된 제1기준인원수를 더 저장하고, 상기 프로세서는, 상기 밀집 객체의 수가 상기 제1기준인원수 이상인 경우, 상기 군중 밀집도가 제1 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 제1 경고 정보를 생성하는 경고판단부, 및 상기 제1 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하는 정보제공부를 더 포함할 수 있다.The memory further stores a first standard number of people related to crowd density, and the processor determines that the crowd density is greater than or equal to the first standard density when the number of dense objects is greater than or equal to the first standard number of people, and the monitoring It may further include a warning determination unit that generates first warning information for the area, and an information providing unit that transmits the first warning information by at least one method among display, voice, vibration, light, text, and communication.

상기 메모리는, 군중의 밀집도와 관련되고, 상기 제1기준인원수보다 많은 제2기준인원수를 더 저장하고, 상기 경고판단부는, 상기 밀집 객체의 수가 상기 제2기준인원수 이상인 경우, 상기 군중 밀집도가 제2 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 제2 경고 정보를 생성하도록 구성되고, 상기 정보제공부는, 상기 제2 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하도록 구성되고, 상기 제1 경고 정보와 상기 제2 경고 정보는 상이할 수 있다.The memory is related to the density of the crowd and further stores a second standard number of people that is greater than the first standard number of people, and the warning judgment unit is configured to determine if the crowd density is greater than the second standard number of people. 2, and is configured to determine that the density is higher than the standard density and generate second warning information for the surveillance area, wherein the information provider displays the second warning information using at least one method of voice, vibration, light, text, and communication. It is configured to transmit, and the first warning information and the second warning information may be different.

상기 메모리는, 군중의 밀집도와 관련된 제3기준인원수를 더 저장하고, 상기 군중 밀집도 계산부는, 상기 감시영상에서 식별되는 객체의 수가 상기 제3기준인원수 이하인 경우, 상기 밀집 객체의 수와 무관하게 상기 군중 밀집도가 제3 기준 밀집도 이하인 것으로 판단하도록 구성될 수 있다.The memory further stores a third standard number of people related to the density of the crowd, and the crowd density calculation unit is configured to, when the number of objects identified in the surveillance video is less than the third standard number of people, regardless of the number of the crowd objects. It may be configured to determine that the crowd density is below the third standard density.

상기 감시영상은 픽셀(pixel) 정보에 의하여 표현되는 영상이고, 상기 군중 밀집도 계산부는, 상기 제1측정치를 상기 객체가 상기 표시영상에서 차지하는 픽셀의 개수에 기반하여 획득하고, 상기 제2측정치는 상기 객체와 상기 인접객체 사이에 존재하는 픽셀의 개수에 기반하여 획득하도록 구성될 수 있다.The surveillance image is an image expressed by pixel information, the crowd density calculation unit obtains the first measurement value based on the number of pixels that the object occupies in the display image, and the second measurement value is the It may be configured to obtain based on the number of pixels existing between an object and the adjacent object.

상기 군중 밀집도 계산부는, 상기 인접객체가 상기 감시영상에 표시되는 크기를 나타내는 제3측정치를 획득하고, 상기 제1측정치와 제3측정치의 비율에 기반하여 상기 제2측정치를 보정하고, 상기 보정된 제2측정치에 기반하여 상기 인접간격거리를 계산하도록 구성될 수 있다.The crowd density calculation unit obtains a third measurement value indicating the size of the adjacent object displayed in the surveillance video, corrects the second measurement value based on the ratio of the first measurement value and the third measurement value, and It may be configured to calculate the adjacent spacing distance based on the second measurement value.

상기 메모리는, 상기 인접간격거리의 계산에 포함할 인접객체의 수를 나타내는 제4기준인원수를 더 저장하고, 상기 군중 밀집도 계산부는, 상기 객체에 인접한 상기 제4기준인원수의 인접객체를 지정하고, 상기 객체로부터 상기 각각의 인접객체에 대한 개별 인접간격거리를 계산하고, 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하도록 구성되고, 상기 평균은 산술 평균, 기하 평균, 조화 평균, 가중 평균, 중앙값, 최빈수, 및 멱평균에 속하는 평균법 중 어느 하나에 의하여 도출될 수 있다.The memory further stores a fourth standard number of people indicating the number of adjacent objects to be included in the calculation of the adjacent spacing distance, and the crowd density calculation unit specifies an adjacent object of the fourth standard number of people adjacent to the object, configured to calculate an individual adjacent distance from the object to each adjacent object, and calculate the adjacent distance based on an average of the individual adjacent distances, wherein the average is an arithmetic mean, geometric mean, harmonic mean, It can be derived by any one of the weighted average, median, mode, and power average methods.

상기 프로세서는, 상기 메모리에 상기 장치를 동작시키는 기본 정보를 저장하는 기본정보부를 더 포함하고, 상기 기본정보부는, 상기 제1길이, 상기 제2길이, 군중의 밀집도와 관련된 제1기준인원수, 군중의 밀집도와 관련되고 상기 제1기준인원수보다 많은 제2기준인원수, 군중의 밀집도와 관련된 제3기준인원수, 및 상기 인접간격거리의 계산에 포함할 인접객체의 수를 나타내는 제4기준인원수 중 적어도 하나를 입력 받아 상기 메모리에 저장하도록 구성될 수 있다.The processor further includes a basic information unit storing basic information for operating the device in the memory, and the basic information unit includes the first length, the second length, a first reference number of people related to the density of the crowd, and the crowd. At least one of a second standard number of people related to the density of the crowd and greater than the first standard number of people, a third standard number of people related to the density of the crowd, and a fourth standard number indicating the number of adjacent objects to be included in the calculation of the adjacent spacing distance. It may be configured to receive input and store it in the memory.

본 발명에 의한 방법 및/또는 장치에 의하면, 상대적으로 단순한 알고리즘으로 영상을 분석하여도 군중의 밀집도에 대하여 비교적 정확한 판단을 내릴 수 있게 된다. 따라서, 기존의 CCTV 시스템에 손쉽게 추가되어 군중 밀집 상황을 감시하고 사전에 경고할 수 있는 기능을 제공하는 데 활용될 수 있다.According to the method and/or device according to the present invention, it is possible to make a relatively accurate judgment about the density of the crowd even by analyzing the image using a relatively simple algorithm. Therefore, it can be easily added to an existing CCTV system and used to monitor crowded situations and provide a function to warn in advance.

도 1은 본 발명의 일 실시예에 따른 CCTV 감시영상과 상기 감시영상에 기반한 상대적 길이의 추정에 관한 개념도,
도 2는 본 발명의 일 실시예에 의한 사람 간 인접간격거리의 도출을 나타내는 비율 관계의 개념도,
도 3은 본 발명의 일 실시예에 의한 사람 간 인접간격거리의 픽셀에 의한 표현을 나타내는 개념도,
도 4는 본 발명의 일 실시예에 따른 인접 객체 간의 인접간격거리 계산에 대한 개념도,
도 5는 본 발명의 일 실시예에 따른 인접 객체 간의 인접간격거리를 보정에 의해 계산하는 데 대한 개념도,
6은 본 발명의 일 실시예에 따른 감시영상으로부터 식별되는 밀집 객체의 수에 기반하여 감시지역의 군중 밀집도를 계산하는 방법에 대한 개념도,
도 7은 본 발명의 일 실시예에 따른 군중 밀집도 계산 방법을 활용하기 위한 환경설정 화면의 예시도,
도 8은 본 발명의 일 실시예에 따른 영상 분석에 의하여 군중 밀집도를 계산하는 장치 또는 그러한 장치를 포함하는 시스템을 구성하는 데 대한 개념도,
도 9는 본 발명의 바람직한 일 실시예에 의한 군중 밀집도 계산 및 정보 제공 시스템의 실시예에 대한 개념도, 그리고
도 10은 본 발명의 일 실시예에 따른 군중 밀집도 계산 방법를 요약하여 표시한 순서도이다.
1 is a conceptual diagram of CCTV surveillance video and estimation of relative length based on the surveillance video according to an embodiment of the present invention;
Figure 2 is a conceptual diagram of a ratio relationship showing the derivation of the adjacent distance between people according to an embodiment of the present invention;
Figure 3 is a conceptual diagram showing the pixel representation of the adjacent distance between people according to an embodiment of the present invention;
4 is a conceptual diagram of calculating the adjacent distance between adjacent objects according to an embodiment of the present invention;
Figure 5 is a conceptual diagram of calculating the adjacent distance between adjacent objects by correction according to an embodiment of the present invention;
6 is a conceptual diagram of a method for calculating crowd density in a surveillance area based on the number of dense objects identified from surveillance images according to an embodiment of the present invention;
Figure 7 is an example of an environment settings screen for utilizing the crowd density calculation method according to an embodiment of the present invention;
8 is a conceptual diagram of configuring a device for calculating crowd density by image analysis or a system including such a device according to an embodiment of the present invention;
Figure 9 is a conceptual diagram of an embodiment of a crowd density calculation and information provision system according to a preferred embodiment of the present invention, and
Figure 10 is a flowchart summarizing the crowd density calculation method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함하며, 또한, 달리 지시되지 않는 한 비배타적이다. 본 출원에 항목을 열거하는 경우 그것은 본 출원 발명의 사상과 가능한 실시 방법들을 용이하게 설명하기 위한 예시적 서술에 그치며, 따라서, 본 발명의 실시예 범위를 한정하는 의도를 가지지 아니한다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, the second component may be referred to as a first component without departing from the scope of the present invention. The term “and/or” includes any combination of a plurality of related stated items or any of a plurality of related stated items and, unless otherwise indicated, is non-exclusive. When items are listed in the present application, it is merely an exemplary description to easily explain the spirit and possible implementation methods of the invention of the present application, and therefore, it is not intended to limit the scope of the embodiments of the present invention.

본 명세서에서 "A 또는 B(A or B)"는 "오직 A", "오직 B" 또는 "A와 B 모두"를 의미할 수 있다. 달리 표현하면, 본 명세서에서 "A 또는 B(A or B)"는 "A 및/또는 B(A and/or B)"으로 해석될 수 있다. 예를 들어, 본 명세서에서 "A, B 또는 C(A, B or C)"는 "오직 A", "오직 B", "오직 C", 또는 "A, B 및 C의 임의의 모든 조합(any combination of A, B and C)"를 의미할 수 있다.As used herein, “A or B” may mean “only A,” “only B,” or “both A and B.” In other words, as used herein, “A or B” may be interpreted as “A and/or B.” For example, as used herein, “A, B or C” refers to “only A,” “only B,” “only C,” or “any and all combinations of A, B, and C ( It can mean “any combination of A, B and C)”.

본 명세서에서 사용되는 슬래쉬(/)나 쉼표(comma)는 "및/또는(and/or)"을 의미할 수 있다. 예를 들어, "A/B"는 "A 및/또는 B"를 의미할 수 있다. 이에 따라 "A/B"는 "오직 A", "오직 B", 또는 "A와 B 모두"를 의미할 수 있다. 예를 들어, "A, B, C"는 "A, B 또는 C"를 의미할 수 있다.The slash (/) or comma used in this specification may mean “and/or.” For example, “A/B” can mean “A and/or B.” Accordingly, “A/B” can mean “only A,” “only B,” or “both A and B.” For example, “A, B, C” can mean “A, B, or C.”

본 명세서에서 "적어도 하나의 A 및 B(at least one of A and B)"는, "오직 A", "오직 B" 또는 "A와 B 모두"를 의미할 수 있다. 또한, 본 명세서에서 "적어도 하나의 A 또는 B(at least one of A or B)"나 "적어도 하나의 A 및/또는 B(at least one of A and/or B)"라는 표현은 "적어도 하나의 A 및 B(at least one of A and B)"와 동일하게 해석될 수 있다. As used herein, “at least one of A and B” may mean “only A,” “only B,” or “both A and B.” In addition, in this specification, the expression "at least one of A or B" or "at least one of A and/or B" means "at least one It can be interpreted the same as "at least one of A and B".

또한, 본 명세서에서 "적어도 하나의 A, B 및 C(at least one of A, B and C)"는, "오직 A", "오직 B", "오직 C", 또는 "A, B 및 C의 임의의 모든 조합(any combination of A, B and C)"를 의미할 수 있다. 또한, "적어도 하나의 A, B 또는 C(at least one of A, B or C)"나 "적어도 하나의 A, B 및/또는 C(at least one of A, B and/or C)"는 "적어도 하나의 A, B 및 C(at least one of A, B and C)"를 의미할 수 있다.Additionally, as used herein, “at least one of A, B and C” means “only A”, “only B”, “only C”, or “A, B and C”. It can mean “any combination of A, B and C.” Also, “at least one of A, B or C” or “at least one of A, B and/or C” means It may mean “at least one of A, B and C.”

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 이용하여 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.

본 출원에서 발명을 설명함에 있어, 실시예들은 설명된 기능 또는 기능들을 수행하는 단위 블록들의 측면에서 설명되거나 예시될 수 있다. 상기 블록들이란 본 출원에서 하나 또는 복수의 장치, 유닛, 모듈, 부 등으로 표현될 수 있다. 상기 블록들은 하나 또는 복수의 논리 게이트, 집적 회로, 프로세서, 컨트롤러, 메모리, 전자 부품 또는 이에 한정되지 않는 정보처리 하드웨어의 구현 방법에 의하여 하드웨어적으로 실시될 수도 있다. 또는, 상기 블록들은 응용 소프트웨어, 운영 체제 소프트웨어, 펌웨어, 또는 이에 한정되지 않는 정보처리 소프트웨어의 구현 방법에 의하여 소프트웨어적으로 실시될 수도 있다. 하나의 블록은 동일한 기능을 수행하는 복수의 블록들로 분리되어 실시될 수도 있으며, 반대로 복수의 블록들의 기능을 동시에 수행하기 위한 하나의 블록이 실시될 수도 있다. 상기 블록들은 또한 임의의 기준에 의하여 물리적으로 분리되거나 결합되어 실시될 수 있다. 상기 블록들은 통신 네트워크, 인터넷, 클라우드 서비스, 또는 이에 한정되지 않는 통신 방법에 의해 물리적 위치가 특정되지 않고 서로 이격되어 있는 환경에서 동작하도록 실시될 수도 있다. 상기의 모든 실시 방법은 동일한 기술적 사상을 구현하기 위하여 정보통신 기술 분야에 익숙한 통상의 기술자가 취할 수 있는 다양한 실시예의 영역이므로, 여하의 상세한 구현 방법은 모두 본 출원상 발명의 기술적 사상 영역에 포함되는 것으로 해석되어야 한다.In describing the invention in this application, embodiments may be described or illustrated in terms of unit blocks that perform the described function or functions. In the present application, the blocks may be expressed as one or more devices, units, modules, units, etc. The blocks may be implemented in hardware using one or more logic gates, integrated circuits, processors, controllers, memories, electronic components, or information processing hardware implementation methods that are not limited thereto. Alternatively, the blocks may be implemented in software by an implementation method of application software, operating system software, firmware, or information processing software that is not limited thereto. One block may be implemented separately into a plurality of blocks that perform the same function, or conversely, one block may be implemented to simultaneously perform the functions of a plurality of blocks. The blocks may also be implemented physically separated or combined by any criteria. The blocks may be implemented to operate in an environment where their physical locations are not specified and are spaced apart from each other by a communication network, the Internet, a cloud service, or a communication method that is not limited thereto. All of the above implementation methods are within the scope of various embodiments that can be taken by a person skilled in the art of information and communication technology to implement the same technical idea, so any detailed implementation methods are all included in the technical idea scope of the invention in this application. It should be interpreted as

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. 또한 복수의 실시예들은 서로 배타적이 아니며, 일부 실시예들이 새로운 실시예들을 형성하기 위해 하나 이상의 다른 실시예들과 조합될 수 있음을 전제로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the attached drawings. In order to facilitate overall understanding when describing the present invention, the same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted. Additionally, it is assumed that the plurality of embodiments are not mutually exclusive, and that some embodiments may be combined with one or more other embodiments to form new embodiments.

본 발명의 일 실시예에 따른 영상 분석에 의한 군중 밀집도 계산 방법은, 사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 제1길이 및 사람과 사람 사이의 간격에 관련된 제2길이를 설정하고, 상기 제1길이와 상기 제2길이의 비교를 통하여 사람 간의 간격을 사람의 머리 크기에 대비한 상대적 방법으로 측정한 뒤, 그러한 상대적 측정값에 따라 사람의 밀집 정도를 계산하는 방법일 수 있다. 상기 방법은, 사람의 머리에는 사람에 따라 비교적 작은 오차 범위 내에서 일정한 평균 크기를 가지게 되므로, 사람의 머리로 식별되는 객체가 영상의 어떤 지점에 어떤 거리에서 수록되었는지와 무관하게, 해당 객체의 표시 크기로부터 실제 길이를 추정할 수 있다는 원리에 기반할 수 있다.The method for calculating crowd density by video analysis according to an embodiment of the present invention includes a first length related to at least one of the width, length, and height of a person's head and a second length related to the distance between people. It may be a method of measuring the distance between people by comparing the first length and the second length in a relative manner compared to the size of the person's head, and then calculating the degree of crowding of people according to the relative measurement value. there is. In the above method, since the human head has a constant average size within a relatively small error range depending on the person, the display of the object identified as the human head is performed regardless of where and at what distance the object is recorded in the image. It can be based on the principle that the actual length can be estimated from the size.

도 1은 본 발명의 일 실시예에 따른 CCTV 감시영상과 상기 감시영상에 기반한 상대적 길이의 추정에 관한 개념도이다. 상기 도 1의 감시영상(100)은 소정의 감시지역을 감시하도록 구성된 촬영장치로부터 획득된 것으로서, 예를 들면, 군중이 밀집할 우려가 있는 감시지역을 조망하는 CCTV 카메라로부터 획득된 현장 영상일 수 있으나, 이에 한정되는 것은 아니다.Figure 1 is a conceptual diagram of CCTV surveillance video and estimation of relative length based on the surveillance video according to an embodiment of the present invention. The surveillance image 100 of FIG. 1 is obtained from a photographing device configured to monitor a predetermined surveillance area. For example, it may be an on-site image obtained from a CCTV camera overlooking a surveillance area where crowds may be concentrated. However, it is not limited to this.

상기 감시영상(100)에는, 다양한 사람이 다양한 거리에서 다양한 크기로 촬영되어 있다. 이러한 영상으로부터 사람의 밀집된 정도를 측정하고자 하는 경우, 상기 촬영장치의 위치와 화각(華角) 등을 미리 설정하여 측정 거리에 대한 정보를 미리 구비하거나, 상기 거리와 무관하게 상기 사람의 공간적 위치를 비정(比定)할 수 있는 수단을 고려하여야 하였다. 그러나 본 발명의 일 실시예에 따르면, 상기 감시영상(100)의 분석에는 오직 사람의 머리를 객체로서 인식 및 식별하고, 상기 객체가 상기 감시영상에 표시되는 크기를 결정할 수 있는 영상처리 수단만이 활용되어도 좋다.In the surveillance video 100, various people are photographed in various sizes at various distances. When trying to measure the degree of crowding of people from such images, the position and angle of view of the photographing device must be set in advance to provide information on the measurement distance in advance, or the spatial location of the person can be measured regardless of the distance. Means that could be determined had to be taken into consideration. However, according to one embodiment of the present invention, in the analysis of the surveillance video 100, only an image processing means capable of recognizing and identifying the human head as an object and determining the size at which the object is displayed in the surveillance video is used. It may be used.

도 1에 예시된 것에 의하여 설명하면, 상기 감시영상(100)에서 제1인물(110)의 머리 크기가 제1표시길이(120)로 나타나고, 제2인물(112)의 머리 크기가 제2표시길이(122)로 나타나고, 제3인물(114)의 머리 크기가 제1표시길이(124)로 나타난다고 간주할 수 있다.As illustrated in FIG. 1, the head size of the first person 110 in the surveillance video 100 is displayed as the first display length 120, and the head size of the second person 112 is displayed as the second display length. It is displayed as a length (122), and the head size of the third person (114) can be considered to be displayed as a first displayed length (124).

상기 감시영상(100)이 복수의 픽셀(pixel)로 이루어진 비트맵(bitmap) 방식의 영상 프레임으로 획득되는 경우, 상기 제1, 제2, 제3인물(110, 112, 114)이 영상 분석 기법에 의하여 식별되고, 특히 상기 인물의 머리를 식별하는 경우, 상기 제1, 제2, 제3표시길이(120, 122, 124)는 소정의 픽셀 개수로 계산될 수 있다.When the surveillance video 100 is acquired as a bitmap video frame consisting of a plurality of pixels, the first, second, and third people 110, 112, and 114 use the video analysis technique. Identified by , and especially when identifying the head of the person, the first, second, and third display lengths 120, 122, and 124 may be calculated as a predetermined number of pixels.

이 때, 만약 사람의 평균적 머리 크기를 나타내게 되는 제1길이를 임의의 일정한 길이로 설정하면, 상기 감시영상(100)에서 식별된 사람의 머리의 크기가 대체로 동일하다고 간주하는 경우, 즉 제1인물(110), 제2인물(112), 및 제3인물(114)의 머리 크기 또한 동일하다고 간주하는 경우, 상기 제1, 제2, 및 제3표시길이(120, 122, 124)는 서로 다른 픽셀 개수로 계산되더라도 상기 제1길이인 것으로 간주될 수 있다. 따라서, 상기 제1, 제2, 및 제3표시길이(120, 122, 124)의 픽셀 수와 상기 제1길이 간에는 소정의 비율 관계가 계산되어 도출될 수 있게 된다.At this time, if the first length, which represents the average head size of a person, is set to an arbitrary constant length, the size of the head of the person identified in the surveillance video 100 is considered to be generally the same, that is, the first person If the head sizes of (110), the second person (112), and the third person (114) are also considered to be the same, the first, second, and third display lengths (120, 122, and 124) are different from each other. Even if it is calculated by the number of pixels, it can be considered to be the first length. Accordingly, a predetermined ratio relationship can be calculated and derived between the number of pixels of the first, second, and third display lengths 120, 122, and 124 and the first length.

상기와 같은 비율 관계의 계산에 의하여, 상기 감시영상에 나타나는 사람과 사람 간의 거리 또한 계산할 수 있다. 예를 들어, 제1인물(110)과 인접한 제3인물(114) 간의 거리를 구하고자 하는 경우, 상기 제1인물(110)의 머리 객체가 위치하는 픽셀과 상기 제3인물(114)의 머리 객체가 위치하는 픽셀 사이에 상기 객체들과 무관한 다른 픽셀의 수가 얼마나 존재하는지를 측정할 수 있다. 상기 무관한 픽셀의 개수를 거리표시길이(134)라 칭할 때, 상기 거리표시길이(134)로부터 앞서 상기 비율 관계에 의하여 상기 인물들 간의 실제 거리, 즉 사람 간의 인접간격거리가 계산될 수 있다.By calculating the ratio relationship as above, the distance between people appearing in the surveillance video can also be calculated. For example, when trying to find the distance between the first person 110 and the adjacent third person 114, the pixel where the head object of the first person 110 is located and the head of the third person 114 It is possible to measure how many other pixels unrelated to the objects exist between pixels where an object is located. When the number of irrelevant pixels is referred to as the distance display length 134, the actual distance between the people, that is, the adjacent distance between people, can be calculated from the distance display length 134 according to the ratio relationship.

도 2는 본 발명의 일 실시예에 의한 사람 간 인접간격거리의 도출을 나타내는 비율 관계의 개념도이다.Figure 2 is a conceptual diagram of a ratio relationship showing the derivation of the adjacent distance between people according to an embodiment of the present invention.

이상적 설명을 위하여, 어떠한 감시영상에서 동일한 수평선 상에 위치한 세 명의 인물이 있다고 가정한다. 이를 각각 제1인물(210), 제2인물(212), 및 제3인물(214)로 가칭한다. 상기 제1, 제2, 및 제3인물(210, 212, 214)은 각각 제1머리객체, 제2머리객체, 및 제3머리객체(210-1, 212-1, 214-1)을 포함하는 방식으로 상기 감시영상으로부터 영상 분석에 의하여 식별될 수 있다.For an ideal explanation, assume that there are three people located on the same horizon in a surveillance video. These are tentatively named the first person 210, the second person 212, and the third person 214, respectively. The first, second, and third people (210, 212, 214) include the first head object, the second head object, and the third head object (210-1, 212-1, and 214-1), respectively. It can be identified through video analysis from the surveillance video in this way.

상기 감시영상에서, 상기 제1머리객체(210-1)가 제1표시길이(220)로 나타나고, 상기 제2머리객체(212-1)가 제2표시길이(222)로 나타나고, 상기 제3머리객체(214-1)가 제1표시길이(224)로 나타난다고 가정한다.In the surveillance video, the first head object 210-1 appears at a first display length 220, the second head object 212-1 appears at a second display length 222, and the third head object 210-1 appears at a first display length 220. Assume that the head object 214-1 appears at the first display length 224.

또한 상기 감시영상에서, 상기 제1머리객체(210-1)와 상기 제2머리객체(212-1) 사이의 인접간격거리는 제1거리표시길이(232)로, 상기 제1머리객체(210-1)와 상기 제3머리객체(214-1) 사이의 인접간격거리는 제2거리표시길이(234)로 나타난다고 가정한다.In addition, in the surveillance video, the adjacent interval between the first head object 210-1 and the second head object 212-1 is a first distance display length 232, and the first head object 210-1 It is assumed that the adjacent distance between 1) and the third head object 214-1 is represented by the second distance display length 234.

이 때, 사람의 평균적 머리 크기를 나타내게 되는 제1길이를 임의의 일정한 길이, 예를 들어 180mm로 설정하고, 상기 감시영상에서 식별된 사람의 머리의 크기가 대체로 동일하다고 간주할 수 있다. 이 경우, 상기 제1머리객체, 제2머리객체, 및 제3머리객체(210-1, 212-1, 214-1)는 모두 동일하게 180mm의 물체로 간주되므로, 크기 또한 동일하다고 간주하는 경우, 상기 제1, 제2, 및 제3표시길이(220, 222, 224)는 상기 제1길이가 상기 감시영상에서 표시되는 길이인 것으로 간주할 수 있다. At this time, the first length, which represents the average head size of a person, is set to an arbitrary constant length, for example, 180 mm, and the size of the head of the person identified in the surveillance video can be considered to be generally the same. In this case, the first head object, the second head object, and the third head object (210-1, 212-1, 214-1) are all considered to be objects of 180 mm, and therefore are also considered to be the same size. , the first, second, and third display lengths 220, 222, and 224 may be regarded as the first length displayed in the surveillance video.

따라서, 상기 제1, 제2, 및 제3표시길이(220, 222, 224)의 픽셀 수와 상기 제1길이 간에는 소정의 비율 관계가 계산되어 도출될 수 있게 된다. 그리고 상기 비율 관계로부터, 상기 제1거리표시길이(232)와 상기 제2거리표시길이(234)를 실제의 인접간격거리로 역산하는 것이 가능하게 된다.Accordingly, a predetermined ratio relationship can be calculated and derived between the number of pixels of the first, second, and third display lengths 220, 222, and 224 and the first length. And from the ratio relationship, it becomes possible to invert the first distance display length 232 and the second distance display length 234 into the actual adjacent spacing distance.

예시적으로, 상기 제1길이를 Lr1, 상기 제1표시길이(220)를 Ld1, 상기 제2표시길이(222)를 Ld2, 상기 제1거리표시길이(134)를 Dd1라 할 때, 상기 제1거리표시길이(232)의 실제 인접간격거리를 구하고자 하여 이를 Dr1이라 하면, 다음과 같은 비례식이 성립하게 된다.For example, the first length is L r1 , the first display length 220 is L d1 , the second display length 222 is L d2 , and the first distance display length 134 is D d1 . At this time, if we want to find the actual adjacent distance of the first distance display length 232 and call it D r1 , the following proportional equation is established.

Figure 112023045166247-pat00001
Figure 112023045166247-pat00001

상술한 설명과 같이, 상기 수학식 1의 비례식에 나타나는 각 수들 가운데 미지수는 실제 인접간격거리인 Dr1뿐이므로, 이를 임의로 지정된 상기 제1길이로부터 역산하여 용이하게 도출할 수 있게 됨을 알 수 있다. 예시적으로, 상기 제1거리표시길이(232)가 상기 제1표시길이(220)의 2배인 경우, 상기 실제 인접간격거리 Dr1은 (180:Dr1:180)=(1:2:1)의 비례식에 있다고 보아야 할 것이며, 따라서 360mm로 추정하는 것이 가능해질 수 있다.As described above, among the numbers appearing in the proportional equation of Equation 1, the only unknown number is D r1 , which is the actual adjacent spacing distance. Therefore, it can be seen that this can be easily derived by inverting from the arbitrarily designated first length. For example, when the first distance display length 232 is twice the first display length 220, the actual adjacent spacing distance D r1 is (180:D r1 :180)=(1:2:1 ), and therefore it may be possible to estimate it as 360mm.

도 3은 본 발명의 일 실시예에 의한 사람 간 인접간격거리의 픽셀에 의한 표현을 나타내는 개념도이다. Figure 3 is a conceptual diagram showing the pixel representation of the adjacent distance between people according to an embodiment of the present invention.

상기 감시영상이 복수의 픽셀(pixel)로 이루어진 비트맵(bitmap) 방식의 영상 프레임으로 획득되는 경우, 도 2에 도시된 상기 제1, 제2, 및 제3표시길이(220, 222, 224)는 각각 소정의 픽셀 개수로 계산될 수 있다. 즉, 상기 감시영상에서 상기 제1, 제2, 및 제3인물에 속하는 제1머리객체(310), 제2머리객체(312), 및 제3머리객체(314)가 차지하는 픽셀의 개수가 상술한 영상 분석에 의하여 식별될 수 있다. When the surveillance video is acquired as a bitmap image frame consisting of a plurality of pixels, the first, second, and third display lengths 220, 222, and 224 shown in FIG. 2 Each can be calculated as a predetermined number of pixels. That is, the number of pixels occupied by the first head object 310, the second head object 312, and the third head object 314 belonging to the first, second, and third people in the surveillance video is as described above. It can be identified through image analysis.

이 때, 상기 픽셀의 수를 나타내는 기준, 예시적으로 폭을, 상기 제1머리객체(310)에 대한 제1표시픽셀수(320), 상기 제2머리객체(312)에 대한 제2표시픽셀수(322), 및 상기 제3머리객체(314)에 대한 제3표시픽셀수(324)로 볼 수 있다.At this time, the standard representing the number of pixels, for example the width, the number of first display pixels 320 for the first head object 310, and the second display pixel for the second head object 312 It can be seen as the number 322, and the third display pixel number 324 for the third head object 314.

또한, 상기 감시영상으로부터 상기 제1머리객체(310)와 상기 제2머리객체(312) 사이에 존재하는 무관한 픽셀로 채워진 거리, 즉 인접간격거리는 제1거리픽셀수(332)로, 상기 제1머리객체(310)와 상기 제3머리객체(314) 사이의 인접간격거리는 제2거리픽셀수(334)로 나타난다고 볼 수 있다.In addition, the distance filled with irrelevant pixels existing between the first head object 310 and the second head object 312 from the surveillance image, that is, the adjacent interval distance, is the first distance pixel number 332, and the The adjacent distance between the first head object 310 and the third head object 314 can be viewed as the second distance pixel number 334.

이 때 상술한 바와 같이 제1길이를 일정한 길이로 결정함으로써, 상기 수학식 1과 같이, 감시영상에 나타난 실제의 픽셀 수와 실제의 길이 간에는 비례식이 성립할 수 있게 된다. 따라서, 상기 제1, 제2, 및 제3표시픽셀수(320, 322, 324)가 상기 제1길이인 것으로 간주되면, 상기 제1, 제2거리픽셀수(332, 334) 또한 실제의 인접간격거리로 역산하는 것이 가능하게 된다.At this time, by determining the first length to be a constant length as described above, a proportional expression can be established between the actual number of pixels appearing in the surveillance image and the actual length, as shown in Equation 1 above. Therefore, if the first, second, and third display pixel numbers 320, 322, and 324 are considered to be the first length, the first and second distance pixel numbers 332, 334 are also considered to be the actual adjacent numbers. It becomes possible to invert the gap distance.

도 3에 예시적으로 나타낸 일례에 기준하여 설명하면, 상기 감시영상에서 제1, 제2, 및 제3표시픽셀수(320, 322, 324)가 각각 10픽셀에 해당하고, 상기 제1거리픽셀수(332)가 14픽셀, 상기 제2거리픽셀수(334)가 34픽셀로 나타나고, 상기 제1길이가 180mm로 지정된 경우, 상기 제1거리픽셀수(332)는 실제로는 252mm, 상기 제2거리픽셀수(334)는 실제로는 612mm의 거리를 나타내는 것으로 간주할 수 있다. 즉, 상기 감시영상에 나타난 픽셀에 기반하여 상기 인물들 간의 실제 거리, 즉 사람 간의 인접간격거리가 계산될 수 있는 것이다.Based on the example shown in FIG. 3, the first, second, and third display pixel numbers 320, 322, and 324 in the surveillance image each correspond to 10 pixels, and the first distance pixel When the number 332 is 14 pixels, the second distance pixel number 334 is 34 pixels, and the first length is designated as 180 mm, the first distance pixel number 332 is actually 252 mm, and the second distance pixel number 332 is 252 mm. The number of distance pixels (334) can be considered to actually represent a distance of 612 mm. In other words, the actual distance between the people, that is, the adjacent distance between people, can be calculated based on the pixels appearing in the surveillance video.

즉, 상술한 바와 같이 나타나는 본 발명에 의한 군중 밀집도의 계산 방법을 보다 일반화하여 설명하면 다음과 같게 된다. 먼저 사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 제1길이를 설정할 수 있다. 다음으로, 촬영장치로부터 감시지역에 대한 감시영상을 획득할 수 있다. 다음으로, 상기 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별할 수 있다. 다음으로, 상기 객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득할 수 있다. 이 때, 상기 감시영상은 픽셀(pixel) 정보에 의하여 표현되는 영상일 수 있다. 다음으로, 상기 객체가 상기 표시영상에서 차지하는 픽셀의 개수에 기반하여 상기 제1측정치를 획득하고, 상기 객체와 상기 인접객체 사이에 존재하는 픽셀의 개수에 기반하여 상기 제2측정치를 획득할 수 있다. 다음으로, 상기 제1측정치와 상기 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산할 수 있다.In other words, if the crowd density calculation method according to the present invention as described above is explained more generally, it is as follows. First, a first length related to at least one of the width, length, and height of a person's head can be set. Next, surveillance images of the surveillance area can be obtained from the imaging device. Next, the surveillance video can be analyzed to identify at least one human head as an object. Next, a first measurement value indicating the size of the object displayed in the surveillance video can be obtained. At this time, the surveillance image may be an image expressed by pixel information. Next, the first measurement value may be obtained based on the number of pixels that the object occupies in the display image, and the second measurement value may be obtained based on the number of pixels existing between the object and the adjacent object. . Next, the ratio between the first measurement and the first length may be calculated, and the adjacent distance between the objects may be calculated based on the second measurement and the ratio.

상술한 바와 같이 상기 인접간격거리를 계산함에 있어서, 거리 비교의 대상이 되는 객체의 표시픽셀수가 동일하거나 근접한 경우 계산이 보다 용이할 수 있다. 예를 들어, 상기 수학식 1을 인용하면, 상기 제1표시길이인 Ld1과 상기 제2표시길이인 Ld2가 동일하다면, 비례식으로부터 둘 중 하나를 생략할 수 있으며, 따라서 상기 제1표시길이인 Ld1을 제1길이인 Lr1로 치환하는 것만으로 상기 제1거리표시길이 Dd1로부터 상기 실제 인접간격거리 Dr1을 구할 수 있어, 계산이 보다 단순해짐을 알 수 있다. 이러한 계산의 용이함을 위하여, 본 발명의 실시예에 따라서는, 상기 인접간격거리의 계산을 상기 감시영상에서 상기 객체와 수평위치가 중첩되는 다른 객체들 간에 한정하여 실시할 수도 있다.As described above, when calculating the adjacent distance, the calculation may be easier if the number of display pixels of the object that is the target of distance comparison is the same or close. For example, referring to Equation 1 above, if the first display length L d1 and the second display length L d2 are the same, one of the two can be omitted from the proportional expression, and therefore the first display length It can be seen that the actual adjacent spacing distance D r1 can be obtained from the first distance display length D d1 simply by replacing L d1 with the first length L r1 , making the calculation simpler. To facilitate such calculation, according to an embodiment of the present invention, the calculation of the adjacent distance may be limited to other objects whose horizontal positions overlap with the object in the surveillance image.

도 4는 본 발명의 일 실시예에 따른 인접 객체 간의 인접간격거리 계산에 대한 개념도이다. 도 4에는 각각 사람의 머리를 나타내는 제1객체(410), 제2객체(412), 제3객체(414), 및 제4객체(416)가 나타나 있다. 상기 제1객체(410)를 기준으로 할 때, 각각의 다른 인접 객체까지의 거리는 제1거리표시길이(432), 제2거리표시길이(434), 및 제3거리표시길이(436)와 같이 나타날 수 있다. 도 4에 나타난 예시에서는 제1객체(410)를 기준으로 나머지 객체들(412, 414, 416)이 소정의 수평위치 구간(440)을 공유하고 있으며, 본 발명에서 수평위치가 중첩된다 설명함은 이러한 경우를 포함하는 것으로 해석될 수 있다. 예를 들면, 상기 감시영상상이 가로 좌표축 x, 세로 좌표축 y에 의해 정의되는 다수의 픽셀로 구성된 비트맵 영상인 경우, 모든 객체가 적어도 하나의 동일한 y값을 공유하는 픽셀을 포함하고 있는 경우, 본 발명의 맥락에 있어서 이러한 객체들은 수평위치가 중첩되어 있다고 설명될 수 있다.Figure 4 is a conceptual diagram of calculating the adjacent distance between adjacent objects according to an embodiment of the present invention. Figure 4 shows a first object 410, a second object 412, a third object 414, and a fourth object 416, each representing a human head. Based on the first object 410, the distance to each other adjacent object is the first distance display length 432, the second distance display length 434, and the third distance display length 436. It may appear. In the example shown in FIG. 4, the remaining objects 412, 414, and 416 share a predetermined horizontal position section 440 based on the first object 410, and in the present invention, the horizontal positions overlap. It can be interpreted to include these cases. For example, if the surveillance image is a bitmap image composed of a number of pixels defined by the horizontal coordinate axis x and the vertical coordinate axis y, and all objects include at least one pixel that shares the same y value, In the context of the invention, these objects can be described as having overlapping horizontal positions.

소정의 감시지역에 대하여 촬영장치를 이용하여 감시영상을 획득하는 경우, 이처럼 수평위치가 중첩된 객체들은 일반적인 광학적 투영 법칙에 의하여 상기 촬영장치로부터 동일한 거리에 위치한 것으로 간주될 수 있다. 따라서, 상기 제1 내지 제4객체(410, 412, 414, 416)가 상기 촬영장치에서 다소 상이한 크기로 나타나더라도, 실질적으로 모두 상기 제1길이에 해당하는 동일한 크기의 객체일 것으로 간주할 수 있다. 이 경우 상기 제1 내지 제4객체(410, 412, 414, 416) 중 어느 하나, 바람직하게는 상기 제1객체(410)의 표시크기를 기준으로 상기 수학식 1과 같은 비례식에 상기 제1길이를 대입하여 상기 제1 내지 제3거리표시길이(432, 434, 436)를 실제 인접간격거리로 변환할 수 있게 된다.When acquiring surveillance images using a photographing device for a given surveillance area, objects with overlapping horizontal positions can be considered to be located at the same distance from the photographing device according to general optical projection laws. Therefore, even if the first to fourth objects 410, 412, 414, and 416 appear to have slightly different sizes in the imaging device, they can be considered to be substantially all objects of the same size corresponding to the first length. . In this case, any one of the first to fourth objects (410, 412, 414, 416), preferably the first length, is determined by a proportional expression such as Equation 1 based on the display size of the first object 410. By substituting , the first to third distance display lengths 432, 434, 436 can be converted into actual adjacent spacing distances.

그러나, 본 발명의 다른 실시예에 따라서는, 상기 인접간격거리를 계산함에 있어서 임의의 위치에 있는 객체 간에도 거리가 계산될 수 있다. 예를 들어, 상기 수학식 1은, 상기 제1표시길이인 Ld1과 상기 제2표시길이인 Ld2가 크게 상이한 경우, 양자를 동일한 제1길이인 Lr1로 동일하게 치환하여 비례식을 성립시키는 데 곤란함이 있음을 알 수 있다. 그럼에도 불구하고, 상기 제1표시길이인 Ld1과 상기 제2표시길이인 Ld2가 모두 동일한 제1길이인 Lr1로 간주한다는 전제가 성립한다면, 상기 수학식 1과 같은 비례식을 대체하여 하기 수학식 2와 같이 수정된 비례식을 상정할 수 있게 된다.However, according to another embodiment of the present invention, when calculating the adjacent distance, the distance may be calculated even between objects located at arbitrary positions. For example, in Equation 1, when the first display length L d1 and the second display length L d2 are significantly different, both are replaced by the same first length L r1 to establish a proportional equation. You can see that there are difficulties. Nevertheless, if the premise that both the first display length L d1 and the second display length L d2 are regarded as the same first length L r1 is established, the proportional expression such as Equation 1 is replaced with the following equation A modified proportional equation can be assumed as shown in Equation 2.

Figure 112023045166247-pat00002
Figure 112023045166247-pat00002

즉, 상기 제1표시길이인 Ld1과 상기 제2표시길이인 Ld2가 1:a의 비로 다르게 표시된다고 가정하면, 제1거리표시길이를 구하기 위한 비례식은 이 비율을 추가로 반영하여 수정될 수 있으며, 또한 3차원적 원근(遠近) 관계를 상기 비례식에 반영하기 위한 보정치 b 및 c를 추가로 반영하는 계산에 의하여, 실제 인접간격거리 Dr1을 구하도록 계산할 수 있다.That is, assuming that the first display length L d1 and the second display length L d2 are displayed differently at a ratio of 1:a, the proportional equation for calculating the first distance display length will be modified to additionally reflect this ratio. In addition, the actual adjacent distance D r1 can be calculated by calculating additional correction values b and c to reflect the three-dimensional perspective relationship in the proportional equation.

본 발명의 실시방법을 한정하지 아니하는 단순한 예시적 방법에 있어서, 가령 원근의 반영을 평균에 의한 방법으로 단순화하여 적용한다고 가정하면, b과 c를 각각 1/2로 정함으로써 (ab+c)는 (1/2)a+(1/2)=((1+a)/2)의 단순한 형태로 결정될 수 있다. 이러한 예시적 계산방법에서 Ld1이 10픽셀, Dd1이 20픽셀, Ld2가 15픽셀인 경우, Ld1과 Ld2는 1:1.5의 비율을 가지는 바, (10:20:15)=(Ld1:1.25Dd1:1.5Ld2)인 것으로 가정하고, 상기 실제 인접간격거리 Dr1은 (Ld1:Dd1:Ld2)=(10:16:10)로 보정된 비례관계에 의하여 (10:16:10)=(180:Dr1:180)의 관계에 있다고 볼 수 있으며, 따라서 288mm로 추정하는 것이 가능해질 수 있다.In a simple exemplary method that does not limit the implementation method of the present invention, assuming that the reflection of perspective is simplified and applied by the average method, b and c are each set to 1/2 (ab + c) can be determined in the simple form of (1/2)a+(1/2)=((1+a)/2). In this example calculation method, when L d1 is 10 pixels, D d1 is 20 pixels, and L d2 is 15 pixels, L d1 and L d2 have a ratio of 1:1.5, (10:20:15)=( Assuming that L d1 :1.25D d1 :1.5L d2 ), the actual adjacent spacing distance D r1 is (L d1 :D d1 :L d2 )=(10:16:10) by the corrected proportional relationship. It can be seen as having a relationship of 10:16:10)=(180:D r1 :180), and therefore it can be estimated as 288mm.

즉, 일반화하여 설명하면, 상기 제1객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득하고, 상기 제1객체와 상기 제2객체 간의 거리가 상기 감시영상에 표시되는 크기를 나타내는 제2측정치를 획득하고, 상기 제2객체가 상기 감시영상에 표시되는 크기를 나타내는 제3측정치를 획득하고, 상기 제1측정치와 제3측정치의 비율에 기반하여 상기 제2측정치를 보정하고, 상기 제1측정치와 상기 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산할 수 있다.In other words, to generalize, a first measurement value indicating the size of the first object displayed in the surveillance image is obtained, and the distance between the first object and the second object is a first measurement value representing the size displayed in the surveillance image. Obtaining a second measurement value, obtaining a third measurement value indicating a size at which the second object is displayed in the surveillance video, correcting the second measurement value based on the ratio of the first measurement value and the third measurement value, and The ratio between one measurement value and the first length may be calculated, and the adjacent distance between the objects may be calculated based on the second measurement value and the ratio.

도 5는 본 발명의 일 실시예에 따른 인접 객체 간의 인접간격거리를 보정에 의해 계산하는 데 대한 개념도이다. 도 5에는 각각 사람의 머리를 나타내는 제1객체(510), 제2객체(512), 및 제3객체(514)가 나타나 있다. 상기 각각의 객체들은, 비록 동일하게 상기 제1길이로 간주되는 객체임에도 불구하고, 본 발명의 일 실시예에 의한 감시영상에서는 각각 제1표시길이(520), 제2표시길이(522), 및 제3표시길이(524)로 나타날 수 있다. 상기 제1객체(510)를 기준으로 할 때, 각각의 다른 인접 객체까지의 거리는 제1수평거리표시길이(532)나 제2수평거리표시길이(534)와 같이 수평 방향의 거리만을 계측할 수도 있고, 또는 상기 각각의 객체가 상기 감시영상에서 가지는 수직적 위치 관계를 반영하는 계산에 의하여(단순한 예를 들면, x방향의 거리와 y방향의 거리가 형성하는 직각삼각형을 이용하는 피타고라스 법칙에 의할 수 있다) 구해진 제1실제거리표시길이(542)나 제2실제거리표시길이(544)일 수 있다. 상기 각각의 표시길이(532, 534, 542, 544)는 픽셀 단위로 측정될 수 있으며, 계산의 방법에 따라서는 정수가 아닌 소수점 단위의 추상적 픽셀 거리 값으로 취급되어도 무방하다. 상기와 같은 측정값을 이용하여 상기 수학식 2 등을 예시로 한 보정된 계산방법을 사용하는 경우, 상기 각각의 표시길이(532, 534, 542, 544)와 같은 영상에서의 거리 지표를 실제 인접간격거리로 변환할 수 있음을 알 수 있다.Figure 5 is a conceptual diagram for calculating the adjacent distance between adjacent objects by correction according to an embodiment of the present invention. Figure 5 shows a first object 510, a second object 512, and a third object 514, each representing a human head. Although each of the objects is equally regarded as the first length, in the surveillance video according to an embodiment of the present invention, each of the objects has a first display length 520, a second display length 522, and It may appear as the third display length (524). Based on the first object 510, the distance to each other adjacent object may be measured only in the horizontal direction, such as the first horizontal distance display length 532 or the second horizontal distance display length 534. Or, by calculation reflecting the vertical positional relationship that each object has in the surveillance video (for example, by the Pythagorean law using a right triangle formed by the distance in the x-direction and the distance in the y-direction) ) It may be the obtained first actual distance display length (542) or the second actual distance display length (544). Each of the display lengths 532, 534, 542, and 544 can be measured in pixels, and depending on the calculation method, they may be treated as abstract pixel distance values in decimal units rather than integers. When using the corrected calculation method using Equation 2 as an example using the above measurement values, the distance indicators in the image, such as each display length (532, 534, 542, 544), are compared to the actual adjacent ones. You can see that it can be converted to an interval distance.

상술한 바와 같이, 본 발명에 의하면 감시영상에서 식별되는 각각의 객체로부터 다른 객체로의 인접간격거리를 단순한 계산에 의하여 추정할 수 있다. 상기 인접간격거리에 기반하여, 본 발명의 일 실시예에 따르면, 어떠한 객체와 주변의 인접객체 간의 인접간격거리가 소정의 길이, 이를테면 제2길이 이내로 계산되는 경우, 이를 사람과 사람이 밀집되어 서로 가깝게 밀착하여 있는 상태로 판단하고, 따라서 밀집객체로 구분할 수 있다.As described above, according to the present invention, the adjacent distance from each object identified in the surveillance video to another object can be estimated by simple calculation. Based on the adjacent distance, according to an embodiment of the present invention, when the adjacent distance between an object and surrounding adjacent objects is calculated to be within a predetermined length, for example, a second length, this means that people are crowded together and interacting with each other. It is judged to be in a close contact state, and therefore can be classified as a dense object.

본 발명의 일 실시예에 따르면, 상기 감시영상으로부터 식별되는 상기 밀집 객체의 수에 기반하여 상기 감시지역의 군중 밀집도를 계산할 수 있다. 도 6은 본 발명의 일 실시예에 따른 감시영상으로부터 식별되는 밀집 객체의 수에 기반하여 감시지역의 군중 밀집도를 계산하는 방법에 대한 개념도이다.According to one embodiment of the present invention, the crowd density of the surveillance area can be calculated based on the number of dense objects identified from the surveillance video. Figure 6 is a conceptual diagram of a method for calculating crowd density in a surveillance area based on the number of dense objects identified from surveillance images according to an embodiment of the present invention.

제1예시(610)의 감시영상을 참조하면, 상술한 계산 방법에 따라, 상기 제1예시에 속한 임의의 사람, 즉 제1객체(615)로부터 주변의 인접 객체들까지의 인접간격거리를 구할 수 있다. 이 때, 본 발명의 실시예에 따라서는, 하나 이상의 인접객체를 지정하고, 상기 지정된 인접객체들에 대한 개별 인접간격거리를 구한 뒤, 상기 개별 인접간격거리의 병합 계산을 통해 상기 인접간격거리를 도출하여도 좋다. Referring to the surveillance image of the first example 610, according to the above-described calculation method, the adjacent distance from an arbitrary person belonging to the first example, that is, the first object 615, to surrounding adjacent objects is calculated. You can. At this time, according to an embodiment of the present invention, one or more adjacent objects are designated, individual adjacent distances for the designated adjacent objects are obtained, and then the adjacent distances are calculated by merging the individual adjacent distances. You may also derive it.

본 발명의 일 실시예에 따르면, 상기와 같이 하나 이상의 인접객체에 대한 개별 인접간격거리를 참조하는 경우, 상기 인접객체를 몇 개 지정할지에 대하여 기준인원수를 정할 수 있다. 도 6의 각 예시에서는 상기 기준인원수를 4로 하여, 하나의 객체에 인접하여 있는 4개의 인접객체에 대한 개별 인접간격거리를 계산하는 예시에 기반하고 있다. 단, 상기 기준인원수는 4 이외의 다른 수로 결정되어도 무방하고, 또는 가변적으로 결정되어도 무방하며, 또한 가변적으로 결정되는 경우 그 범위는 1 이상의 범위에서 어떠한 상한 또는 하한을 가지더라도 본 발명의 취지로부터 이탈하지 아니함은 자명하다. 물론, 기준인원수가 아닌 다른 기준에 의하여 하나 이상의 인접객체를 선택하여도 본 발명의 취지는 훼손되지 아니한다.According to one embodiment of the present invention, when referring to the individual adjacent spacing distance for one or more adjacent objects as described above, a standard number of people can be determined for how many adjacent objects are to be designated. Each example in FIG. 6 is based on an example of calculating individual adjacent distances for four adjacent objects adjacent to one object, with the standard number of people set to 4. However, the standard number of people may be determined as a number other than 4, or may be determined variably, and if it is determined variably, the range shall be 1 or more and any upper or lower limit may deviate from the spirit of the present invention. It is obvious that it is not done. Of course, the purpose of the present invention is not impaired even if one or more adjacent objects are selected based on criteria other than the standard number of people.

본 발명의 바람직한 일 실시예에서, 상기 인접간격거리는, 상기 객체에 인접한 상기 기준인원수의 인접객체를 지정하고, 상기 객체로부터 상기 각각의 인접객체에 대한 개별 인접간격거리를 계산하고, 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 방법으로 계산될 수 있다. 이 때, 상기 평균은 산술 평균, 기하 평균, 조화 평균, 가중 평균, 중앙값, 최빈수, 및 멱평균에 속하는 평균법 중 어느 하나에 의하여 도출될 수 있으며, 그 중 어떠한 평균 방법도 본 발명을 실시하는 자의 선택에 의하여 적용될 수 있다.In a preferred embodiment of the present invention, the adjacent distance specifies adjacent objects of the reference number adjacent to the object, calculates an individual adjacent distance for each adjacent object from the object, and calculates the individual adjacent distance. It can be calculated by calculating the adjacent interval distance based on the average of the distance. At this time, the average may be derived by any one of the average methods belonging to the arithmetic mean, geometric mean, harmonic mean, weighted mean, median, mode, and power mean, and any of the mean methods can be used by those practicing the present invention. Can be applied by choice.

본 발명의 일 실시예에 있어서는, 상기 인접간격거리의 계산은, 상기 감시영상에서 상기 객체와 수평위치가 중첩되는 다른 객체들에 대하여 상기 객체로부터의 개별 거리표시길이를 획득하고, 상기 객체와의 거리표시길이가 가장 작은 순서로 상기 기준인원수의 인접객체를 지정하고, 상기 개별 거리표시길이로부터 상기 각각의 인접객체에 대한 개별 인접간격거리를 계산하고, 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 방법으로 이루어질 수 있다.In one embodiment of the present invention, the calculation of the adjacent interval distance is performed by obtaining individual distance display lengths from the object for other objects whose horizontal positions overlap with the object in the surveillance video, and determining the distance between the object and the object. Designate the adjacent objects of the standard number of people in the order of smallest distance display length, calculate the individual adjacent interval distance for each adjacent object from the individual distance display length, and calculate the individual adjacent interval distance based on the average of the individual adjacent interval distances. This can be done by calculating the adjacent spacing distance.

본 발명의 다른 실시예에 있어서는, 상기 인접간격거리의 계산은, 상기 객체로부터 상기 감시영상에서 식별된 적어도 하나의 여러 다른 객체에 대하여 개별 거리표시길이를 획득하고(바람직하게는, 상기 객체와 인접할 가능성이 있는 모든 객체에 대하여 획득되어도 무방하다), 상기 개별 거리표시길이로부터 상기 각각의 다른 객체에 대한 개별 인접간격거리를 계산하고, 상기 객체와의 개별 인접간격거리가 가장 작은 상기 기준인원수의 인접객체를 지정하고, 상기 각각의 인접개체에 대한 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 단계를 포함할 수 있다.In another embodiment of the present invention, the calculation of the adjacent interval distance is performed by obtaining individual distance display lengths from the object to at least one different object identified in the surveillance video (preferably, adjacent to the object). (may be obtained for all objects that are likely to do so), calculate the individual adjacent spacing distance for each other object from the individual distance display length, and determine the standard number of people with the smallest individual adjacent spacing distance to the object. It may include designating adjacent objects and calculating the adjacent distance based on the average of the individual adjacent distances for each adjacent object.

본 발명의 어떠한 실시예에 있어서도, 상기 인접객체의 지정 방법, 상기 인접객체를 기준인원수에 의해 지정하는 경우 그 기준인원수 및 그 결정 방법, 상기 개별 거리표시길이의 측정 방법, 상기 개별 거리표시길이로부터 상기 각각의 개별 인접간격거리를 계산하는 방법, 및 적어도 하나의 상기 개별 인접간격거리를 통합 계산하여 최종적으로 상기 객체의 인접간격거리를 도출하는 방법은, 상술한 것 또는 그 밖의 다양한 응용된 방법에 의하여 본 발명의 기술적 취지를 이탈하지 않는 범위 내에서 실현될 수 있음을 통상의 기술자는 쉽게 이해할 수 있을 것이다.In any embodiment of the present invention, from the method of designating the adjacent object, the standard number of people and the method for determining the same when the adjacent object is designated by the standard number of people, the method of measuring the individual distance display length, and the individual distance display length The method of calculating each individual adjacent distance, and the method of calculating the at least one individual adjacent distance in an integrated manner to finally derive the adjacent distance of the object, can be applied to the above-mentioned or various other applied methods. A person skilled in the art will easily understand that the present invention can be implemented without departing from the technical spirit of the present invention.

다시 도 6을 참조하면, 제1예시(610)의 감시영상은, 군중 밀집도가 낮은 경우를 예시한 것이다. 본 발명의 일 실시예에 따르면, 상기 제1예시(610)에 대한 군중 밀집도를 계산하기 위하여, 상기 제1예시(610) 내에서 식별된 상기 밀집 객체가 계수(計數)될 수 있다. 상기 계수를 위하여, 상술한 것과 같은 다양한 방법에 의하여, 상기 제1객체(615)를 포함한 적어도 하나의 객체로부터 주변의 인접객체들을 지정하고, 상기 인접객체들까지의 인접간격거리를 구할 수 있다. 이 때, 도 6의 예시는 기준인원수에 의해 4개의 인접객체를 지정하는 것으로 되어 있다.Referring again to FIG. 6, the surveillance video of the first example 610 illustrates a case where crowd density is low. According to one embodiment of the present invention, in order to calculate the crowd density for the first example 610, the crowded objects identified within the first example 610 may be counted. For the coefficient, neighboring adjacent objects can be designated from at least one object including the first object 615 and the adjacent distance to the adjacent objects can be obtained using various methods as described above. At this time, the example in FIG. 6 specifies four adjacent objects based on the standard number of people.

만약 상기 제1객체(615)의 상기 인접간격거리가 상술하였던 바와 같이 상기 제2길이 이내로 계산되는 경우, 상기 제1객체(615)는 밀집 객체로 분류될 수 있으며, 상기 제1예시(610)에 나타나는 다른 어떠한 객체라도 그러할 수 있다. 그러나 상기 제1예시(610)에서 상기 제1객체(615)로부터 4개의 인접객체들에 대한 인접간격거리가 충분히 크다면, 상기 제1객체(615)는 밀집 객체로 분류되지 아니할 수 있으며, 상기 제1예시(610)에 나타나는 다른 어떠한 객체라도 그러할 수 있다. 상기 계수의 결과가, 예를 들면, 제1밀집인원수보다 적은 경우, 상기 제1예시(610)의 군중 밀집도는 적어도 상기 제1밀집인원수에 따라 추정할 수 있는 제1 기준 밀집도보다는 낮은 것으로 판단할 수 있다.If the adjacent distance of the first object 615 is calculated to be within the second length as described above, the first object 615 may be classified as a dense object, and the first example 610 This could be any other object that appears in . However, in the first example 610, if the adjacent distance between the first object 615 and the four adjacent objects is sufficiently large, the first object 615 may not be classified as a dense object, and the This may be any other object appearing in the first example 610. For example, if the result of the coefficient is less than the first crowd density, it is determined that the crowd density of the first example 610 is at least lower than the first reference density that can be estimated based on the first crowd density. You can.

제2예시(620)의 감시영상은, 군중 밀집도가 보통 수준인 경우를 예시한 것이다. 상술한 것과 같은 다양한 방법에 의하여, 상기 제2예시(610)에 대한 군중 밀집도를 계산하기 위하여, 상기 제2예시(620) 내에서 식별된 상기 밀집 객체가 계수(計數)될 수 있고, 이를 위하여 제2객체(625)를 포함한 적어도 하나의 객체로부터 주변의 인접객체들을 지정하고, 상기 인접객체들까지의 인접간격거리를 구할 수 있다. 상기 계수의 결과가, 예를 들면, 제1밀집인원수 이상인 경우, 상기 제2예시(620)의 군중 밀집도는 적어도 상기 제1밀집인원수에 따라 추정할 수 있는 제1 기준 밀집도보다는 높은 것으로 판단할 수 있다.The surveillance video of the second example 620 illustrates a case where the crowd density is at a normal level. In order to calculate the crowd density for the second example 610 by various methods as described above, the dense objects identified within the second example 620 can be counted, and for this purpose Adjacent objects surrounding the at least one object including the second object 625 can be designated, and the adjacent distance to the adjacent objects can be obtained. If the result of the coefficient is, for example, greater than the first crowd density, the crowd density of the second example 620 can be determined to be at least higher than the first reference density that can be estimated based on the first crowd density. there is.

본 발명의 일 실시예에 따르면, 상기 제2예시(620)와 같은 경우에는, 해당하는 감시영상이 표시하는 감시지역 내에 상기 제1 기준 밀집도를 초과하는 상황이 관측되었다고 판단하고, 이에 대한 경고 정보가 생성될 수 있다. 이러한 경고 정보에 의하여, 제한된 공간에 인파가 지나치게 밀집되는 상황이 발생하는 경우 조기에 대응하고자 하는 본 발명의 목적이 실현될 수 있다.According to an embodiment of the present invention, in the case of the second example 620, it is determined that a situation exceeding the first standard density is observed within the surveillance area indicated by the corresponding surveillance video, and warning information is provided regarding this. can be created. By using this warning information, the purpose of the present invention to respond early when a situation where too many people are crowded in a limited space occurs can be realized.

상기 경고 정보를 생성하는 주체(즉, 상술한 군중 밀집도를 계산하는 주체)가 컴퓨터와 같은 계산 장치인 경우, 이러한 경고 정보가 "송출"된다고 표현할 수 있으나, 본 발명에서 경고 정보가 송출된다 함은 그 사전적 의미 이외에도 상기와 같은 군중 밀집도 계산 방법에 의하여 경고 정보가 생성되는 경우 이를 최종적으로 목적하는 경고 대상에게 도달시키기 위한 여하의 수단을 포함하는 것으로 이해되어야 할 것이다. 상기 경고 정보를 송출하는 방법은, 예를 들면, 표시, 음성, 진동, 빛, 문자, 통신 등을 포함할 수 있으나, 이에 한정되지 아니한다.If the entity that generates the warning information (i.e., the entity that calculates the above-described crowd density) is a computing device such as a computer, such warning information may be expressed as being “sent,” but in the present invention, warning information is transmitted. In addition to the dictionary meaning, when warning information is generated by the above crowd density calculation method, it should be understood to include any means for reaching the final target of the warning. Methods for transmitting the warning information may include, for example, display, voice, vibration, light, text, communication, etc., but are not limited thereto.

단순한 예를 들면, 상기 경고 정보가 컴퓨터 장치로부터 생성되었을 때, 상기 경고 정보는 화면에 표시되거나, 경보등의 점등으로 표시되거나, 경고 음성으로 안내되거나, 경보음으로 안내되거나, 장치의 진동에 의해 접촉하고 있는 사람에게 인식될 수도 있다. 또한, 상기 컴퓨터 장치로부터 어떠한 임의의 규격에 의한 통신 메시지의 형태로 유선 또는 무선으로 구성되는 회로나 통신 네트워크를 통해 발신되어, 컴퓨터 장치를 포함하는 다른 임의의 형태의 장치 또는 시스템에 송출되어, 그러한 다른 임의의 장치 또는 시스템으로부터 상기와 같은 예시의 방법으로 송출될 수도 있다. 예를 들면, 경고 정보는 컴퓨터 장치로부터 생성되어 이동통신망을 경유하여 어떠한 휴대 통신 단말기기에 전달되고, 상기 휴대 통신 단말기기로부터 표시, 음성, 진동, 빛, 문자 등을 통하여 경고 정보가 제공될 수 있다.As a simple example, when the warning information is generated from a computer device, the warning information is displayed on the screen, displayed by turning on an alarm light, guided by a warning voice, guided by an alarm sound, or touched by vibration of the device. It may be recognized by the person doing it. In addition, it is sent from the computer device in the form of a communication message according to any standard through a wired or wireless circuit or communication network, and is transmitted to any other type of device or system including a computer device. It may also be transmitted from any other device or system using the above example method. For example, warning information is generated from a computer device and transmitted to any portable communication terminal device via a mobile communication network, and warning information may be provided from the portable communication terminal device through display, voice, vibration, light, text, etc. .

상기 목적하는 경고 대상은 적어도 한 명의 사람을 포함할 수 있으나, 실시 방법에 따라서는, 사람이 아닌 장치 또는 시스템이어도 무방하다.The intended warning target may include at least one person, but depending on the implementation method, it may be a device or system other than a person.

경고 대상이 사람인 경우, 일례로는, 상기 경고 정보가 상기 감시지역에 위치한 적어도 한 명의 사람에게 송출될 수 있다. 이러한 경우 감시지역에 설치된 스피커를 통해 경고 방송이 재생되거나, 감시지역 내의 사람들이 소지한 휴대 통신 단말기기에 재난 문자와 같은 형태로 메시지가 발송될 수 있다. 이러한 경우 감시지역에 위치한 사람은 군중 밀집도가 높아지는 상황을 스스로 인식하고 장소를 이탈하거나 밀집 상태를 해산하는 등 자구적 조치를 취할 수 있을 것이다.When the warning target is a person, for example, the warning information may be transmitted to at least one person located in the surveillance area. In this case, a warning broadcast may be played through speakers installed in the surveillance area, or a message may be sent in the form of a disaster text message to mobile communication terminals owned by people within the surveillance area. In this case, people located in the surveillance area will be able to recognize the situation where crowd density is increasing and take self-help measures such as leaving the place or dispersing the crowd.

다른 일례로는, 상기 경고 정보가 상기 감시지역의 관리자, 상기 촬영장치의 관리자, 및 상기 감시지역의 안전관리자 중 적어도 한 명에게 송출될 수 있다. 상기 관리자라 함은 상기 촬영장치나 그에 의해 감시되는 상기 감시지역을 관할하는 권한 있는 자를 의미할 수 있으며, 예를 들면 시설의 경우 시설의 안전 관리자이거나, 행사 현장의 경우 행사의 안전 관리자이거나, 가로(街路)의 경우 해당 가로의 질서유지를 담당하는 자일 수 있다. 특히 감시지역의 관리자라 하였을 때는 해당 감시지역에 대한 관할권을 가지는 시설, 지역, 또는 지방자치단체의 정보보호관리자를 포함할 수 있고, 촬영장치의 관리자라 하였을 때는 해당 감시지역에 설치된 CCTV 시스템을 설치하고 운영하는 데 관련된 시설, 지역, 또는 지방자치단체의 담당인원을 포함할 수 있고, 감시지역의 안전관리자라 하였을 때는 해당 감시지역을 관할로 하거나, 해당 감시지역에 접근 또는 배치가 가능하거나 이미 접근 또는 배치되어 있는 경찰관, 안전요원, 기타 통제를 담당하는 하나 이상의 인원을 포함할 수 있다. 물론, 상술한 예 이외에도 이에 한정되지 아니하는 관리자를 의미할 수 있음은 자명하다. 이러한 경우 상기 관리자는 군중 밀집도가 낮아질 수 있도록 인원 통제를 실시하거나, 해당 감시지역의 출입을 제한하거나, 관련한 지원 인력을 파견, 배치하는 등의 적절한 대응조치를 취할 수 있을 것이다.As another example, the warning information may be transmitted to at least one of a manager of the surveillance area, a manager of the imaging device, and a safety manager of the surveillance area. The manager may mean an authorized person in charge of the filming device or the surveillance area monitored by it, for example, in the case of a facility, the safety manager of the facility, in the case of an event site, the safety manager of the event, or the street ( In the case of a street, the person may be in charge of maintaining order on the street. In particular, the manager of the surveillance area may include the information protection manager of the facility, region, or local government with jurisdiction over the surveillance area, and the manager of the filming device may include the CCTV system installed in the surveillance area. may include personnel in charge of facilities, regions, or local governments involved in the operation of the surveillance area, and when referred to as a safety manager of the surveillance area, he/she has jurisdiction over the surveillance area, or is capable of accessing or deploying to the surveillance area, or has already accessed the surveillance area. Alternatively, it may include one or more assigned police officers, security guards, or other personnel responsible for control. Of course, it is obvious that it can mean a manager other than the above-mentioned examples and is not limited thereto. In this case, the manager may take appropriate response measures such as controlling the number of people to reduce crowd density, restricting access to the surveillance area, or dispatching and deploying related support personnel.

경고 대상이 사람이 아닌 장치 또는 시스템인 경우, 일례로는, 상기 경고 정보가 상기 감시지역에 관련된 민간 또는 공공의 관리단체, 경찰기관, 소방기관, 군기관, 중앙행정기관, 및 지방행정기관 중 적어도 한 곳에 관련된 장치, 시스템, 또는 통신망과 같은 대상에 송출될 수 있다.If the warning target is a device or system rather than a person, for example, the warning information may be distributed to any of the private or public management organizations, police agencies, fire agencies, military agencies, central administrative agencies, and local administrative agencies related to the surveillance area. It may be transmitted to at least one destination, such as a related device, system, or communication network.

상기 민간 또는 공공의 관리단체란 상기 감시지역이 포함된 시설물의 운영 주체이거나 행사의 주최측과 같은 단체를 포함할 수 있다. 상기 경찰기관이란 국가경찰, 자치경찰, 수사기관, 또는 기타 자율방범단체를 포함할 수 있다. 상기 소방기관이란 공공 소방기관, 민간 재해대책반, 또는 자율소방단체를 포함할 수 있으며, 폭넓게는 공공 또는 민간의 보건의료시설을 포함할 수 있다. 상기 군기관이란 상기 감시지역에 적절한 조치를 취할 수 있는 각급 군부대, 군 소속 기관, 기타 적합한 군사단체를 포함할 수 있다. 상기 중앙행정기관이란 군중 밀집도의 통제에 책임 있는 행정기관으로서, 예를 들면 본 발명의 출원시점에 있어서의 대통령실, 국무총리실, 행정안전부, 경찰청 및 그 지방청, 소방청 및 그 지방청과 같은 기관을 포함할 수 있다. 상기 지방행정기관이란 상기 감시지역의 관할 지방행정기관으로서, 예를 들면 지방자치제도에 의한 광역 또는 기초자치단체이거나 그에 소속된 부서 및/또는 기관이거나, 기타 부속된 지방행정기관일 수 있으며, 즉 특별시청, 광역시청, 특별자치시정, 특별자치도청, 도청 등이거나, 또는 시청, 구청, 군청일 수 있고, 또는 그에 소속된 읍, 면, 동, 리를 관할하는 행정관소이거나, 또는 상기한 각급 행정구역 관소에 소속된 부서일 수 있다. 또한 상기 경고 정보가 송출되는 대상인 장치, 시스템, 또는 통신망이라 함은 상기 예로 든 대상 또는 그 외의 유사한 대상에 설치되어 있거나 그에 의하여 운영되는 것으로서, 예를 들면 CCTV 통합관제센터의 서버이거나, 재난통신망과 같은 것일 수 있다. 상기의 열거한 예시들은 본 발명의 바람직한 실시를 위하여 특정하여 열거할 수 있는 구체적 대상의 일부에 해당하며, 본 발명의 실시목적을 한정하지 아니하는 예시에 불과함 또한 자명하다.The private or public management organization may include an organization such as an operator of a facility including the surveillance area or an event organizer. The above police agencies may include national police, autonomous police, investigative agencies, or other autonomous crime prevention organizations. The firefighting agency may include a public firefighting agency, a private disaster response team, or an autonomous firefighting organization, and may broadly include public or private health care facilities. The military agencies may include military units at all levels, military agencies, and other appropriate military organizations that can take appropriate measures in the surveillance area. The above-mentioned central administrative agencies are administrative agencies responsible for controlling crowd density, and include, for example, agencies such as the Office of the President, the Office of the Prime Minister, the Ministry of Public Administration and Security, the National Police Agency and its local offices, and the National Fire Agency and its local offices at the time of filing the application for the present invention. can do. The local administrative agency refers to a local administrative agency with jurisdiction over the monitoring area, for example, a metropolitan or basic government under the local autonomy system, a department and/or agency affiliated therewith, or other attached local administrative agency, that is, It may be a special city hall, metropolitan city hall, special self-governing city administration, special self-governing provincial office, provincial office, etc., or it may be a city hall, district office, or county office, or it may be an administrative office with jurisdiction over the town, township, dong, or ri belonging to it, or each level of the above. It may be a department belonging to an administrative district office. In addition, the device, system, or communication network to which the above warning information is transmitted refers to those installed in or operated by the above-mentioned targets or other similar targets, for example, the server of the CCTV integrated control center, or the disaster communication network and It could be the same thing. It is also obvious that the examples listed above correspond to some of the specific objects that can be specifically listed for the preferred implementation of the present invention, and are merely examples that do not limit the purpose of implementing the present invention.

다시 도 6을 참조하면, 제3예시(630)의 감시영상은, 군중 밀집도가 상당한 수준인 경우를 예시한 것이다. 상술한 것과 같은 다양한 방법에 의하여, 상기 제3예시(630)에 대한 군중 밀집도를 계산하기 위하여, 상기 제3예시(630) 내에서 식별된 상기 밀집 객체가 계수(計數)될 수 있고, 이를 위하여 제3객체(635)를 포함한 적어도 하나의 객체로부터 주변의 인접객체들을 지정하고, 상기 인접객체들까지의 인접간격거리를 구할 수 있다. 상기 계수의 결과가, 예를 들면, 제2밀집인원수 이상인 경우, 상기 제3예시(630)의 군중 밀집도는 적어도 상기 제2밀집인원수에 따라 추정할 수 있는 제2 기준 밀집도보다는 높은 것으로 판단할 수 있다. 이 때, 상기 제2밀집인원수는 앞서 예시한 상기 제1밀집인원수보다 많을 수 있다.Referring again to FIG. 6, the surveillance video of the third example 630 illustrates a case where the crowd density is at a significant level. In order to calculate the crowd density for the third example 630 by various methods as described above, the dense objects identified within the third example 630 can be counted, and for this purpose Adjacent objects surrounding the at least one object including the third object 635 can be designated, and the adjacent distance to the adjacent objects can be obtained. If the result of the coefficient is, for example, greater than the second crowd density, the crowd density of the third example 630 can be determined to be at least higher than the second standard density that can be estimated based on the second crowd density. there is. At this time, the number of people in the second crowd may be greater than the number of people in the first crowd as exemplified above.

본 발명의 일 실시예에 따르면, 상기 제3예시(630)와 같은 경우에는, 해당하는 감시영상이 표시하는 감시지역 내에 상기 제2 기준 밀집도를 초과하는 상황이 관측되었다고 판단하고, 이에 대한 경고 정보가 생성될 수 있다. 또한, 상기 제1 기준 밀집도에 비하여 더욱 밀집도가 높은 혼잡한 상황이라고 판단하고, 상기 제2예시(620)와 관련된 실시예 상의 경고 정보를 제1 경고 정보라 하면, 그 내용 및/또는 송출 형식이 상이한 제2 경고 정보가 생성되고 또한 송출될 수 있다.According to an embodiment of the present invention, in the case of the third example 630, it is determined that a situation exceeding the second standard density is observed within the surveillance area indicated by the corresponding surveillance video, and warning information is provided regarding this. can be created. In addition, if it is determined that it is a crowded situation with a higher density than the first standard density, and the warning information in the embodiment related to the second example 620 is called the first warning information, the content and/or transmission format are Different second warning information may be generated and also sent.

본 발명의 다른 일 실시예에 따르면, 상기 제2예시(620)와 제3예시(630)의 군중 밀집도 차이에 따라 위와 같이 다른 수준의 군중 밀집도가 계산되어 다른 유형의 경고 정보가 생성될 수 있는 것과 유사하게, 적어도 둘 이상의 서로 다른 단계에 의하여 기준 밀집도가 정의되고, 각각의 기준 밀집도에 상응하는 단계별 경고 정보가 생성되도록 구성될 수도 있다.According to another embodiment of the present invention, different levels of crowd density are calculated as above according to the difference in crowd density between the second example 620 and the third example 630, and different types of warning information can be generated. Similarly, the standard density is defined by at least two different stages, and step-by-step warning information corresponding to each standard density may be generated.

한편, 본 발명의 또다른 일 실시예에 따르면, 상기 도 6에 나타난 것과 같이 밀집 객체를 식별하는 계산이 본질적으로 불필요한 상황이 정의될 수도 있다. 예를 들어, 상기 제1예시(610)와 같은 경우에서, 감시영상 내에 검출되는 객체, 즉 사람의 절대수가 일정 이하인 경우, 어떠한 경우라 하여도 위험이 예상되는 소정의 기준 밀집도를 초과할 위험이 없다고 판단될 수도 있다. 이러한 경우, 상기 제1예시(610) 내에서 식별된 객체의 수가, 예를 들면, 제3밀집인원수 이하인 경우, 상기 밀집 객체를 검출하는 일련의 계산에 대한 수행을 생략할 수 있으며, 상기 제1예시(610)의 군중 밀집도는 상기 밀집 객체의 수와 무관하게 적어도 상기 제3밀집인원수에 따라 추정할 수 있는 제3 기준 밀집도보다는 낮은 것으로 판단할 수 있다. 본 발명은 밀집도의 계산 방법을 단순화하는 효과가 있으나, 상술한 실시예를 따르면 이러한 단순화된 계산 또한 더욱 절약할 수 있는 효과 또한 얻을 수 있다.Meanwhile, according to another embodiment of the present invention, a situation may be defined in which calculation to identify dense objects is essentially unnecessary, as shown in FIG. 6 above. For example, in the case of the first example 610, if the absolute number of objects, that is, people, detected in the surveillance video is below a certain level, there is a risk of exceeding the predetermined standard density at which risk is expected in any case. It may be judged that there is no such thing. In this case, if the number of objects identified in the first example 610 is, for example, less than the third number of crowded objects, performing a series of calculations for detecting the dense objects can be omitted, and the first example 610 The crowd density of the example 610 may be determined to be lower than the third standard density that can be estimated based on the third crowd density, regardless of the number of crowd objects. The present invention has the effect of simplifying the density calculation method, but by following the above-described embodiments, such simplified calculation can also achieve the effect of further saving.

도 7은 본 발명의 일 실시예에 따른 군중 밀집도 계산 방법을 활용하기 위한 환경설정 화면의 예시도이다. 도 7은 상술한 일체의 실시예를 결합하여 실시하는 경우, 또한 그러한 방법이 컴퓨터 장치와 같은 형태로 실시되는 경우, 그러한 장치를 설정하기 위한 사용자 인터페이스의 형태가 가질 수 있는 한 가지 예를 나타낸다.Figure 7 is an example of an environment setting screen for utilizing the crowd density calculation method according to an embodiment of the present invention. Figure 7 shows an example of the form of a user interface for setting up such a device when all of the above-described embodiments are combined and implemented, and when such a method is implemented in the form of a computer device.

본 발명의 일 실시예에 따르면, 도 7과 같은 환경 설정 화면(700)이 제공될 수 있다. 상기 환경 설명 화면(700)은 계산 조건 설정부(710)와 비상 단계 기준 설정부(720)로 구분되어 표시될 수 있다.According to one embodiment of the present invention, an environment setting screen 700 as shown in FIG. 7 may be provided. The environment description screen 700 may be displayed divided into a calculation condition setting unit 710 and an emergency level standard setting unit 720.

상기 계산 조건 설정부(710)는, 예를 들어, 상기 감시영상이 나타내는 화면 내의 사람 수가 일정 인원(712) 이상인 경우를 지정하거나, 상기 감시영상에 촬영되는 사람의 머리에 대한 기준 크기(714)를 설정하거나, 밀집도의 계산을 위하여 인접간격거리를 계산할 주변 사람 수(716)를 설정하는 화면을 포함할 수 있다. 앞서 개시된 실시예와 비교하면, 상기 일정 인원(712)은 상기 제3밀집인원에 해당하는 것일 수 있고, 상기 기준 크기(714)는 상기 제1길이를 의미할 수 있고, 상기 주변 사람 수(716)는 상기 인접객체를 지정하기 위한 기준인원수를 의미할 수 있으나, 반드시 이에 한정되는 것은 아니다.For example, the calculation condition setting unit 710 specifies a case where the number of people on the screen shown by the surveillance video is more than a certain number of people (712), or sets a standard size (714) for the head of a person captured in the surveillance video. Alternatively, it may include a screen for setting the number of people nearby (716) for calculating the adjacent distance to calculate density. Compared to the previously disclosed embodiment, the certain number of people 712 may correspond to the third crowded number of people, the reference size 714 may mean the first length, and the number of surrounding people 716 ) may mean the standard number of people for designating the adjacent object, but is not necessarily limited to this.

상기 비상 단계 기준 설정부(720)는, 예를 들어, 상기 감시영상이 나타내는 화면 내의 사람들 가운데 인접간격거리가 소정 길이(728) 이내인 사람의 수에 따라 단계별 비상 단계를 설정하여 위험도를 판단하는 내용을 입력하도록 구성될 수 있다. 예를 들어, 1단계 기준 인원(722) 과 2단계 기준 인원(724)과 3단계 기준 인원(726)이 각각 설정되어, 각각의 기준 인원 이상인 경우 해당하는 단계의 비상 단계가 지정되도록 구성될 수 있다. 필요에 따라서는, 상기 단계별로 상기 소정 길이(728) 또한 서로 다르게 정의될 수 있다. 앞서 개시된 실시예와 비교하면, 상기 소정 길이(728)란 상기 감시영상에서 인식된 객체를 밀집 객체로 분류하기 위한 기준이 되는 상기 제2길이를 의미할 수 있고, 상기 1단계, 2단계, 3단계 기준 인원(722, 724, 726)은 상기 제1밀집인원수 및 제2밀집인원수와 같이 단계적으로 그 밀집도가 상승하는 판단에 관련된 여러 단계의 인원수를 의미할 수 있고, 상기 비상 단계는 상기 제1 경고 정보 및 제2 경고 정보와 같이 단계적으로 그 경고의 내용 및/또는 송출 방법이 상이하게 구성되는 여러 단계의 경고 정보가 제공되는 상황을 의미할 수 있으나, 반드시 이에 한정되는 것은 아니다.For example, the emergency level standard setting unit 720 determines the degree of risk by setting emergency levels by step according to the number of people whose adjacent distances are within a predetermined length 728 among the people in the screen shown by the surveillance video. It may be configured to input content. For example, the 1st stage standard number of people (722), the 2nd level standard number of people (724), and the 3rd level number of people (726) are each set, so that if the number of people exceeds each standard number, the emergency level of the corresponding level is designated. there is. If necessary, the predetermined length 728 may also be defined differently for each step. Compared to the previously disclosed embodiment, the predetermined length 728 may mean the second length that is a standard for classifying objects recognized in the surveillance video as dense objects, and the first, second, and third steps The stage standard number of people (722, 724, 726) may refer to the number of people at various stages related to the judgment that the density increases step by step, such as the number of people in the first crowd and the number of people in the second crowd, and the emergency stage is the number of people in the first crowd. This may refer to a situation in which several stages of warning information are provided, such as warning information and second warning information, in which the content and/or transmission method of the warning is configured differently in each stage, but is not necessarily limited to this.

상기 비상 단계는, 본 발명의 바람직한 일 실시예에 따르면, 위험 1단계가 판단되는 경우 그러한 상황 발생을 관할 CCTV 통합관제센터에 이벤트 모니터링 대상으로 통지하는 경고 정보를 생성하는 것을 의미할 수 있고, 위험 2단계가 판단되는 경우 그러한 상황 발생을 위험 관리 담당자의 개인 컴퓨터 또는 휴대전화 등에 통지하고 상기 통합관제센터에는 경광등을 점등시키기 위한 경고 정보를 생성하는 것을 의미할 수 있고, 위험 3단계가 판단되는 경우 감시지역에 대한 음성 안내방송을 송출하고, 감시지역 일대에 재난문자를 발송하고, 경찰(112), 소방(119), 대통령실(대통령경호처 등), 및 관련 재난통신망을 통하여 상황 발생 사실을 자동 신고하기 위한 경고 정보를 생성하는 것을 의미할 수 있다. 이러한 예시 이외에도 이러한 비상 단계와 그에 따른 경고 정보의 생성 유형은 실시자에 의하여 다양한 단계 및 형태로 구성될 수 있다. 또한, 실시방법과 경고 정보의 생성/송출 방법에 따라서는, 일정 수 이상인지의 여부로 구분되는 단계가 아니라 수의 증감에 의해 단계 없이 변동하는 연속적인 방법으로 판단 및 대응하도록 실시되어도 본 발명의 취지에 어긋나지 않는다.According to a preferred embodiment of the present invention, the emergency stage may mean generating warning information that notifies the CCTV integrated control center in charge of the occurrence of such a situation to the subject of event monitoring when risk level 1 is determined, and the risk If level 2 is determined, this may mean notifying the personal computer or mobile phone of the person in charge of risk management of the occurrence of such a situation and generating warning information to turn on warning lights in the integrated control center, and if level 3 risk is determined. Voice announcements are sent to the surveillance area, disaster text messages are sent to the surveillance area, and the situation is reported through the police (112), fire department (119), the Presidential Office (Presidential Security Service, etc.), and related disaster communication networks. This may mean generating warning information for automatic reporting. In addition to these examples, these emergency stages and the corresponding generation types of warning information may be configured in various stages and forms by the operator. In addition, depending on the implementation method and the method of generating/transmitting warning information, the present invention may be implemented to determine and respond in a continuous method that changes without steps by increasing or decreasing the number, rather than in stages divided by whether or not the number is more than a certain number. It does not go against the purpose.

상기 도 7에서 설정된 각각의 기준 정보는 일부가 무시되거나, 사용되지 않거나, 또는 사용자 정의가 되지 않는 경우 기본값으로 적용되도록 미리 설정된 값에 의존하도록 선택될 수 있다. 예를 들어, 본 발명의 실시예에 따라서는, 체크 박스(730)와 같은 수단에 의하여 특정한 유형의 설정값을 선택하여 사용 또는 미사용 상태로 설정할 수 있는 기능이 제공될 수 있다.Each standard information set in FIG. 7 may be selected to depend on a preset value to be applied as a default value if some of it is ignored, not used, or not user-defined. For example, according to an embodiment of the present invention, a function may be provided to select a specific type of setting value and set it to a used or unused state using a means such as a check box 730.

도 8은 본 발명의 일 실시예에 따른 영상 분석에 의하여 군중 밀집도를 계산하는 장치 또는 그러한 장치를 포함하는 시스템을 구성하는 데 대한 개념도이다. 본 발명의 일 실시예에서, 본 발명은 상술한 실시예를 포함하는 방법으로 군중 밀집도를 계산하는 군중 밀집도 계산 장치(800)와, 그에 부속되어 감시지역에 대한 감시영상을 획득하는 촬영부(810), 및 상기 군중 밀집도 계산 장치(800)가 생성한 경고 정보를 송출하기 위한 송출수단(880)을 포함하여 구성될 수 있다. 상기 촬영부(810) 및 상기 송출수단(880)은 상기 군중 밀집도 계산 장치(800)와는 별개의 장치일 수 있으며, 따라서 복수의 장치로 구성되는 시스템을 구성할 수도 있다.Figure 8 is a conceptual diagram of configuring a device for calculating crowd density through image analysis or a system including such a device according to an embodiment of the present invention. In one embodiment of the present invention, the present invention includes a crowd density calculation device 800 that calculates the crowd density by a method including the above-described embodiments, and a photographing unit 810 attached thereto that acquires surveillance images of the surveillance area. ), and a transmitting means 880 for transmitting warning information generated by the crowd density calculation device 800. The photographing unit 810 and the transmitting means 880 may be separate devices from the crowd density calculation device 800, and thus a system consisting of a plurality of devices may be configured.

본 발명의 일 실시예에 따르면, 상기 군중 밀집도 계산 장치(800)는, 메모리(801), 적어도 하나의 프로세서(802), 상기 촬영장치로부터 감시영상을 획득하는 영상수집부(820), 상기 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별하는 객체추출부(830), 상기 객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득하고, 상기 객체와 인접한 적어도 하나의 인접객체 사이의 거리를 상기 감시영상에 표시되는 크기에 기초하여 나타내는 제2측정치를 획득하고, 상기 제1측정치와 상기 사람의 머리 크기를 나타내는 소정의 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산하고, 상기 객체의 인접간격거리가 소정의 제2길이 이하인 경우 상기 객체를 밀집 객체로 분류하고, 상기 감시영상으로부터 식별되는 상기 밀집 객체의 수에 기반하여 상기 감시지역의 군중 밀집도를 계산하는 군중 밀집도 계산부(840), 상기 밀집 객체의 수가 기준인원수 이상인 경우, 상기 군중 밀집도가 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 경고 정보를 생성하는 경고판단부(850), 상기 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하는 정보제공부(860), 및 상기 메모리에 상기 장치를 동작시키는 기본 정보를 저장하는 기본정보부(870)를 포함하도록 구성될 수 있다.According to one embodiment of the present invention, the crowd density calculation device 800 includes a memory 801, at least one processor 802, an image collection unit 820 that acquires surveillance images from the photographing device, and the surveillance. An object extraction unit 830 that analyzes the video to identify at least one human head as an object, obtains a first measurement value indicating the size of the object displayed in the surveillance video, and detects at least one adjacent object adjacent to the object. Obtain a second measurement value representing the distance between the two based on the size displayed in the surveillance image, calculate the ratio between the first measurement value and a predetermined first length representing the size of the person's head, and calculate the second measurement value and Calculate the adjacent spacing distance of the object based on the ratio, classify the object as a dense object if the adjacent spacing distance of the object is less than a predetermined second length, and calculate the adjacent spacing distance of the object based on the ratio. A crowd density calculation unit 840 that calculates the crowd density of the surveillance area based on the crowd density calculation unit 840, which determines that the crowd density is more than the standard density when the number of crowd objects is greater than the standard number of people, and generates warning information for the surveillance area. A warning determination unit 850, an information providing unit 860 that transmits the warning information by at least one method of display, voice, vibration, light, text, or communication, and stores basic information for operating the device in the memory. It may be configured to include a basic information unit 870.

상기 메모리(801)는 컴퓨터 판독 가능 기록 매체로 구성될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로세서 캐시(Cache), 램(RAM), 플래시 메모리와 같이 상기 프로세서(802)가 동작하는 동안만 유지되는 일시적 또는 휘발성 기록매체를 포함할 수 있고, 또는 하드 디스크, 플로피 디스크, 및 자기 테이프와 같은 자기체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 또는 정적 상태 메모리(solid state memory)와 같이 상대적으로 비휘발성적이거나 장기 기록이 가능한 기록매체를 포함할 수 있고, 또는 하드웨어 상에 배치된 롬(ROM)과 같은 읽기 전용의 기록매체를 포함할 수 있으며, 나아가 회로배선에 의한 하드-와이어드(hard-wired) 구조에 의하여 일련의 프로그램 명령과 등가의 동작을 수행하도록 구성된 하드웨어 그 자체 또한 본 발명의 실시예를 구현하는 프로그램 명령이 기록된 기록매체의 일종이 포함될 수 있음은 통상의 기술자에게 자명하다.The memory 801 may be configured as a computer-readable recording medium. The computer-readable recording medium may include a temporary or volatile recording medium that is maintained only while the processor 802 operates, such as a processor cache, RAM, or flash memory, or a hard disk or floppy disk. Magnetic media such as disks and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, or It may include a recording medium that is relatively non-volatile or capable of long-term recording, such as solid state memory, or it may include a read-only recording medium such as ROM placed on hardware. , Furthermore, the hardware itself is configured to perform operations equivalent to a series of program commands through a hard-wired structure using circuit wiring, and is also a type of recording medium on which program commands implementing embodiments of the present invention are recorded. It is obvious to those skilled in the art that this may be included.

상기 프로세서(802)는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 의미할 수 있다. The processor 802 may be a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), a programmable logic unit (PLU), a microprocessor, or an instruction ( It can refer to one or more general-purpose or special-purpose computers, such as any other device capable of executing and responding to instructions.

상기 프로세서(802)는, 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어(software)를 수행하도록 구성될 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 상기 프로세서(802)가 단수로 표현되는 경우라 할지라도, 해당 기술분야에서 통상의 지식을 가진 자는, 상기 프로세서(802)가 복수 개의 처리요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)나 멀티-코어 프로세서(multi-core processor)와 같이, 다양한 처리 구성(processing configuration)에 의하여 구현될 수 있다.The processor 802 may be configured to execute an operating system (OS) and one or more software running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For convenience of understanding, even if the processor 802 is expressed in the singular, those skilled in the art will understand that the processor 802 includes a plurality of processing elements and/or a plurality of types. It can be seen that it may include processing elements. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, it can be implemented by various processing configurations, such as a parallel processor or multi-core processor.

상기 소프트웨어는, 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함하 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 상기 소프트웨어는, 상기 프로세서(802)에 의하여 해석되거나 상기 프로세서(802)에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 상기 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, and may configure a processing unit to operate as desired, independently or collectively. ) can command the processing unit. The software may be used on any type of machine, component, physical device, virtual equipment, or computer storage to be interpreted by the processor 802 or to provide instructions or data to the processor 802. It may be permanently or temporarily embodied in a medium or device, or in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner.

상기 소프트웨어는 또한, 상기 프로세서(802)를 포함하는 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 상기 메모리(801)에 기록되거나 저장될 수 있다. 상기 메모리(801)에는 프로그램 명령, 데이터 파일, 데이터 구조 등이 단독으로 또는 조합되어 기록될 수도 있다. 상기 메모리(801)에 저장되는 프로그램 명령은 본 발명의 실시예를 위하여 특별히 설계되고 구성된 명령 체계에 기반하거나, 또는 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 명령 체계, 예를 들어 어셈블리어(Assembly), C, C++, Java, Python 언어 등으로 예시되는 명령 체계를 따를 수도 있다. 상기 명령 체계 및 그에 의한 프로그램 명령은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함하는 것으로 이해되어야 한다.The software may also be implemented in the form of program instructions that can be executed through various computer means including the processor 802 and recorded or stored in the memory 801. Program commands, data files, data structures, etc. may be recorded singly or in combination in the memory 801. The program instructions stored in the memory 801 are based on a command system specifically designed and configured for embodiments of the present invention, or a command system known and available to those skilled in the art of computer software, such as assembly language, C, You can also follow command systems exemplified by C++, Java, Python languages, etc. The above command system and its program instructions should be understood to include not only machine language code such as that generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter, etc.

상기 메모리(801) 및 상기 프로세서(802)에 대하여 상술한 실시예는 상호 배타적이지 않으며, 필요에 따라 선택되거나 결합되어 실시될 수 있다. 예를 들어, 하나의 하드웨어 장치는 본 발명 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The above-described embodiments of the memory 801 and the processor 802 are not mutually exclusive, and may be selected or combined as needed. For example, one hardware device may be configured to operate as one or more software modules to perform the operations of embodiments of the invention, and vice versa.

본 발명의 일 실시예에 따르면, 상기 군중 밀집도 계산 장치(800)에 있어서, 상기 영상수집부(820), 상기 객체추출부(830), 상기 군중 밀집도 계산부(840), 상기 경고판단부(850), 상기 정보제공부(860), 및 상기 기본판단부(870)는, 상기 프로세서(802)에 포함되는 기능부로 해석될 수 있다.According to one embodiment of the present invention, in the crowd density calculation device 800, the image collection unit 820, the object extraction unit 830, the crowd density calculation unit 840, and the warning judgment unit ( 850), the information providing unit 860, and the basic determination unit 870 can be interpreted as functional units included in the processor 802.

이 때 본 특허발명의 개시에서 상기 프로세서(802)에 "포함"된다 함은, 상기 각각의 기능부의 동작이 상기 프로세서(802)와 관련하여 상술한 다양한 실시예를 포함하는 소프트웨어적 구현, 하드웨어적 구현, 또는 그러한 구현의 결합에 의하여 실시될 수 있음을 의미할 수 있고, 또는, 상기 각각의 기능부가 상기 프로세서(802)를 각각 독립적으로 또는 공유적으로 구비 및/또는 활용하여 동작하도록 구성되었음을 의미할 수 있고, 그 밖에도 특정한 기능을 수행하는 기능부를 소프트웨어적 또는 하드웨어적 형태로 프로세서(802)에 결부되어 동작시키는 모든 행위를 의미하는 것으로서, 통상의 기술자에 의해 자명하게 이해될 수 있는 것을 의미한다. 또한, 상기 프로세서(802)와 유사하게, 상기 각각의 기능부는 상기 메모리(801)에 기록되는 소프트웨어적 구현이거나, 상기 메모리(801)를 각각 독립적으로 또는 공유적으로 구비 및/또는 활용하여 동작하거나, 그 밖에도 특정한 기능의 수행을 위하여 상기 메모리(801)에 결부되어 동작하도록 구성될 수 있음 또한 자명하다.At this time, in the disclosure of this patented invention, “included” in the processor 802 means that the operation of each functional unit includes software implementation or hardware implementation including the various embodiments described above in relation to the processor 802. It may mean that it can be implemented by implementation or a combination of such implementations, or that each of the functional units is configured to operate by independently or jointly providing and/or utilizing the processor 802. It refers to any act of operating a functional part that performs a specific function in conjunction with the processor 802 in software or hardware form, and means that it can be clearly understood by a person skilled in the art. . In addition, similar to the processor 802, each of the functional units is a software implementation recorded in the memory 801, or operates by providing and/or utilizing the memory 801 independently or in common. , It is also obvious that it can be configured to operate in conjunction with the memory 801 to perform a specific function.

상기 촬영부(810)는, 본 발명의 바람직한 일 실시예에서는, 가시광선 영역에서 화상 정보를 연속적 프레임으로 촬영함으로써, 동영상으로 이루어진 상기 감시영상을 획득할 수 있는 장치로서, 바람직하게는 CCTV 카메라일 일 수 있다. 그러나, 본 발명의 다른 실시예에서는, 상기 촬영부(810)는 가시광선 외의 광선영역(적외선, 자외선, X-선을 포함할 수 있다)을 촬영할 수 있도록 구성되는 장치이고, 상기 감시영상에는 그러한 광선영역에서 촬영된 정보가 포함될 수도 있다. 또 다른 실시예에서는, 상기 촬영부(810)는 양안영상(스테레오그래프) 방식 및/또는 깊이(depth) 인식 방식을 통하여 상기 감시 영역(135)의 3차원적 정보를 획득하도록 구성되는 장치이고, 상기 감시영상에는 그러한 3차원적 정보가 또는 복셀(voxel), 메시(mush), 포인트클라우드(point cloud)를 포함하는 3차원 정보 표현 형태로 포함될 수 있다. 상기 촬영부(810)는 두 개 또는 그 이상의 독립된 카메라 장치에 의하여 동시에 상기 화면(920)을 관찰 가능한 표시영역의 동일한, 또는 서로 겹치는, 또는 서로 다른 일부분을 촬영하는 카메라 어레이(camera array)와 같은 형태로 실시될 수도 있으며, 상기 감시영상은 상기 카메라 어레이로부터 획득된 둘 이상의 독립된 영상 정보의 집합을 의미할 수 있다. 상기 촬영부(810)에 대한 다양한 실시예들은 서로 동시에 또는 병합되어 실시될 수 있음이 자명하고, 나아가 상기 실시예들이 의도하는 기술적 사상에 실질적으로 동일하거나 연속적인 것으로써 본 발명의 목적 달성에 기여하는 구성은 모두 본 발명의 변형된 실시형태로 봄이 타당하다.In a preferred embodiment of the present invention, the photographing unit 810 is a device capable of acquiring the surveillance image as a moving image by photographing image information in continuous frames in the visible light region, and is preferably a CCTV camera. It can be. However, in another embodiment of the present invention, the photographing unit 810 is a device configured to photograph a ray region other than visible light (which may include infrared rays, ultraviolet rays, and X-rays), and the surveillance image includes such Information captured in the ray region may also be included. In another embodiment, the photographing unit 810 is a device configured to obtain three-dimensional information of the surveillance area 135 through a binocular image (stereograph) method and/or a depth recognition method, The surveillance video may include such 3D information in the form of 3D information expressions including voxels, meshes, and point clouds. The photographing unit 810 is a camera array that photographs the same, overlapping, or different portions of the display area where the screen 920 can be viewed simultaneously by two or more independent camera devices. It may be implemented in any form, and the surveillance video may refer to a set of two or more independent image information obtained from the camera array. It is obvious that various embodiments of the photographing unit 810 can be implemented simultaneously or in combination with each other, and furthermore, they contribute to achieving the purpose of the present invention by being substantially the same or continuous with the technical idea intended by the embodiments. It is reasonable to view all of the configurations as modified embodiments of the present invention.

상기 영상수집부(820)는 상기 촬영부(810)가 촬영한 감시영상을 수신하는 기능부일 수 있다. 상기 촬영부(810)는, 예를 들면, 군중이 밀집할 우려가 있는 감시지역을 조망하는 적어도 하나의 CCTV 카메라 중 하나를 의미할 수 있으나, 이에 한정되는 것은 아니다. 상기 수신되는 감시영상은 픽셀(pixel) 정보에 의하여 표현되는 영상의 형태일 수 있으나, 그 외의 수단이더라도 본 발명에 의한 상기 군중 밀집도 계산 장치(800)의 동작이 성립할 수 있는 실시방법이라면 어떠한 형태여도 무방하다. 예를 들어, 상기 영상은 기존의 영상으로부터 변화한 내용만을 표시하는 차분값(differential) 및/또는 움직임 벡터(motion vector)만으로 구성되어 있어도 무방하다. 또한, 상기 영상은 벡터 이미지의 일종으로 인코딩된 디지털 영상이거나, 또는 연속적 신호로 형성된 아날로그 신호 영상이거나, 또는 복셀(voxel), 메시(mush), 포인트클라우드(point cloud)와 같이 3차원적으로 표시되는 영상정보일 수 있으며, 그 외에 감시영상의 목적으로 취득될 수 있는 어떠한 시각적인 정보의 형태라 하여도 무방하다. 또한 상기 영상수집부는, 상기 촬영부(810)로부터 제1형태로 제공된 영상을 상기 밀집도 계산 장치(800)의 동작에 적합한 제2형태로 변환하여 수신 처리하는 동작을 더 수행하도록 구성될 수도 있다.The image collection unit 820 may be a functional unit that receives surveillance images captured by the photographing unit 810. The photographing unit 810 may mean, for example, one of at least one CCTV camera that views a surveillance area where there is a risk of crowds, but is not limited thereto. The received surveillance video may be in the form of an image expressed by pixel information, but any method of implementation can establish the operation of the crowd density calculation device 800 according to the present invention even if it is other means. It is okay to do so. For example, the image may be composed of only differential values and/or motion vectors that indicate only changes from the existing image. In addition, the image may be a digital image encoded as a type of vector image, an analog signal image formed of continuous signals, or a three-dimensional display such as a voxel, mesh, or point cloud. It may be any form of visual information that can be acquired for the purpose of surveillance video. In addition, the image collection unit may be configured to further perform an operation of converting the image provided in a first form from the photographing unit 810 into a second form suitable for operation of the density calculation device 800 and receiving and processing the image.

상기 객체추출부(830)는 상기 영상수집부(820)로부터 감시지역에 대한 감시영상을 획득하고 상기 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별하도록 구성될 수 있다. 상기 객체추출부(830)는 상기 객체를 식별하기 위한 패턴 인식 또는 객체 인식 알고리즘을 포함하도록 구성될 수 있다. 상기 머리 객체의 식별을 위해, 상기 객체추출부(830)에는 적어도 하나의 상기 프로세서(802)와 적어도 하나의 상기 메모리(801)에 기반하여 동작하는 영상 분석 인공지능이 포함될 수 있다. 예를 들어, 본 발명의 일 실시예에 따르면, 상기 객체추출부(830)는 기계학습(machine learning)이 가능한 심층신경망(deep neural network)에 기반한 인공지능을 포함하도록 구성될 수 있다. 상기 객체추출부(830)가 수행하여야 하는 식별 동작의 실현을 위하여, 상기 인공지능은 사전에 지도학습 또는 비지도학습에 의하여 훈련된 영상 분석 인공지능 모델을 포함할 수 있다. 본 발명의 실시예에 따라서는, 상기 인공지능 모델은 합성곱(covolution) 기반의 신경망(convolutional neural network, CNN)으로 구현될 수 있다.The object extraction unit 830 may be configured to obtain surveillance images of the surveillance area from the image collection unit 820 and analyze the surveillance images to identify at least one human head as an object. The object extraction unit 830 may be configured to include a pattern recognition or object recognition algorithm for identifying the object. To identify the head object, the object extraction unit 830 may include an image analysis artificial intelligence that operates based on at least one processor 802 and at least one memory 801. For example, according to one embodiment of the present invention, the object extraction unit 830 may be configured to include artificial intelligence based on a deep neural network capable of machine learning. In order to realize the identification operation that the object extraction unit 830 must perform, the artificial intelligence may include an image analysis artificial intelligence model previously trained through supervised learning or unsupervised learning. According to an embodiment of the present invention, the artificial intelligence model may be implemented as a convolutional neural network (CNN).

상기 군중 밀집도 계산부(840)는 상기 군중 밀집도의 계산을 위하여 상기 도 1 내지 도 6을 참조하여 설명한 바와 같거나 실질적으로 동일한 결과를 도출하는 여타의 방법에 의하여 본 발명에 의한 군중 밀집도의 계산 방법을 실행하도록 구성될 수 있다.The crowd density calculation unit 840 calculates the crowd density according to the present invention by using the same method as described with reference to FIGS. 1 to 6 or any other method that produces substantially the same results. Can be configured to run.

예를 들어, 본 발명의 일 실시예에 따르면, 상기 군중 밀집도 계산부(840)는 사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 제1길이를 상기 메모리(801)로부터 읽어들이고, 상기 객체추출부(830)가 식별한 각각의 상기 객체가 상기 표시영상에서 차지하는 픽셀의 개수에 기반하여 상기 제1측정치를 획득하고, 상기 객체와 상기 인접객체 사이에 존재하는 픽셀의 개수에 기반하여 상기 제2측정치를 획득하고, 상기 제1측정치와 상기 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산하고, 어떠한 객체와 주변의 인접객체 간의 인접간격거리가 소정의 길이, 이를테면 제2길이 이내로 계산되는 경우, 이를 사람과 사람이 밀집되어 서로 가깝게 밀착하여 있는 상태로 판단하여 상기 밀집 객체로 분류하고, 상기 감시영상으로부터 식별되는 상기 밀집 객체의 수에 기반하여 상기 감시지역의 군중 밀집도를 계산하도록 구성될 수 있다.For example, according to one embodiment of the present invention, the crowd density calculation unit 840 reads a first length related to at least one of the width, length, and height of a person's head from the memory 801, and , the first measurement value is obtained based on the number of pixels that each object identified by the object extraction unit 830 occupies in the display image, and based on the number of pixels existing between the object and the adjacent object. Obtain the second measurement value, calculate the ratio between the first measurement value and the first length, calculate the adjacent spacing distance of the object based on the second measurement value and the ratio, and determine the proximity of the object to the surrounding area. When the adjacent distance between objects is calculated to be within a predetermined length, for example, a second length, this is judged to be a state in which people are crowded and closely attached to each other, and is classified as the dense object, and the dense object identified from the surveillance video is judged to be in close contact with each other. It may be configured to calculate crowd density in the surveillance area based on the number of objects.

또한, 본 발명의 실시예에 따라서는, 상기 감시영상으로부터 적어도 제1객체와 제2객체를 식별하고, 상기 제1객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득하고, 상기 제1객체와 상기 제2객체 간의 거리가 상기 감시영상에 표시되는 크기를 나타내는 제2측정치를 획득하고, 상기 제2객체가 상기 감시영상에 표시되는 크기를 나타내는 제3측정치를 획득하고, 상기 제1측정치와 제3측정치의 비율에 기반하여 상기 제2측정치를 보정하는 동작을 더 수행하도록 구성되어도 무방하다.In addition, according to an embodiment of the present invention, at least a first object and a second object are identified from the surveillance image, a first measurement value indicating a size at which the first object is displayed in the surveillance image is obtained, and the first object is identified. Obtaining a second measurement value indicating the size at which the distance between the first object and the second object is displayed on the surveillance image, obtaining a third measurement value representing the size at which the second object is displayed on the surveillance image, and obtaining the first measurement value representing the size at which the second object is displayed on the surveillance image. It may be configured to further perform an operation of correcting the second measurement value based on the ratio of the measurement value and the third measurement value.

상기 경고판단부(850)는 상기 군중 밀집도의 계산을 위하여 상기 도 6 내지 도 7 등을 참조하여 설명한 바와 같거나 실질적으로 동일한 결과를 도출하는 여타의 방법에 의하여 본 발명에 의한 경고 정보를 생성하도록 구성될 수 있다.The warning determination unit 850 generates warning information according to the present invention by using the same method as described with reference to FIGS. 6 to 7 or other methods that produce substantially the same results for calculating the crowd density. It can be configured.

예를 들어, 본 발명의 일 실시예에 따르면, 상기 경고판단부(850)는, 상기 메모리(801)로부터 제1 기준 밀집도를 판단하기 위한 정보를 읽어들이고, 상기 군중 밀집도 계산부(840)가 계산한 군중 밀집도가 상기 제1 기준 밀집도를 초과하는 것으로 판단되는 경우, 이에 대한 경고 정보를 생성하도록 구성될 수 있다. 또한, 상기 경고판단부(850)는, 상기 메모리(801)로부터 상기 제1 기준 밀집도보다 더욱 밀집도가 높은 상기 제2 기준 밀집도를 판단하기 위한 정보를 읽어들이도록 구성될 수 있고, 그 외의 더욱 다양한 수준의 밀집도를 판단하기 위한 정보를 더 읽어들이도록 구성될 수 있다. 또한, 상기 군중 밀집도 계산부(840)가 계산한 군중 밀집도가 상기 제2 기준 밀집도를 포함하는 다양한 단계에 대한 밀집도를 초과한다고 판단되는 경우, 그 내용 및/또는 송출 형식이 적어도 일부분 상이한 제1 경고 정보, 제2 경고 정보, 및 그 외의 다양한 수준의 경고 정보를 생성하도록 구성될 수 있다. 즉, 적어도 둘 이상의 서로 다른 단계에 의하여 기준 밀집도가 정의되고, 각각의 기준 밀집도에 상응하는 단계별 경고 정보가 생성되도록 구성될 수도 있다.For example, according to one embodiment of the present invention, the warning determination unit 850 reads information for determining the first reference density from the memory 801, and the crowd density calculation unit 840 If it is determined that the calculated crowd density exceeds the first standard density, it may be configured to generate warning information. In addition, the warning determination unit 850 may be configured to read information from the memory 801 for determining the second standard density, which is higher than the first standard density, and may be configured to read information for determining the second standard density, which is higher than the first standard density. It may be configured to read more information to determine the density of the level. In addition, when it is determined that the crowd density calculated by the crowd density calculation unit 840 exceeds the density for various stages including the second standard density, a first warning whose content and/or transmission format is at least partially different from It may be configured to generate information, secondary warning information, and other various levels of warning information. That is, the standard density is defined by at least two different stages, and stage-level warning information corresponding to each standard density may be generated.

나아가, 본 발명의 실시예에 따라서는, 상기 경고판단부(850)는 상기 군중 밀집도가 일정 기준 밀집도 이상인지의 여부로 구분되는 단계가 아니라, 밀집도 판단 기준의 증감에 의해 단계 없이 변동하는 연속적인 방법으로 경고의 수준이나 내용을 판단하도록 구성되더라도 본 발명의 취지에 어긋나지 않는다.Furthermore, according to an embodiment of the present invention, the warning determination unit 850 does not perform a stage in which the crowd density is divided by whether or not the crowd density is above a certain standard density, but a continuous stage that changes without a stage due to an increase or decrease in the density judgment standard. Even if the method is configured to determine the level or content of the warning, it does not violate the spirit of the present invention.

상기 정보제공부(860)는 상기 경고판단부(850)가 생성한 경고 정보를 상기 송출수단(880)을 통하여 송출하는 동작을 수행하기 위한 기능부일 수 있으며, 이 때 "송출"이란 상술한 바와 같이 그 사전적 의미 이외에도 상기와 같은 군중 밀집도 계산 방법에 의하여 경고 정보가 생성되는 경우 이를 최종적으로 목적하는 경고 대상에게 도달시키기 위한 여하의 정보 생성을 포함하는 것으로 이해되어야 할 것이다. 상기 정보의 생성 방법이나 내용은 상기 경고 정보의 실시예에 관련하여 상기 도 7 등을 참조하여 설명한 바와 같거나 실질적으로 동일한 결과를 도출하는 여타의 방법에 의해 실시될 수 있다.The information providing unit 860 may be a functional unit for performing an operation of transmitting the warning information generated by the warning determination unit 850 through the transmitting means 880. In this case, “transmitting” is as described above. Likewise, in addition to the dictionary meaning, when warning information is generated by the above crowd density calculation method, it should be understood to include the generation of any information to ultimately reach the intended warning target. The method or content of generating the information may be the same as that described with reference to FIG. 7 or the like in relation to the embodiment of the warning information, or may be implemented by any other method that produces substantially the same results.

기본정보부(870)는 상기 밀집도 계산 장치(800)의 동작목적을 달성하기 위하여 상기 각각의 기능부가 동작하는 데 필요한 기본 정보를 상기 메모리(801)에 저장하는 역할을 수행하는 기능부일 수 있다. 본 발명에 실시예에 따라서, 상기 기본정보부(870)는, 사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 상기 제1길이, 사람과 사람 사이의 간격에 관련된 상기 제2길이, 군중의 밀집도와 관련된 제1기준인원수, 군중의 밀집도와 관련되고 상기 제1기준인원수보다 많은 제2기준인원수, 군중의 밀집도와 관련된 제3기준인원수, 및 상기 인접간격거리의 계산에 포함할 인접객체의 수를 나타내는 제4기준인원수 중 적어도 하나를 입력 받아 상기 메모리에 저장하도록 구성되는 기능부일 수 있다. 상기 기본정보부(870)는, 따라서, 본 발명의 일 실시예에서는 상기 도 7에 나타나는 환경 설정 화면의 표시 및 그에 대한 입력과 관련하여 동작하는 기능부일 수 있다.The basic information unit 870 may be a functional unit that stores in the memory 801 basic information necessary for each functional unit to operate in order to achieve the operation purpose of the density calculation device 800. According to an embodiment of the present invention, the basic information unit 870 includes the first length related to at least one of the width, length, and height of a person's head, the second length related to the distance between people, A first standard number of people related to the density of the crowd, a second standard number of people related to the density of the crowd and greater than the first standard number of people, a third standard number of people related to the density of the crowd, and adjacent objects to be included in the calculation of the adjacent spacing distance. It may be a function unit configured to receive at least one of the fourth standard number of people representing the number of and store it in the memory. Therefore, in one embodiment of the present invention, the basic information unit 870 may be a functional unit that operates in relation to the display of and input to the environment setting screen shown in FIG. 7.

상기 송출수단(880)은, 상기 정보제공부(860)로부터 경고 정보와 관련하여 송출을 위한 정보가 생성되는 경우 이를 최종적으로 목적하는 경고 대상에게 도달시키기 위한 여하의 송출수단을 포함하는 것으로 이해되어야 할 것이다. 상기 경고 정보를 송출하는 방법은, 예를 들면, 표시, 음성, 진동, 빛, 문자, 통신 등을 포함할 수 있으나, 이에 한정되지 아니한다. 상술한 예와 같이, 상기 송출수단은 경고 정보를 표시하는 화면이거나, 점등하는 경보등이거나, 음성 또는 경보음을 재생하는 스피터이거나, 진동 버저(buzzer)와 같은 장치일 수 있다. 또는, 상기 정보제공부(860), 즉 상기 밀집도 계산 장치(800)에 어떠한 임의의 규격에 의한 통신 메시지의 형태로 유선 또는 무선으로 구성되는 회로나 통신 네트워크를 포함하는 회선을 의미하거나, 상기 회선에 의하여 상기 밀집도 계산 장치(800)에 연결되어 상기 경고 정보의 송출을 실행하도록 구성된 컴퓨터 장치를 포함하는 다른 임의의 형태의 장치 또는 시스템을 의미할 수 있다.The transmitting means 880 should be understood to include any transmitting means for ultimately reaching the intended warning target when information for transmission in relation to warning information is generated from the information providing unit 860. something to do. Methods for transmitting the warning information may include, for example, display, voice, vibration, light, text, communication, etc., but are not limited thereto. As in the above-described example, the transmitting means may be a screen that displays warning information, a warning light that turns on, a speaker that plays a voice or warning sound, or a device such as a vibrating buzzer. Alternatively, the information provider 860, that is, the density calculation device 800, refers to a line including a wired or wireless circuit or communication network in the form of a communication message according to any standard, or the line may refer to any other type of device or system including a computer device connected to the density calculation device 800 and configured to transmit the warning information.

도 9는 본 발명의 바람직한 일 실시예에 의한 군중 밀집도 계산 및 정보 제공 시스템의 실시예에 대한 개념도이다. 도 9의 시스템(900)은 상기 도 1 내지 도 7을 통하여 설명한 방법 및 도 8에 나타난 것과 같은 장치 및/또는 시스템을 구체화한 바람직한 실시예의 일종으로 이해될 수 있으며, 다만 유일하거나 특별히 권장되거나 특별히 더욱 유익한 실시예를 의미하지는 않는다.Figure 9 is a conceptual diagram of an embodiment of a crowd density calculation and information provision system according to a preferred embodiment of the present invention. The system 900 of FIG. 9 can be understood as a kind of preferred embodiment embodying the method described with reference to FIGS. 1 to 7 and the device and/or system as shown in FIG. 8, but is not the only, particularly recommended, or particularly preferred embodiment. It does not imply a more advantageous embodiment.

도 9의 시스템(900)에서는 촬영부로서 다수의 CCTV(910)가 구성될 수 있다. 상기 다수의 CCTV(910)는 CCTV 영상수집부(940)에 스트리밍 영상 또는 녹화 영상의 형태로 영상 정보를 제공하고, 상기 스트리밍 영상 정보는 CCTV 스트리밍 영상 수집 기능(942)에 의하여, 상기 녹화 영상 정보는 CCTV 녹화영상 파일 수집 기능(944)에 의하여 수집될 수 있다. 상기 CCTV 녹화영상 파일 수집 기능(944)은 상기 CCTV 스트리밍 영상 수집 기능(942)에 의하여 실시간으로 수집된 영상 정보를 파일의 형태로 재수집하도록 구성될 수도 있다. 상기 다수의 CCTV(910)는 상기 CCTV 영상수집부(940)에 연결되기 위하여 표준 RTSP(Real-time Streaming Protocol) 서버(920)를 경유하거나, VMS(Video management systems) 서버(922)를 경유하거나, NVR(Network video recorder) 서버(924) 서버를 경유하는 네트워크 상에 배치될 수 있다.In the system 900 of FIG. 9, a plurality of CCTVs 910 may be configured as a photographing unit. The plurality of CCTVs 910 provide video information in the form of streaming video or recorded video to the CCTV video collection unit 940, and the streaming video information is collected by the CCTV streaming video collection function 942. Can be collected by the CCTV recorded video file collection function (944). The CCTV recorded video file collection function 944 may be configured to re-collect video information collected in real time by the CCTV streaming video collection function 942 in the form of a file. The plurality of CCTVs 910 are connected to the CCTV image collection unit 940 via a standard RTSP (Real-time Streaming Protocol) server 920, a VMS (Video management systems) server 922, or , It can be placed on a network via a network video recorder (NVR) server 924 server.

상기 CCTV 영상수집부(940)에 의하여 제공된 CCTV 감시영상은 군중 밀집도 계산부(950)에 제공될 수 있다. 상기 군중 밀집도 계산부(950)는 상기 감시영상으로부터 머리 객체를 추출(952)하고, 상기 머리 객체의 픽셀수와 머리 객체 간 픽셀수에 따른 밀집도에 따라 단계적 이벤트의 발생을 판단(954)하는 기능을 포함하여 구성될 수 있다. 상기 군중 밀집도 계산부(950)는 소정 밀집도를 초과하는 상황에서 경고 정보를 생성할 수 있고, 상기 경고 정보는 정보제공부(960)로 제공되어, 상기 정보제공부가 생성 및 제공하는 정보제공 API(962)에 의하여 송출되도록 구성될 수 있다.The CCTV surveillance video provided by the CCTV image collection unit 940 may be provided to the crowd density calculation unit 950. The crowd density calculation unit 950 extracts a head object from the surveillance video (952) and determines the occurrence of a step-by-step event according to the density according to the number of pixels of the head object and the number of pixels between the head objects (954). It may be configured to include. The crowd density calculation unit 950 can generate warning information in situations where the crowd density exceeds a predetermined density, and the warning information is provided to the information provision unit 960, and the information provision unit 960 generates and provides information providing API ( 962) can be configured to be transmitted.

또한, 상기와 같은 시스템(900)의 동작을 위하여, 기본정보부(930)에 의하여 다양한 시스템 운용 정보가 설정될 수 있다. 예를 들어, 상기 머리 객체의 픽셀수와 머리 객체 간 픽셀수에 따른 밀집도에 따라 단계적 이벤트의 발생을 판단하기 위한 정보를 설정(932)하는 기능이나, 상기 시스템에 접속되는 제반 API를 관리하기 위한 기능(934)이나, 상기 다수의 CCTV(910) 각각에 대한 정보 관리 및 동기화를 위한 정보를 설정하는 기능(936)이 포함되도록 구성될 수 있다.Additionally, for the operation of the system 900 as described above, various system operation information may be set by the basic information unit 930. For example, a function for setting (932) information for determining the occurrence of a staged event according to the density according to the number of pixels of the head object and the number of pixels between the head objects, or a function for managing all APIs connected to the system It may be configured to include a function 934 or a function 936 for setting information for information management and synchronization for each of the plurality of CCTVs 910.

도 10은 본 발명의 일 실시예에 따른 군중 밀집도 계산 방법을 요약하여 표시한 순서도이다. 도 10은 본 발명에 따른 군중 밀집도 계산 방법을 일반화하여 정리한 것으로서, 도 9의 시스템(900)은 상기 도 1 내지 도 7을 통하여 설명한 방법 및 도 8 내지 9에 나타난 것과 같은 장치 및/또는 시스템의 동작 방법에 대한 바람직한 실시예의 일종으로 이해될 수 있으며, 다만 유일하거나 특별히 권장되거나 특별히 더욱 유익한 실시예를 의미하지는 않는다.Figure 10 is a flowchart summarizing the crowd density calculation method according to an embodiment of the present invention. Figure 10 is a general summary of the crowd density calculation method according to the present invention, and the system 900 of Figure 9 is the method described through Figures 1 to 7 and the device and/or system as shown in Figures 8 to 9. It can be understood as a kind of preferred embodiment of the operating method, but does not mean that it is the only, particularly recommended, or particularly more advantageous embodiment.

본 발명의 일 실시예에 따른 방법에 있어서는, 먼저 CCTV와 같은 촬영부로부터 감시영상을 취득(S1010)할 수 있다. 다음으로, 상기 취득된 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별하고, 상기 각각의 객체가 상기 감시영상에 표시되는 표시크기를 획득(S1020)할 수 있다. 만약 상기 객체의 수가 제1기준수보다 적은 경우(S1025), 인접객체와 관련된 이후의 계산을 생략하고 문제가 없다는 판단(S1095)을 내릴 수 있다.In the method according to an embodiment of the present invention, surveillance images can first be acquired from a capture unit such as CCTV (S1010). Next, the acquired surveillance video can be analyzed to identify at least one human head as an object, and the display size of each object displayed in the surveillance video can be obtained (S1020). If the number of objects is less than the first standard number (S1025), subsequent calculations related to adjacent objects can be skipped and it can be determined that there is no problem (S1095).

그렇지 않은 경우, 상기 각각의 객체를 순차적으로 선택(S1030)하고, 상기 객체에 인접한 기준인원수의 인접객체를 지정하여 인접개체군을 생성(S1040)할 수 있다. 다음으로, 상기 객체로부터 상기 인접객체군에 속한 각각의 인접객체에 대한 개별 인접간격거리를 계산(S1050)할 수 있다. 다음으로, 상기 개별 인접간격거리를 각 객체의 표시크기 차이를 기준으로 하여 보정(S1060)할 수 있다. 다음으로, 상기 개별 인접간격거리의 평균에 기반하여 상기 객체의 평균 인접간격거리를 계산(S1070)할 수 있다. 상기와 같은 계산 절차는 화면 내의 모든 객체 각각에 대하여 반복(S1080)될 수 있다.If not, each object may be sequentially selected (S1030), and adjacent objects with a standard number of people adjacent to the object may be designated to create a group of adjacent objects (S1040). Next, the individual adjacent interval distance for each adjacent object belonging to the adjacent object group can be calculated from the object (S1050). Next, the individual adjacent spacing distance can be corrected (S1060) based on the difference in display size of each object. Next, the average adjacent distance of the object may be calculated based on the average of the individual adjacent distances (S1070). The above calculation procedure can be repeated for each object in the screen (S1080).

모든 객체에 대하여 상기 인접간격거리의 계산이 완료된 경우, 상기 인접간격거리, 즉 객체간 평균 거리가 기준거리 이하인 밀집 객체의 수를 계수하여, 상기 밀집 객체가 제2기준수보다 많은지를 판단(S1085)할 수 있다. 만약 상기 밀집 객체의 수가 상기 제2기준수에에 미달하는 경우, 문제가 없다는 판단(S1095)을 내릴 수 있다. 반대로, 상기 제2기준수보다 많은 경우, 위험 요소가 발견되었다는 판단(S1090)을 내릴 수 있다.When the calculation of the adjacent distance is completed for all objects, the number of dense objects whose adjacent distance, that is, the average distance between objects, is less than or equal to the standard distance is counted, and it is determined whether the number of dense objects is greater than the second standard number (S1085 )can do. If the number of dense objects is less than the second standard number, it can be determined (S1095) that there is no problem. Conversely, if the number is greater than the second standard number, it can be determined (S1090) that a risk factor has been discovered.

상기 취득된 감시영상에 대해 위험하다는 판단(S1090) 또는 위험하지 않다는 판단(S1095)이 이루어진 뒤에는, 새로운 감시영상이 취득(S1010)되어 상기의 절차가 반복될 수 있다.After the acquired surveillance image is judged to be dangerous (S1090) or not dangerous (S1095), a new surveillance image may be acquired (S1010) and the above procedure may be repeated.

상술한 바와 같이 상기 도 10의 순서도는 본 발명에서 개시한 본 발명의 주요한 실시방법에 대한 순차적 실시방법을 일반화하여 나타내고 있는 것이며, 상기 도 10의 순서도에 나타난 비필수적인 일부 단계는 생략될 수 있고, 반면에 일부 단계는 중복 실행되거나, 여러 단계로 달리 판단되도록 구성될 수 있고, 또한 처리 순서의 전후가 변경될 수도 있다.As described above, the flow chart of FIG. 10 generalizes and shows the sequential implementation method of the main implementation method of the present invention disclosed in the present invention, and some non-essential steps shown in the flow chart of FIG. 10 may be omitted, On the other hand, some steps may be executed repeatedly, may be configured to be judged differently in several steps, and may also change before and after the processing order.

이상 본 발명에 대하여 도면 및 실시예를 참조하여 설명하였으나, 이미 상술한 바와 같이 본 발명의 보호범위가 상기 제시된 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to the drawings and examples, as already described above, this does not mean that the scope of protection of the present invention is limited by the drawings or examples presented above, and those skilled in the art will It will be understood that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims.

Claims (20)

영상 분석에 의한 군중 밀집도 계산 방법에 있어서,
사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 제1길이 및 사람과 사람 사이의 간격에 관련된 제2길이를 설정하는 단계;
군중의 밀집도와 관련된 제3기준인원수를 설정하는 단계;
촬영장치로부터 감시지역에 대한 감시영상을 획득하는 단계;
상기 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별하는 단계;
상기 감시영상에서 식별되는 객체의 수가 상기 제3기준인원수 이하인 경우, 이후의 단계를 생략하고 밀집 객체의 수와 무관하게 상기 군중 밀집도가 제3 기준 밀집도 이하인 것으로 계산하는 단계;를 포함하고,
상기 감시영상에서 식별되는 객체의 수가 상기 제3기준인원수를 초과하는 경우,
상기 객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득하는 단계;
상기 객체와 인접한 적어도 하나의 인접객체 사이의 거리를 상기 감시영상에 표시되는 크기에 기초하여 나타내는 제2측정치를 획득하는 단계;
상기 제1측정치와 상기 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산하는 단계;
상기 객체의 인접간격거리가 상기 제2길이 이하인 경우 상기 객체를 객체 단위로 상기 밀집 객체로 분류하는 단계; 및
상기 감시영상으로부터 식별되는 상기 밀집 객체의 수를 계수(計數)하여 상기 감시 지역의 군중 밀집도를 계산하는 단계;를 포함하는, 방법.
In the method of calculating crowd density by video analysis,
setting a first length related to at least one of the width, length, and height of a person's head and a second length related to the distance between people;
Setting a third standard number of people related to crowd density;
Obtaining surveillance images of the surveillance area from a photographing device;
Analyzing the surveillance video to identify at least one human head as an object;
If the number of objects identified in the surveillance video is less than or equal to the third standard number of people, omitting subsequent steps and calculating that the crowd density is less than or equal to the third standard density regardless of the number of crowded objects;
If the number of objects identified in the surveillance video exceeds the third standard number of people,
Obtaining a first measurement value indicating a size at which the object is displayed in the surveillance video;
Obtaining a second measurement value representing the distance between the object and at least one adjacent object based on a size displayed in the surveillance image;
calculating a ratio between the first measurement and the first length, and calculating an adjacent spacing distance of the object based on the second measurement and the ratio;
classifying the object as the dense object on an object-by-object basis when the adjacent distance between the objects is less than or equal to the second length; and
A method comprising: calculating the crowd density of the surveillance area by counting the number of dense objects identified from the surveillance video.
제 1 항에 있어서,
군중의 밀집도와 관련된 제1기준인원수를 설정하는 단계;
상기 밀집 객체의 수가 상기 제1기준인원수 이상인 경우, 상기 군중 밀집도가 제1 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 제1 경고 정보를 생성하는 단계; 및
상기 제1 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하는 단계;를 더 포함하는, 방법.
According to claim 1,
Setting a first standard number of people related to the density of the crowd;
When the number of crowded objects is greater than or equal to the first standard number of people, determining that the crowd density is greater than or equal to the first standard density and generating first warning information for the surveillance area; and
Transmitting the first warning information in at least one of display, voice, vibration, light, text, and communication methods. The method further comprising a.
제 2 항에 있어서,
군중의 밀집도와 관련되고, 상기 제1기준인원수보다 많은 제2기준인원수를 설정하는 단계;
상기 밀집 객체의 수가 상기 제2기준인원수 이상인 경우, 상기 군중 밀집도가 제2 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 제2 경고 정보를 생성하는 단계; 및
상기 제2 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하는 단계;를 더 포함하고,
상기 제1 경고 정보와 상기 제2 경고 정보는 상이한, 방법.
According to claim 2,
setting a second standard number of people related to the density of the crowd and greater than the first standard number of people;
When the number of crowded objects is greater than or equal to the second standard number of people, determining that the crowd density is greater than or equal to the second standard density and generating second warning information for the surveillance area; and
Transmitting the second warning information by at least one method among display, voice, vibration, light, text, and communication,
The first warning information and the second warning information are different.
제 2 항에 있어서,
상기 제1 경고 정보를 송출하는 단계는, 상기 제1 경고 정보를 상기 감시지역에 위치한 적어도 한 명의 사람에게 송출하는 단계를 포함하는, 방법.
According to claim 2,
The method of transmitting the first warning information includes transmitting the first warning information to at least one person located in the surveillance area.
제 2 항에 있어서,
상기 제1 경고 정보를 송출하는 단계는, 상기 제1 경고 정보를 상기 감시지역의 관리자, 상기 촬영장치의 관리자, 및 상기 감시지역의 안전관리자 중 적어도 한 명에게 송출하는 단계를 포함하는, 방법.
According to claim 2,
The method of transmitting the first warning information includes transmitting the first warning information to at least one of a manager of the surveillance area, a manager of the imaging device, and a safety manager of the surveillance area.
제 2 항에 있어서,
상기 경고 정보를 송출하는 단계는, 상기 제1 경고 정보를 상기 감시지역에 관련된 민간 또는 공공의 관리단체, 경찰기관, 소방기관, 군기관, 중앙행정기관, 및 지방행정기관 중 적어도 한 곳에 송출하는 단계를 포함하는, 방법.
According to claim 2,
The step of transmitting the warning information includes transmitting the first warning information to at least one of a private or public management organization, police agency, fire agency, military agency, central administrative agency, and local administrative agency related to the surveillance area. A method comprising steps.
삭제delete 제 1 항에 있어서,
상기 감시영상은 픽셀(pixel) 정보에 의하여 표현되는 영상이고,
상기 제1측정치는 상기 객체가 상기 감시영상에서 차지하는 픽셀의 개수에 기반하여 획득되고,
상기 제2측정치는 상기 객체와 상기 인접객체 사이에 존재하는 픽셀의 개수에 기반하여 획득되는, 방법.
According to claim 1,
The surveillance video is an image expressed by pixel information,
The first measurement value is obtained based on the number of pixels that the object occupies in the surveillance image,
Wherein the second measurement is obtained based on the number of pixels existing between the object and the adjacent object.
제 1 항에 있어서,
상기 인접객체가 상기 감시영상에 표시되는 크기를 나타내는 제3측정치를 획득하는 단계를 더 포함하고,
상기 인접간격거리를 계산하는 단계는, 상기 제1측정치와 제3측정치의 비율에 기반하여 상기 제2측정치를 보정하는 단계를 포함하는, 방법.
According to claim 1,
Further comprising obtaining a third measurement value representing the size at which the adjacent object is displayed in the surveillance image,
The method of claim 1 , wherein calculating the adjacent spacing distance includes correcting the second measurement based on a ratio of the first measurement and the third measurement.
제 1 항에 있어서,
상기 인접간격거리의 계산에 포함할 인접객체의 수를 나타내는 제4기준인원수를 설정하는 단계;를 더 포함하고,
상기 인접간격거리를 계산하는 단계는, 상기 객체에 인접한 상기 제4기준인원수의 인접객체를 지정하고, 상기 객체로부터 상기 각각의 인접객체에 대한 개별 인접간격거리를 계산하고, 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 단계를 포함하고,
상기 평균은 산술 평균, 기하 평균, 조화 평균, 가중 평균, 중앙값, 최빈수, 및 멱평균에 속하는 평균법 중 어느 하나에 의하여 도출되는, 방법.
According to claim 1,
It further includes setting a fourth standard number of people representing the number of adjacent objects to be included in the calculation of the adjacent spacing distance,
The step of calculating the adjacent distance includes specifying the fourth standard number of adjacent objects adjacent to the object, calculating individual adjacent distances for each adjacent object from the object, and determining the individual adjacent distances. Comprising the step of calculating the adjacent interval distance based on the average,
The method wherein the average is derived by any one of the average methods belonging to arithmetic mean, geometric mean, harmonic mean, weighted mean, median, mode, and power mean.
제 10 항에 있어서,
상기 인접간격거리를 계산하는 단계는,
상기 감시영상에서 상기 객체와 수평위치가 중첩되는 다른 객체들에 대하여 상기 객체로부터의 개별 제2측정치를 획득하고, 상기 객체와의 제2측정치가 가장 작은 상기 제4기준인원수의 인접객체를 지정하고, 상기 개별 제2측정치로부터 상기 각각의 인접객체에 대한 개별 인접간격거리를 계산하고, 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 단계를 포함하는, 방법.
According to claim 10,
The step of calculating the adjacent spacing distance is,
Obtain individual second measurements from the object for other objects whose horizontal positions overlap with the object in the surveillance video, and designate the adjacent object of the fourth reference number of people with the smallest second measurement value with the object, , calculating an individual adjacent spacing distance for each adjacent object from the individual second measurement value, and calculating the adjacent spacing distance based on an average of the individual adjacent spacing distances.
제 10 항에 있어서,
상기 인접간격거리를 계산하는 단계는,
상기 객체로부터 상기 감시영상에서 식별된 적어도 하나의 다른 객체에 대한 개별 제2측정치를 획득하고, 상기 개별 제2측정치로부터 상기 각각의 다른 객체에 대한 개별 인접간격거리를 계산하고, 상기 객체와의 개별 인접간격거리가 가장 작은 상기 제4기준인원수의 인접객체를 지정하고, 상기 각각의 인접개체에 대한 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하는 단계를 포함하는, 방법.
According to claim 10,
The step of calculating the adjacent spacing distance is,
Obtaining an individual second measurement value from the object to at least one other object identified in the surveillance video, calculating an individual adjacent interval distance for each other object from the individual second measurement value, and calculating an individual second measurement value from the object to the object. A method comprising designating adjacent objects of the fourth standard number with the smallest adjacent distance, and calculating the adjacent distance based on the average of the individual adjacent distances for each adjacent object.
영상 분석에 의하여 군중 밀집도를 계산하는 장치에 있어서,
메모리;
상기 메모리에 연결된 적어도 하나의 프로세서; 및
감시지역에 대한 감시영상을 획득하는 촬영부;를 포함하고,
상기 메모리는, 사람의 머리의 가로, 세로, 높이 중 적어도 하나의 길이와 관련된 제1길이, 사람과 사람 사이의 간격에 관련된 제2길이, 및 군중의 밀집도와 관련된 제3기준인원수를 저장하고,
상기 프로세서는,
상기 촬영부로부터 감시영상을 획득하는 영상수집부;
상기 감시영상을 분석하여 적어도 하나의 사람의 머리를 객체로서 식별하는 객체추출부; 그리고
상기 감시영상에서 식별되는 객체의 수가 상기 제3기준인원수 이하인 경우, 이후의 동작을 생략하고 밀집 객체의 수와 무관하게 상기 군중 밀집도가 제3 기준 밀집도 이하인 것으로 계산하고, 상기 감시영상에서 식별되는 객체의 수가 상기 제3기준인원수를 초과하는 경우, 상기 객체가 상기 감시영상에 표시되는 크기를 나타내는 제1측정치를 획득하고, 상기 객체와 인접한 적어도 하나의 인접객체 사이의 거리를 상기 감시영상에 표시되는 크기에 기초하여 나타내는 제2측정치를 획득하고, 상기 제1측정치와 상기 제1길이 간의 비율을 계산하고, 상기 제2측정치 및 상기 비율에 기반하여 상기 객체의 인접간격거리를 계산하고, 상기 객체의 인접간격거리가 상기 제2길이 이하인 경우 상기 객체를 객체 단위로 상기 밀집 객체로 분류하고, 상기 감시영상으로부터 식별되는 상기 밀집 객체의 수를 계수(計數)하여 상기 감시지역의 군중 밀집도를 계산하는 군중 밀집도 계산부;를 포함하는, 장치.
In a device for calculating crowd density by video analysis,
Memory;
at least one processor connected to the memory; and
It includes a filming unit that acquires surveillance images of the surveillance area,
The memory stores a first length related to at least one of the width, length, and height of a person's head, a second length related to the distance between people, and a third reference number of people related to the density of the crowd,
The processor,
An image collection unit that acquires surveillance images from the photographing unit;
an object extraction unit that analyzes the surveillance video and identifies at least one human head as an object; and
If the number of objects identified in the surveillance video is less than the third standard number of people, subsequent operations are skipped and the crowd density is calculated to be less than the third standard density regardless of the number of dense objects, and the object identified in the surveillance video is calculated as If the number exceeds the third reference number of people, a first measurement value indicating the size of the object displayed in the surveillance video is obtained, and the distance between the object and at least one adjacent adjacent object is displayed in the surveillance video. Obtaining a second measurement representing a size, calculating a ratio between the first measurement and the first length, calculating an adjacent spacing distance of the object based on the second measurement and the ratio, and If the adjacent distance is less than or equal to the second length, the object is classified as the dense object on an object basis, and the crowd density of the surveillance area is calculated by counting the number of the dense objects identified from the surveillance video. A device comprising a density calculation unit.
제 13 항에 있어서,
상기 메모리는, 군중의 밀집도와 관련된 제1기준인원수를 더 저장하고,
상기 프로세서는,
상기 밀집 객체의 수가 상기 제1기준인원수 이상인 경우, 상기 군중 밀집도가 제1 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 제1 경고 정보를 생성하는 경고판단부; 및
상기 제1 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하는 정보제공부;를 더 포함하는, 장치.
According to claim 13,
The memory further stores a first reference number of people related to the density of the crowd,
The processor,
When the number of crowded objects is greater than or equal to the first standard number of people, a warning determination unit determines that the crowd density is greater than or equal to the first standard density and generates first warning information for the surveillance area; and
An information provider that transmits the first warning information in at least one of display, voice, vibration, light, text, and communication methods. The device further includes a.
제 14 항에 있어서,
상기 메모리는, 군중의 밀집도와 관련되고, 상기 제1기준인원수보다 많은 제2기준인원수를 더 저장하고,
상기 경고판단부는, 상기 밀집 객체의 수가 상기 제2기준인원수 이상인 경우, 상기 군중 밀집도가 제2 기준 밀집도 이상인 것으로 판단하고, 상기 감시지역에 대한 제2 경고 정보를 생성하도록 구성되고,
상기 정보제공부는, 상기 제2 경고 정보를 표시, 음성, 진동, 빛, 문자, 통신 중 적어도 하나의 방법으로 송출하도록 구성되고,
상기 제1 경고 정보와 상기 제2 경고 정보는 상이한, 장치.
According to claim 14,
The memory further stores a second reference number of people, which is related to the density of the crowd and is greater than the first reference number of people,
The warning determination unit is configured to determine that the crowd density is greater than the second standard density when the number of crowded objects is greater than or equal to the second standard number of people, and to generate second warning information for the surveillance area,
The information provider is configured to transmit the second warning information by at least one method among display, voice, vibration, light, text, and communication,
The first warning information and the second warning information are different from each other.
삭제delete 제 13 항에 있어서,
상기 감시영상은 픽셀(pixel) 정보에 의하여 표현되는 영상이고,
상기 군중 밀집도 계산부는, 상기 제1측정치를 상기 객체가 상기 감시영상에서 차지하는 픽셀의 개수에 기반하여 획득하고, 상기 제2측정치는 상기 객체와 상기 인접객체 사이에 존재하는 픽셀의 개수에 기반하여 획득하도록 구성되는, 장치.
According to claim 13,
The surveillance video is an image expressed by pixel information,
The crowd density calculation unit obtains the first measurement based on the number of pixels that the object occupies in the surveillance image, and the second measurement is obtained based on the number of pixels existing between the object and the adjacent object. A device configured to:
제 13 항에 있어서,
상기 군중 밀집도 계산부는, 상기 인접객체가 상기 감시영상에 표시되는 크기를 나타내는 제3측정치를 획득하고, 상기 제1측정치와 제3측정치의 비율에 기반하여 상기 제2측정치를 보정하고, 상기 보정된 제2측정치에 기반하여 상기 인접간격거리를 계산하도록 구성되는, 장치.
According to claim 13,
The crowd density calculation unit obtains a third measurement value indicating the size of the adjacent object displayed in the surveillance video, corrects the second measurement value based on the ratio of the first measurement value and the third measurement value, and The device is configured to calculate the adjacent spacing distance based on the second measurement.
제 13 항에 있어서,
상기 메모리는, 상기 인접간격거리의 계산에 포함할 인접객체의 수를 나타내는 제4기준인원수를 더 저장하고,
상기 군중 밀집도 계산부는, 상기 객체에 인접한 상기 제4기준인원수의 인접객체를 지정하고, 상기 객체로부터 상기 각각의 인접객체에 대한 개별 인접간격거리를 계산하고, 상기 개별 인접간격거리의 평균에 기반하여 상기 인접간격거리를 계산하도록 구성되고,
상기 평균은 산술 평균, 기하 평균, 조화 평균, 가중 평균, 중앙값, 최빈수, 및 멱평균에 속하는 평균법 중 어느 하나에 의하여 도출되는, 장치.
According to claim 13,
The memory further stores a fourth reference number indicating the number of adjacent objects to be included in the calculation of the adjacent spacing distance,
The crowd density calculation unit specifies adjacent objects of the fourth standard number of people adjacent to the object, calculates individual adjacent distances for each adjacent object from the object, and calculates the individual adjacent distances based on the average of the individual adjacent distances. Configured to calculate the adjacent spacing distance,
The apparatus, wherein the average is derived by any one of averaging methods belonging to arithmetic mean, geometric mean, harmonic mean, weighted mean, median, mode, and power mean.
제 13 항에 있어서,
상기 프로세서는, 상기 메모리에 상기 장치를 동작시키는 기본 정보를 저장하는 기본정보부;를 더 포함하고,
상기 기본정보부는, 상기 제1길이, 상기 제2길이, 군중의 밀집도와 관련된 제1기준인원수, 군중의 밀집도와 관련되고 상기 제1기준인원수보다 많은 제2기준인원수, 군중의 밀집도와 관련된 제3기준인원수, 및 상기 인접간격거리의 계산에 포함할 인접객체의 수를 나타내는 제4기준인원수 중 적어도 하나를 입력 받아 상기 메모리에 저장하도록 구성되는, 장치.
According to claim 13,
The processor further includes a basic information unit that stores basic information for operating the device in the memory,
The basic information unit includes the first length, the second length, a first standard number of people related to the density of the crowd, a second standard number of people related to the density of the crowd and greater than the first standard number of people, and a third information related to the density of the crowd. A device configured to receive at least one of the standard number of people and a fourth standard number of people indicating the number of adjacent objects to be included in the calculation of the adjacent spacing distance and store them in the memory.
KR1020230052611A 2023-04-21 2023-04-21 Method for crowd density estimation using cctv video and appartaus therefor KR102633938B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230052611A KR102633938B1 (en) 2023-04-21 2023-04-21 Method for crowd density estimation using cctv video and appartaus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230052611A KR102633938B1 (en) 2023-04-21 2023-04-21 Method for crowd density estimation using cctv video and appartaus therefor

Publications (1)

Publication Number Publication Date
KR102633938B1 true KR102633938B1 (en) 2024-02-08

Family

ID=89899919

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230052611A KR102633938B1 (en) 2023-04-21 2023-04-21 Method for crowd density estimation using cctv video and appartaus therefor

Country Status (1)

Country Link
KR (1) KR102633938B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120087548A1 (en) * 2010-10-12 2012-04-12 Peng Wu Quantifying social affinity from a plurality of images
CN112101303A (en) * 2020-11-05 2020-12-18 腾讯科技(深圳)有限公司 Image data processing method and device and computer readable storage medium
JP2022105203A (en) * 2015-12-28 2022-07-12 日本電気株式会社 Information processing device, control method and program
US20220366665A1 (en) * 2021-05-14 2022-11-17 Honeywell International Inc. Video surveillance system with crowd size estimation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120087548A1 (en) * 2010-10-12 2012-04-12 Peng Wu Quantifying social affinity from a plurality of images
JP2022105203A (en) * 2015-12-28 2022-07-12 日本電気株式会社 Information processing device, control method and program
CN112101303A (en) * 2020-11-05 2020-12-18 腾讯科技(深圳)有限公司 Image data processing method and device and computer readable storage medium
US20220366665A1 (en) * 2021-05-14 2022-11-17 Honeywell International Inc. Video surveillance system with crowd size estimation

Similar Documents

Publication Publication Date Title
US10863317B2 (en) Interactive emergency visualization methods
CN108027874B (en) Computer vision based security system using depth camera
US10354144B2 (en) Video camera scene translation
US11615620B2 (en) Systems and methods of enforcing distancing rules
JP5992681B2 (en) Unusual condition detection system for congestion
KR102397837B1 (en) An apparatus and a system for providing a security surveillance service based on edge computing and a method for operating them
US20210400240A1 (en) Image processing apparatus, image processing method, and computer readable medium
US20220139199A1 (en) Accurate digital security system, method, and program
KR20220000226A (en) A system for providing a security surveillance service based on edge computing
JP2006031645A (en) Real-time estimation method for dynamic crowd density and crowd accident prevention system
KR20160109516A (en) Rescue object grasp system and method
JP2016092693A (en) Imaging apparatus, imaging apparatus control method, and program
KR102633938B1 (en) Method for crowd density estimation using cctv video and appartaus therefor
Conci et al. Camera placement using particle swarm optimization in visual surveillance applications
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
JP6796000B2 (en) Monitoring support device and monitoring system
JP2020017102A (en) Fire monitoring apparatus and fire monitoring system
CN114339168A (en) Regional security monitoring method and device, electronic equipment and storage medium
KR20220000175A (en) A method for operating of intelligent security surveillance service providing apparatus based on edge computing
KR20220000209A (en) Recording medium that records the operation program of the intelligent security monitoring device based on deep learning distributed processing
KR20150120002A (en) Method and system for evaluating the performance of CCTV surveillance system
AU2021104418A4 (en) Intelligent surveillance system for identifying social distancing and face masks in public places
KR102676020B1 (en) Interaction behavior detection apparatus between objects in the image and, method thereof
KR102673628B1 (en) Method and apparatus for monitoring crowd density based on map cell for situational awareness in digital twin
Litzenberger et al. Multi-sensor fusion for the security surveillance of public areas

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant