KR102663282B1 - Crowd density automatic measurement system - Google Patents

Crowd density automatic measurement system Download PDF

Info

Publication number
KR102663282B1
KR102663282B1 KR1020230076740A KR20230076740A KR102663282B1 KR 102663282 B1 KR102663282 B1 KR 102663282B1 KR 1020230076740 A KR1020230076740 A KR 1020230076740A KR 20230076740 A KR20230076740 A KR 20230076740A KR 102663282 B1 KR102663282 B1 KR 102663282B1
Authority
KR
South Korea
Prior art keywords
crowd density
people
crowd
distance
captured
Prior art date
Application number
KR1020230076740A
Other languages
Korean (ko)
Inventor
최재찬
Original Assignee
주식회사 이투온
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이투온 filed Critical 주식회사 이투온
Priority to KR1020230076740A priority Critical patent/KR102663282B1/en
Application granted granted Critical
Publication of KR102663282B1 publication Critical patent/KR102663282B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Human Computer Interaction (AREA)
  • Emergency Management (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

본 발명은 촬영된 영상을 활용하여 군중 밀집도를 실시간으로 계산하고 예측 및 안내할 수 있는 군중 밀집도 자동 측정 시스템에 관한 것으로서, 보다 상세하게는, 촬영수단을 통해 촬영된 영상으로부터 사람 수를 카운팅하여 실시간으로 군중 밀집도를 계산하는 것으로, 설정된 지역을 촬영하는 적어도 하나의 촬영수단; 및 상기 촬영수단을 통해 촬영된 영상으로부터 사람을 파악하고, 파악된 각각의 사람이 위치된 거리에 따라 사람 수 카운팅 방법을 다르게 적용하여 촬영된 영상속의 전체 사람 수를 카운팅하며, 이를 바탕으로 상기 설정된 지역의 군중 밀집도를 계산하는 처리부를 포함하는 군중 밀집도 자동 측정 시스템에 관한 것이다.The present invention relates to an automatic crowd density measurement system that can calculate, predict, and guide crowd density in real time using captured images. More specifically, it relates to an automatic crowd density measurement system that calculates the crowd density in real time by using captured images. At least one photography means for photographing a set area by calculating the crowd density; And identifying people from images captured through the above-mentioned photographing means, counting the total number of people in the captured images by applying different counting methods depending on the distance at which each identified person is located, and counting the total number of people in the captured images based on this. It relates to an automatic crowd density measurement system that includes a processing unit that calculates local crowd density.

Description

군중 밀집도 자동 측정 시스템{CROWD DENSITY AUTOMATIC MEASUREMENT SYSTEM}Crowd density automatic measurement system {CROWD DENSITY AUTOMATIC MEASUREMENT SYSTEM}

본 발명은 군중 밀집도 자동 측정 시스템에 관한 것으로서, 특히 촬영된 영상을 활용하여 군중 밀집도를 실시간으로 계산하고 예측할 수 있는 군중 밀집도 자동 측정 시스템에 관한 것이다.The present invention relates to an automatic crowd density measurement system, and particularly to an automatic crowd density measurement system that can calculate and predict crowd density in real time using captured images.

최근, 도시나 대규모 이벤트가 발생하는 지역에서의 인파 밀집, 군중 통제 및 안전 문제에 대한 관심이 증가하고 있는 실정이다. 이에 따라 군중의 밀집도를 신속하게 파악하고 관리하는 것은 안전 사고 예방을 위해 매우 중요하다 할 것이다. Recently, there has been increasing interest in crowding, crowd control, and safety issues in cities or areas where large-scale events occur. Accordingly, quickly identifying and managing crowd density is very important to prevent safety accidents.

그러나, 현재까지의 방법들은 보통 수동적인 조사나 경험적인 추정을 기반으로 하고 있어, 정확성과 효율성 측면에서 한계를 가지고 있다.However, methods to date are usually based on manual surveys or empirical estimates and have limitations in terms of accuracy and efficiency.

이에 촬영수단을 통해 얻은 영상 데이터를 활용하여 실시간으로 군중 밀집도를 계산하고 예측하며, 위험 상황에 대해 신속히 안내할 수 있는 방안을 제시하고자 한다.Accordingly, we would like to use video data obtained through filming methods to calculate and predict crowd density in real time and present a method to quickly provide guidance on dangerous situations.

(0001) 국내등록특허공보 제10-1176947호(0001) Domestic Patent Publication No. 10-1176947

본 발명이 해결하고자 하는 기술적 과제는, 촬영수단을 통해 얻은 영상 데이터를 활용하여 실시간으로 군중 밀집도를 계산하고 예측할 수 있는 군중 밀집도 자동 측정 시스템을 제공하는데 있다.The technical problem to be solved by the present invention is to provide an automatic crowd density measurement system that can calculate and predict crowd density in real time using image data obtained through a photography means.

본 발명이 해결하고자 하는 다른 기술적 과제는, 영상 속의 사람 수를 카운팅함에 있어 거리에 따라 다른 카운팅 방법을 제시하여 전체 사람 수를 정확히 계산할 수 있는 군중 밀집도 자동 측정 시스템을 제공하는데 있다.Another technical problem that the present invention aims to solve is to provide an automatic crowd density measurement system that can accurately calculate the total number of people by suggesting different counting methods depending on the distance when counting the number of people in an image.

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 촬영된 영상 데이터와 인파 흐름 분석을 통해 군중 밀집도의 예측과 위험 상황의 감지를 실시간으로 수행할 수 있는 군중 밀집도 자동 측정 시스템을 제공하는데 있다. Another technical problem that the present invention aims to solve is to provide an automatic crowd density measurement system that can predict crowd density and detect dangerous situations in real time through captured image data and crowd flow analysis.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

상기 기술적 과제를 달성하기 위한 본 발명인 군중 밀집도 자동 측정 시스템은, 촬영수단을 통해 촬영된 영상으로부터 사람 수를 카운팅하여 실시간으로 군중 밀집도를 계산하는 것으로, 설정된 지역을 촬영하는 적어도 하나의 촬영수단; 및 상기 촬영수단을 통해 촬영된 영상으로부터 사람을 파악하고, 파악된 각각의 사람이 위치된 거리에 따라 사람 수 카운팅 방법을 다르게 적용하여 촬영된 영상속의 전체 사람 수를 카운팅하며, 이를 바탕으로 상기 설정된 지역의 군중 밀집도를 계산하는 처리부를 포함하는 것을 특징으로 한다.The automatic crowd density measurement system of the present invention for achieving the above technical problem calculates the crowd density in real time by counting the number of people from images captured through a photographing means, and includes at least one photographing means for photographing a set area; And identifying people from images captured through the above-mentioned photographing means, counting the total number of people in the captured images by applying different counting methods depending on the distance at which each identified person is located, and counting the total number of people in the captured images based on this. It is characterized by including a processing unit that calculates the crowd density of the area.

또한, 상기 촬영수단은, 설정된 지역 전체를 촬영하는 광각 카메라; 및 상기 광각 카메라를 통해 촬영된 영상에서 어느 특정된 곳의 군중 밀집도가 설정된 수치 이상으로 파악될 경우, 상기 특정된 곳을 정밀하게 촬영하는 적어도 하나의 팬/틸트/줌 카메라를 포함하는 것을 특징으로 한다.In addition, the photographing means includes a wide-angle camera that photographs the entire set area; and at least one pan/tilt/zoom camera that precisely photographs the specific location when the crowd density at a specific location is determined to be greater than a set value in the image captured through the wide-angle camera. do.

또한, 상기 사람 수 카운팅 방법은, 상기 사람이 위치된 거리가 설정된 제1 이격거리 이상이면 원거리로 판단하여 사람의 머리만 카운팅하고, 상기 사람이 위치된 거리가 설정된 상기 제1 이격거리 미만이면 근거리로 판단하여 사람 전신을 카운팅하는 것을 특징으로 한다.In addition, the method for counting the number of people is that, if the distance at which the person is located is greater than the set first separation distance, it is judged to be a long distance and only the head of the person is counted, and if the distance at which the person is located is less than the first set separation distance, it is considered a close distance. It is characterized by counting the entire human body.

또한, 상기 처리부는, 영상 속의 군중 밀집도와 함께 인파 흐름도를 함께 파악하여 군중 밀집도를 예측하는 것을 특징으로 한다.In addition, the processing unit is characterized in that it predicts the crowd density by identifying the crowd density in the video together with the crowd flow chart.

또한, 상기 처리부는, 상기 군중 밀집도 및 상기 인파 흐름도를 통해 군중 밀집도가 높아질 지역을 함께 예측하는 것을 특징으로 한다.In addition, the processing unit is characterized in that it predicts an area where crowd density will increase based on the crowd density and the crowd flow chart.

또한, 상기 처리부는, 상기 촬영수단을 통해 촬영된 영상으로부터 사람이 다니는 도로를 파악하고, 파악된 도로의 폭을 반영하여 군중 밀집도가 높아질 지역을 함께 예측하는 것을 특징으로 한다.In addition, the processing unit is characterized in that it identifies roads on which people travel from images captured through the photographing means, and predicts areas where crowd density will increase by reflecting the width of the identified roads.

또한, 군중 밀집도가 설정된 수치 이상으로 나타나는 위험 상황 발생시, 이를 감지하여 안내하는 표시부를 더 포함하는 것을 특징으로 한다.In addition, when a dangerous situation occurs where the crowd density exceeds a set value, it further includes a display unit that detects and provides guidance.

또한, 상기 표시부는, 상기 촬영수단을 통한 영상을 모니터링하는 관제소나 상기 설정된 지역에 위치된 사람들이 파악할 수 있는 장소 중 적어도 어느 한 곳에 배치되는 것을 특징으로 한다.In addition, the display unit is characterized in that it is placed at least one of a control center that monitors the image through the photographing means or a place that can be recognized by people located in the set area.

상기 본 발명의 양태들은 본 발명의 바람직한 실시례들 중 일부에 불과하며, 본원 발명의 기술적 특징들이 반영된 다양한 실시례들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 본 발명의 상세한 설명을 기반으로 도출되고 이해될 수 있다.The above aspects of the present invention are only some of the preferred embodiments of the present invention, and various embodiments reflecting the technical features of the present invention will be described in detail below by those skilled in the art. It can be derived and understood based on.

이상에서 상술한 본 발명은 다음과 같은 효과가 있다.The present invention described above has the following effects.

먼저, 촬영된 영상 데이터를 처리하여 실시간으로 군중의 밀집도를 계산할 수 있으므로, 실시간으로 인파 상황을 모니터링하고 즉각적인 대응 조치를 취할 수 있다.First, the captured video data can be processed to calculate crowd density in real time, allowing the crowd situation to be monitored in real time and immediate response measures taken.

또한, 다양한 거리에서 사람을 파악하고 사람과의 거리에 따라 사람 수를 정확하게 카운팅하는 방법을 제시함으로써, 근거리와 원거리에서 발생하는 인파에 대한 정확한 분석이 가능하다.In addition, by identifying people at various distances and presenting a method for accurately counting the number of people according to the distance to them, accurate analysis of crowds occurring near and far is possible.

또한, 영상 데이터와 인파 흐름 분석을 통해 군중 밀집도의 예측과 위험 상황의 감지가 가능하므로, 사전에 위험 지역을 예측하고 제반 조치를 취할 수 있다.In addition, it is possible to predict crowd density and detect dangerous situations through video data and crowd flow analysis, so dangerous areas can be predicted in advance and various measures can be taken.

또한, 표시부를 통해 관제소나 일반 사용자가 군중 밀집도를 실시간으로 모니터링하고 즉각적인 조치를 취할 수 있으므로, 보다 빠른 안전 조치가 가능하다.Additionally, the display unit allows the control center or general users to monitor crowd density in real time and take immediate action, enabling faster safety measures.

또한, 전술한 효과들을 통해 군중 관리와 안전 관리 분야에서 현장 운영자 및 관리자들에게 큰 도움을 제공할 수 있다.Additionally, the aforementioned effects can provide great help to field operators and managers in the areas of crowd management and safety management.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명인 군중 밀집도 자동 측정 시스템의 일 실시례에 따른 구성 개념도.1 is a conceptual diagram of the configuration of an automatic crowd density measurement system according to an embodiment of the present invention.

이하, 본 발명의 일부 실시례들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시례를 설명함에 있어, 관련된 공지구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시례에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted.

또한, 본 발명의 실시례의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Additionally, when describing the components of embodiments of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. When a component is described as being "connected," "coupled," or "connected" to another component, that component may be directly connected or connected to that other component, but there is no "interconnection" between each component. It should be understood that they may be “connected,” “coupled,” or “connected.”

도 1은 본 발명인 군중 밀집도 자동 측정 시스템의 일 실시례에 따른 구성 개념도이다.Figure 1 is a conceptual diagram according to an embodiment of the automatic crowd density measurement system of the present invention.

먼저, 도 1을 참조하여 본 발명인 군중 밀집도 자동 측정 시스템을 설명하면 다음과 같다.First, the automatic crowd density measurement system according to the present invention will be described with reference to FIG. 1 as follows.

본 발명인 군중 밀집도 자동 측정 시스템은 촬영수단을 통해 촬영된 영상으로부터 사람 수를 카운팅하여 실시간으로 군중 밀집도를 계산하는 것으로, 촬영수단(10) 및 처리부(20)를 포함하여 구성될 수 있다.The automatic crowd density measurement system of the present invention calculates the crowd density in real time by counting the number of people from images captured through a photographing means, and may be configured to include a photographing means 10 and a processing unit 20.

촬영수단(10)은 광각 카메라(11)와 팬/틸트/줌 카메라(12)로 구성될 수 있다. 광각 카메라(11)는 설정된 지역 전체를 촬영할 수 있으며, 촬영된 영상을 처리부(20)로 전달하여 초기 군중 밀집도 추정에 사용될 수 있다.The photographing means 10 may be composed of a wide-angle camera 11 and a pan/tilt/zoom camera 12. The wide-angle camera 11 can capture images of the entire set area, and the captured images can be transmitted to the processing unit 20 and used to estimate initial crowd density.

광각 카메라(11)를 통해 촬영된 영상은 처리부(20)로 전달될 수 있다.The image captured through the wide-angle camera 11 may be transmitted to the processing unit 20.

처리부(20)는 전달받은 영상을 분석하여 사람 개개인을 식별할 수 있다. 사람 개개인을 식별하기 위해 얼굴 인식, 몸체 인식 등의 기술을 사용할 수 있다. 이를 위해 컴퓨터 비전 기술과 영상 처리 알고리즘을 활용할 수 있다. The processing unit 20 can identify each person by analyzing the received video. Technologies such as facial recognition and body recognition can be used to identify individual people. For this purpose, computer vision technology and image processing algorithms can be used.

처리부(20)에서 활용되는 컴퓨터 비전 기술은 다양한 영상 처리 알고리즘과 기술을 포함할 수 있다. 이러한 기술들은 영상 데이터를 분석하고 이해하기 위해 사용될 수 있다.Computer vision technology used in the processing unit 20 may include various image processing algorithms and technologies. These technologies can be used to analyze and understand video data.

컴퓨터 비전 기술로는 객체 인식, 객체 추적, 세그멘테이션, 광학 문자 인식 및 군집화 기술 등이 사용될 수 있다.Computer vision technologies may include object recognition, object tracking, segmentation, optical character recognition, and clustering technologies.

객체 인식(Object Recognition) 기술은 영상에서 특정 객체를 식별하는 기술이다. 이를 위해 학습된 알고리즘과 딥러닝 기술을 사용하여 객체의 특징을 추출하고, 데이터베이스와 비교하여 객체를 인식할 수 있다. 예를 들어, 얼굴 인식 기술을 활용하여 사람의 얼굴을 식별할 수 있다.Object recognition technology is a technology that identifies specific objects in images. To this end, learned algorithms and deep learning technology can be used to extract object characteristics and recognize objects by comparing them with a database. For example, facial recognition technology can be used to identify a person's face.

객체 추적(Object Tracking) 기술은 영상에서 특정 객체의 움직임을 실시간으로 추적하는 기술이다. 이를 위해 이전 프레임과 현재 프레임의 차이를 분석하고, 객체의 이동 경로를 예측할 수 있다. 객체 추적은 군중 밀집도를 계산하거나 특정 객체의 동선을 분석하는 데 활용될 수 있다.Object tracking technology is a technology that tracks the movement of a specific object in an image in real time. For this purpose, the difference between the previous frame and the current frame can be analyzed and the object's movement path can be predicted. Object tracking can be used to calculate crowd density or analyze the movement of a specific object.

세그멘테이션(Segmentation) 기술은 영상에서 객체의 경계를 정확하게 추출하는 기술이다. 이를 통해 객체와 배경을 구분하고, 개별 객체의 영역을 정확히 추출할 수 있다. 세그멘테이션은 사람 개개인을 식별, 군중 밀집도 분석 등에 활용될 수 있다.Segmentation technology is a technology that accurately extracts the boundaries of objects from images. Through this, it is possible to distinguish between objects and backgrounds and accurately extract the areas of individual objects. Segmentation can be used to identify individual people, analyze crowd density, etc.

광학적 문자 인식(Optical Character Recognition, OCR) 기술은 영상에서 텍스트를 인식하고 추출하는 기술이다. 광각 카메라로 촬영된 영상에서 특정 지역의 텍스트를 인식하여 도로명, 신호등, 안내판 등을 분석하고 처리할 수 있다.Optical Character Recognition (OCR) technology is a technology that recognizes and extracts text from images. By recognizing text in a specific area from images captured with a wide-angle camera, road names, traffic lights, information signs, etc. can be analyzed and processed.

군집화(Clustering) 기술은 비슷한 특성을 갖는 데이터를 자동으로 그룹화하는 기술이다. 영상에서 사람들을 군집화하여 개개인을 식별하고 군중 밀집도를 계산하는 데 사용될 수 있다.Clustering technology is a technology that automatically groups data with similar characteristics. It can be used to cluster people in video to identify individuals and calculate crowd density.

전술한 컴퓨터 비전 기술은 다양한 상황에 따라 조합되거나 개별적으로 사용될 수 있으며, 처리부(20)에서는 이러한 기술들을 활용하여 영상 데이터를 분석하고 군중 밀집도 계산에 활용할 수 있다.The above-mentioned computer vision technologies can be combined or used individually depending on various situations, and the processing unit 20 can utilize these technologies to analyze image data and use them to calculate crowd density.

한편, 본 발명은 영상 전처리 기술을 적용할 수 있다. 예컨대, Super resolution(고해상도 변환), 저조도 개선(Low-light enhancement) 및 안개 제거(Defoggy) 기술 등을 적용할 수 있다.Meanwhile, the present invention can apply image preprocessing technology. For example, super resolution, low-light enhancement, and defoggy technologies can be applied.

전술한 바와 같이, 고해상도 변환 기술은 저해상도 영상을 고해상도 영상으로 변환하는 기술이다. 일반적으로 저해상도 영상은 이미지나 비디오의 세부 정보가 부족하거나 품질이 낮은 경우에 발생할 수 있다. 고해상도 변환 기술은 이러한 저해상도 영상을 보다 선명하고 고해상도로 재구성하는 방법을 제공한다. 이를 위해 이미지나 비디오의 고해상도 정보를 추정하고, 저해상도 입력에 대한 추가적인 세부 정보를 생성하는 다양한 알고리즘과 기술이 사용될 수 있다.As described above, high-resolution conversion technology is a technology that converts a low-resolution image into a high-resolution image. In general, low-resolution video can occur when the image or video lacks detail or is of low quality. High-resolution conversion technology provides a way to reconstruct these low-resolution images into clearer, higher-resolution images. To achieve this, various algorithms and techniques can be used to estimate high-resolution information in an image or video and generate additional details for low-resolution input.

저조도 개선 기술은 저조도 조건에서 촬영된 영상을 개선하는 기술이다. 저조도 환경에서 촬영된 영상은 밝기가 부족하고 세부 정보가 흐릿하거나 손실된 경우가 많다. Low-light improvement technology is a technology that improves images captured in low-light conditions. Videos shot in low-light environments often lack brightness and details are blurred or lost.

저조도 개선 기술은 이러한 저조도 영상의 품질을 향상시키기 위해 다양한 기술을 사용할 수 있다. 예컨대, 영상의 밝기를 조절하고, 노이즈 감소 기술을 적용하거나, 세부 정보를 보정하는 등의 방법을 사용하여 저조도 영상의 시각적 품질을 개선할 수 있다.Low-light improvement technology can use various technologies to improve the quality of low-light images. For example, the visual quality of low-light images can be improved by adjusting the brightness of the image, applying noise reduction techniques, or correcting details.

안개 제거 기술은 안개나 스모그와 같은 날씨 조건으로 인해 흐릿하거나 탁한 영상을 개선하는 기술이다. 안개나 스모그는 영상에 안개 현상을 유발하여 시각적 선명도와 대비를 감소시킬 수 있다. 안개 제거 기술은 이러한 안개 현상을 제거하고 영상의 선명도, 대비 및 색상을 개선하기 위해 다양한 알고리즘과 기술을 사용, 예컨대 안개를 제거하기 위해 영상에서 픽셀 강도와 색상 차이를 분석하고 보정하거나, 광학 흡수 모델을 적용하여 안개를 제거하는 등의 방법을 사용할 수 있다.Fog removal technology is a technology that improves blurry or hazy images due to weather conditions such as fog or smog. Fog or smog can cause haze in images, reducing visual clarity and contrast. Fog removal technology uses various algorithms and techniques to remove this haze phenomenon and improve the clarity, contrast, and color of the image, such as analyzing and correcting pixel intensity and color differences in the image to remove haze, or using optical absorption models. You can use methods such as applying to remove fog.

이러한 영상 전처리 기술들은 영상의 시각적 품질을 향상시키고, 세부 정보를 복원하거나 보정함으로써 영상 분석 및 컴퓨터 비전 작업에 유용하게 사용될 수 있다.These image preprocessing technologies can be useful in image analysis and computer vision tasks by improving the visual quality of images and restoring or correcting detailed information.

사람 개개인을 식별한 후, 처리부(20)는 사람들의 위치와 거리를 계산할 수 있다. After identifying each person, the processing unit 20 can calculate the location and distance of the people.

광각 카메라(11)를 통해 촬영된 영상으로부터 사람들의 위치와 거리를 계산하기 위해 다음과 같은 절차를 수행할 수 있다.The following procedure can be performed to calculate the positions and distances of people from images captured through the wide-angle camera 11.

먼저, 광각 카메라(11)로 촬영된 영상을 전처리하여 필요한 정보를 추출하는데, 이 과정에는 영상의 왜곡 보정, 배경 제거, 노이즈 제거 등이 포함될 수 있다.First, the image captured with the wide-angle camera 11 is preprocessed to extract necessary information. This process may include image distortion correction, background removal, noise removal, etc.

처리부(20)에서는 전술한 컴퓨터 비전 기술을 활용하여 개개인을 인식하고 추적할 수 있다. 이를 위해 객체 인식 알고리즘과 추적 알고리즘을 사용할 수 있다. 객체 인식은 사람들의 특징을 추출하고 식별하는 과정을 의미하며, 추적은 사람들의 움직임을 실시간으로 추적하는 과정을 의미한다.The processing unit 20 can recognize and track individuals using the computer vision technology described above. For this purpose, object recognition algorithms and tracking algorithms can be used. Object recognition refers to the process of extracting and identifying people's characteristics, and tracking refers to the process of tracking people's movements in real time.

객체 인식 및 추적을 통해 사람들의 개별적 위치를 파악할 수 있다. 이를 위해 영상에서 사람들의 위치를 표시하거나 좌표로 저장할 수 있다. 좌표는 보통 영상 내의 픽셀 단위로 표현될 수 있으며, 사람들의 위치를 나타내는 좌표 데이터를 생성할 수 있다.Individual locations of people can be determined through object recognition and tracking. To do this, you can mark the locations of people in the video or save them as coordinates. Coordinates can usually be expressed in pixel units within an image, creating coordinate data indicating the location of people.

상기 좌표 데이터, 즉 사람들의 위치 좌표를 통해 거리를 계산할 수 있다. 거리 계산은 일반적으로 유클리드 거리(Euclidean distance)를 사용하여 수행될 수 있다. 유클리드 거리는 두 점 사이의 직선 거리를 계산하는 방법으로, 사람들의 위치 좌표를 사용하여 개별 사람들 간의 거리를 계산할 수 있다.The distance can be calculated using the coordinate data, that is, the location coordinates of people. Distance calculations can generally be performed using the Euclidean distance. Euclidean distance is a method of calculating the straight-line distance between two points, and can use people's location coordinates to calculate the distance between individual people.

한편, 촬영된 영상만을 가지고도 카메라와의 거리 및 면적을 계산할 수 있다. Meanwhile, the distance and area to the camera can be calculated using only the captured image.

일례로, 깊이 추정 기술은 영상에서 객체의 거리를 추정하는 기술로써, 이를 통해 카메라와의 거리를 추정할 수 있다. 깊이 추정 기술은 다양한 방법으로 구현될 수 있으며, 실시간 깊이 맵 생성, 스테레오 비전, 시간차 스테레오 비전 등의 기술을 사용할 수 있다. 이를 통해 촬영된 장면의 깊이 정보를 추정하고, 카메라와의 거리를 계산할 수 있다.For example, depth estimation technology is a technology that estimates the distance of an object in an image, through which the distance to the camera can be estimated. Depth estimation technology can be implemented in a variety of ways, and technologies such as real-time depth map generation, stereo vision, and time difference stereo vision can be used. Through this, the depth information of the captured scene can be estimated and the distance to the camera can be calculated.

또한, 촬영된 영상에서 객체의 크기와 비율을 분석하여 카메라와의 거리를 추정할 수 있다. 이를 위해 사전에 측정된 표준 객체의 크기나 사람의 평균 신장 등을 기준으로 비교하고 계산할 수 있다. 이는 객체의 크기와 거리 사이의 관계를 사용하여 거리를 추정하는 방법이다.Additionally, the distance to the camera can be estimated by analyzing the size and ratio of the object in the captured image. For this purpose, comparisons and calculations can be made based on the size of a standard object measured in advance or the average height of a person. This is a method of estimating distance using the relationship between the size and distance of an object.

또한, 영상처리 기술을 활용하여 카메라와의 거리를 추정할 수 있다. 이를 위해 영상에서의 객체 크기, 픽셀 밀도, 원근 등을 분석하여 거리를 계산하는 방법을 사용할 수 있다. 이 방법은 객체의 크기와 픽셀 밀도를 기반으로 거리에 대한 통계적 모델을 생성하고, 촬영된 영상을 분석하여 거리를 추정할 수 있다.Additionally, the distance to the camera can be estimated using image processing technology. For this purpose, a method of calculating the distance can be used by analyzing the object size, pixel density, perspective, etc. in the image. This method creates a statistical model for distance based on the size and pixel density of the object and can estimate the distance by analyzing the captured image.

상기 절차를 통해 광각 카메라(11)를 통해 촬영된 영상으로부터 사람들 각각의 위치와 거리를 계산할 수 있으며, 이를 토대로 사람들의 수를 카운팅(counting)하고 군중 밀집도를 계산할 수 있다.Through the above procedure, the location and distance of each person can be calculated from the image captured through the wide-angle camera 11, and based on this, the number of people can be counted and the crowd density can be calculated.

군중 밀집도는 광각 카메라(11)를 통해 촬영된 영상으로부터 추출된 사람들의 위치 정보를 기반으로 계산될 수 있다. 군중 밀집도를 다음의 절차를 통해 계산될 수 있다.Crowd density can be calculated based on location information of people extracted from images captured through the wide-angle camera 11. Crowd density can be calculated through the following procedure.

먼저, 광각 카메라(11)로부터 추출된 사람들의 개별적 위치 좌표를 활용할 수 있으며, 전술한 바와 같이 영상 내의 픽셀 좌표 또는 실제 공간 좌표로 표현될 수 있다.First, the individual location coordinates of people extracted from the wide-angle camera 11 can be utilized, and as described above, can be expressed as pixel coordinates in the image or real space coordinates.

군중 밀집도를 계산하기 위해 분석하고자 하는 설정된 지역을 정의할 수 있다. 상기 설정된 지역은 주어진 문제나 응용에 따라 다르게 정의될 수 있으며, 예컨대 도로, 광장, 이벤트 장소 등이 설정된 지역이 될 수 있다.You can define a set area that you want to analyze to calculate crowd density. The set area may be defined differently depending on a given problem or application, and for example, it may be an area set for roads, squares, event locations, etc.

이와 같이 설정된 지역 내의 사람들의 수를 계산하여 군중 밀집도를 추정할 수 있다. 군중 밀집도 계산 방법은 다양하게 적용될 수 있으며, 상황과 요구에 따라 다를 수 있다. 예를 들어, 설정된 지역 내의 픽셀 수를 사람들의 위치로부터 계산하거나, 설정된 지역 내에 위치한 사람들의 수를 직접 카운팅하는 방법 등이 사용될 수 있다.In this way, crowd density can be estimated by calculating the number of people within the set area. Crowd density calculation methods can be applied in various ways and may vary depending on the situation and needs. For example, a method of calculating the number of pixels within a set area from the locations of people or directly counting the number of people located within a set area may be used.

군중 밀집도 계산 결과는 일반적으로 사람들의 수 또는 단위 면적당 사람들의 수로 표현 즉, 설정된 지역 내에 있는 사람들의 수, 또는 단위 면적당 사람들의 수로 군중 밀집도를 나타낼 수 있다.The crowd density calculation result is generally expressed as the number of people or the number of people per unit area, that is, the crowd density can be expressed as the number of people within a set area, or the number of people per unit area.

이러한 절차를 통해 광각 카메라를 통해 촬영된 영상으로부터 추출된 사람들의 위치 정보를 활용하여 설정된 지역의 군중 밀집도를 계산할 수 있으므로, 군중 밀집도가 높아질 지역을 예측하고, 이를 바탕으로 보다 정확한 군중 관리 및 안전 대책을 수립할 수 있다.Through this procedure, the crowd density in a set area can be calculated using the location information of people extracted from images captured through a wide-angle camera, thereby predicting areas where crowd density will increase and providing more accurate crowd management and safety measures based on this. can be established.

광각 카메라(11)의 넓은 시야각을 활용하여 설정된 지역 내의 사람들의 위치를 파악할 수 있으며, 사람들의 위치와 거리에 따라 군중 밀집도 카운팅 방법을 다르게 적용할 수 있다. 예를 들어, 설정된 제1 이격거리 이상에 위치한 사람들은 원거리로 판단하여 사람의 머리만 카운팅하고, 제1 이격거리 미만에 위치한 사람들은 근거리로 판단하여 사람 전신을 카운팅할 수 있다. 즉, 촬영된 영상에서 근거리에 위치한 사람들은 상대적으로 크게 나타나므로 이미지 처리를 통해 식별하기가 용이하나, 원거리에 위치한 사람들은 전체적인 형상을 일일이 파악하기가 용이하지 않으므로 상대적으로 파악하기 용이한 머리수만을 파악하여 카운팅할 수 있다.By utilizing the wide viewing angle of the wide-angle camera 11, the locations of people within a set area can be identified, and crowd density counting methods can be applied differently depending on the location and distance of the people. For example, people located more than the set first separation distance may be judged as far away and only the head of the person may be counted, while people located less than the first separation distance may be judged as close and the person's entire body may be counted. In other words, in the captured video, people located close by appear relatively large and are easy to identify through image processing, but for people located far away, it is not easy to grasp the overall shape individually, so only the number of heads is relatively easy to identify. It can be identified and counted.

영상처리 소프트웨어는 근거리와 원거리에 따라 사용할 수 있는 다양한 기술과 알고리즘을 포함할 수 있다. 일반적으로 근거리 영상처리는 비교적 작은 영역을 대상으로 하는 경우를 의미하며, 원거리 영상처리는 넓은 영역을 대상으로 하는 경우를 의미할 수 있다. Image processing software can include a variety of technologies and algorithms that can be used for near and far distances. In general, near-field image processing refers to targeting a relatively small area, and long-distance image processing may refers to targeting a large area.

근거리에서는 디테일한 객체 감지와 추적이 중요하므로, 객체 감지 알고리즘을 활용하여 사람이나 다른 객체를 식별할 수 있어야 한다. 예를 들어, 딥러닝 기반의 객체 감지 알고리즘인 YOLO(You Only Look Once)나 Faster R-CNN(Region-based Convolutional Neural Networks)을 사용할 수 있다. 객체 추적을 위해서는 시각적 추적 알고리즘을 사용하여 개별 객체의 이동 경로를 추적할 수 있다.Since detailed object detection and tracking are important at close range, object detection algorithms must be used to identify people or other objects. For example, you can use YOLO (You Only Look Once) or Faster R-CNN (Region-based Convolutional Neural Networks), which are deep learning-based object detection algorithms. For object tracking, visual tracking algorithms can be used to track the movement path of individual objects.

또한, 근거리 영상처리에서는 영상의 보정과 개선이 중요하다. 왜곡 보정, 색상 보정, 노이즈 제거 등을 수행하여 영상의 품질을 향상시킬 수 있으며, 필터링 기법이나 영상 복원 알고리즘 등을 사용할 수 있다.Additionally, image correction and improvement are important in near-field image processing. The quality of the image can be improved by performing distortion correction, color correction, and noise removal, and filtering techniques or image restoration algorithms can be used.

또한, 근거리 영상처리에서는 객체 인식, 세그멘테이션, 모션 추정 등의 컴퓨터 비전 기술이 활용될 수 있다. 딥러닝 기반의 알고리즘을 사용하여 객체를 식별하고, 동작을 분석하고, 특징을 추출할 수 있다.Additionally, computer vision technologies such as object recognition, segmentation, and motion estimation can be used in short-range image processing. Deep learning-based algorithms can be used to identify objects, analyze motion, and extract features.

또한, 근거리 영상처리에서는 분석된 결과를 저장하고 분석하여 시각적으로 표시하는 기능이 필요하다. 이를 위해 데이터베이스 시스템이나 그래프 및 차트 생성 라이브러리를 활용하여 데이터를 관리하고 시각화할 수 있다.Additionally, near-field image processing requires the ability to store, analyze, and visually display the analysis results. To achieve this, you can use database systems or graph and chart creation libraries to manage and visualize data.

반면, 원거리에서는 작은 크기의 사람이나 객체를 정확하게 감지하고 추적하기 어려울 수 있으므로, 다른 접근 방식과 기술이 사용될 수 있다.On the other hand, it may be difficult to accurately detect and track small-sized people or objects at long distances, so different approaches and techniques may be used.

원거리 영상에서는 객체의 크기가 상대적으로 작아지거나 해상도가 낮아질 수 있으므로, 이를 보완하기 위해 영상에서 객체의 크기를 조정하고, 필요에 따라 정규화하는 작업이 필요하다. 여기서 크기 조정은 영상의 확대 또는 축소를 의미하고, 정규화는 영상을 표준화하여 일관된 크기로 변환하는 것을 의미한다.In distant images, the size of objects may be relatively small or the resolution may be low, so to compensate for this, it is necessary to adjust the size of objects in the image and normalize them as necessary. Here, resizing means enlarging or reducing the image, and normalization means standardizing the image and converting it to a consistent size.

원거리에서는 작은 크기의 사람이나 객체를 정확하게 감지하기 어려울 수 있다. 따라서 원거리 영상처리에서는 크기 불변 기술이나 특징 추출 알고리즘을 활용하여 객체를 감지할 수 있다. 예를 들어, 스케일 불변 특징 변환(Scale-Invariant Feature Transform, SIFT)이나 SURF(Speeded-Up Robust Features) 같은 특징 추출 알고리즘을 사용할 수 있다.It can be difficult to accurately detect small-sized people or objects from a distance. Therefore, in long-distance image processing, objects can be detected using size invariant technology or feature extraction algorithms. For example, feature extraction algorithms such as Scale-Invariant Feature Transform (SIFT) or Speeded-Up Robust Features (SURF) can be used.

또한, 원거리 영상에서는 객체를 주변 환경과 함께 고려하여 분석해야 하며, 객체의 크기와 모양을 파악하고, 주변의 배경이나 다른 객체와의 관계를 이해하는 것이 중요하다. 이를 위해 컨텍스트 모델링 알고리즘을 사용하여 객체를 감지하고 분류할 수 있다. 예를 들어, 컨텍스트 모델링을 위해 주변 픽셀의 정보를 활용하는 CRF(Conditional Random Field)를 사용할 수 있다.Additionally, in long-distance images, objects must be analyzed in consideration of their surroundings, and it is important to understand the size and shape of the object and its relationship with the surrounding background or other objects. For this purpose, context modeling algorithms can be used to detect and classify objects. For example, you can use Conditional Random Field (CRF), which utilizes information from surrounding pixels, for context modeling.

또한, 원거리 영상에서는 해상도가 낮아 세부 정보가 부족한 경우가 많다. 슈퍼 해상도(Super Resolution) 기술은 낮은 해상도의 영상을 고해상도 영상으로 복원하는 기법으로, 원거리에서의 객체 감지와 추적을 개선하는 데 사용될 수 있다. 예를 들어, 딥러닝 기반의 슈퍼 해상도 기술을 사용하여 원거리 영상의 해상도를 향상시킬 수 있다.Additionally, in distant images, the resolution is low and detailed information is often lacking. Super Resolution technology is a technique that restores low-resolution images to high-resolution images, and can be used to improve object detection and tracking at a distance. For example, deep learning-based super resolution technology can be used to improve the resolution of distant images.

이와 같이 근거리와 원거리에 따라 사람 수를 카운하는 방법을 달리하여 전체적인 사람들의 수를 계산함으로써 전체 군중 밀집도를 계산할 수 있으며, 이를 통해 초기 군중 밀집도를 추정할 수 있다.In this way, the total crowd density can be calculated by calculating the total number of people using different methods for counting the number of people depending on the near and far distances, and through this, the initial crowd density can be estimated.

광각 카메라(11)를 이용한 초기 군중 밀집도 추정치는 후속 분석 및 예측에 활용될 수 있다.The initial crowd density estimate using the wide-angle camera 11 can be used for subsequent analysis and prediction.

팬/틸트/줌 카메라(12)는 군중 밀집도가 설정된 수치 이상으로 증가하는 특정 지점을 정밀하게 촬영하기 위해 사용될 수 있다. 광각 카메라(11)에서 감지된 군중 밀집도가 설정된 임계값을 초과할 경우, 팬/틸트/줌 카메라(12)는 해당 지점을 자동으로 촬영하도록 동작하며, 해당 지점에 대한 상세한 영상을 제공할 수 있다.The pan/tilt/zoom camera 12 can be used to precisely photograph specific points where crowd density increases beyond a set value. If the crowd density detected by the wide-angle camera 11 exceeds the set threshold, the pan/tilt/zoom camera 12 operates to automatically photograph the point and can provide detailed images of the point. .

한편, 광각 카메라(11)를 통한 군중 밀집도 수치가 설정된 수치 이상으로 증가하는 지점이 발생하면, 발생된 특정 지점을 적어도 하나의 팬/틸트/줌 카메라(12)를 통해 촬영할 수 있다. 예컨대, 상기 특정 지점을 두 개의 팬/틸트/줌 카메라(12)를 통해 촬영할 수 있으며, 어느 하나의 팬/틸트/줌 카메라(12)를 통해 상기 특정 지점을 정면에서 촬영한다면 나머지 다른 하나의 팬/틸트/줌 카메라(12)를 통해 상기 특정 지점을 정면과는 다른 각도에서 촬영할 수 있다. 이를 위해 팬/틸트/줌 카메라(12)는 적어도 복수 개로 구성하고, 각각의 구성 위치를 달리할 수 있다. 이와 같은 배치를 통해 사람이 겹쳐질 때 정확히 카운트되지 않는 문제를 해결할 수 있다. Meanwhile, when a point occurs where the crowd density value through the wide-angle camera 11 increases beyond a set value, the specific point may be photographed through at least one pan/tilt/zoom camera 12. For example, the specific point can be photographed through two pan/tilt/zoom cameras 12, and if the specific point is photographed from the front through one pan/tilt/zoom camera 12, the other pan/tilt/zoom camera 12 can be photographed from the front. The specific point can be photographed from an angle different from the front through the /tilt/zoom camera 12. To this end, at least a plurality of pan/tilt/zoom cameras 12 may be configured, and each configuration position may be varied. This arrangement can solve the problem of not counting people accurately when they overlap.

팬/틸트/줌 카메라(12)를 통한 영상 분석도 전술한 광각 카메라(11)에 대한 영상 분석 기술을 적용할 수 있다.Image analysis through the pan/tilt/zoom camera 12 can also apply the image analysis technology for the wide-angle camera 11 described above.

처리부(20)는 군중 밀집도와 인파 흐름도를 함께 분석하여 군중 밀집도를 예측할 수 있다. 이를 통해 처리부(20)는 군중 밀집도가 높아질 지역을 예측하고, 표시부(30)를 통해 위험 상황 발생 시 안내 및 경고할 수 있다.The processing unit 20 can predict the crowd density by analyzing the crowd density and the crowd flow chart together. Through this, the processing unit 20 can predict areas where crowd density will increase, and the display unit 30 can provide guidance and warning when a dangerous situation occurs.

또한, 처리부(20)는 촬영수단(10)을 통해 촬영된 영상으로부터 사람이 다니는 도로를 파악할 수 있다. 또한 파악된 도로의 폭을 계산하고 계산된 결과를 반영하여 군중 밀집도가 높아질 지역을 함께 예측할 수 있다.Additionally, the processing unit 20 can identify roads on which people travel from images captured through the photographing means 10. In addition, the width of the identified road can be calculated and the calculated results can be reflected to predict areas where crowd density will increase.

이를 위해 먼저, 영상 처리 기술을 사용하여 영상에서 도로와 관련된 객체를 탐지한다. 이를 위해 컴퓨터 비전 기술 중 하나인 객체 탐지(Object Detection) 기술을 사용할 수 있다. 객체 탐지는 영상에서 특정 객체, 예컨대 도로를 식별하고 경계 상자(bounding box)로 표시하는 기술이다.To achieve this, first, objects related to the road are detected in the image using image processing technology. For this purpose, object detection technology, one of the computer vision technologies, can be used. Object detection is a technology that identifies specific objects, such as roads, in an image and displays them as bounding boxes.

객체 탐지 결과를 기반으로 도로 영역을 추출할 수 있다. 이 단계에서는 객체 탐지 결과 중 도로에 해당하는 경계 상자를 식별하고, 해당 영역을 도로로 인식한다.Road areas can be extracted based on object detection results. In this step, the bounding box corresponding to the road is identified among the object detection results, and the corresponding area is recognized as a road.

추출된 도로 영역에서 도로의 폭을 계산할 수 있다. 이를 위해 도로의 폭을 추정하기 위한 다양한 기하학적 계산 및 패턴 분석 기술을 사용할 수 있다. 예를 들어, 추출된 도로 영역에서 가로 또는 세로 방향의 픽셀 거리를 측정하거나, 도로 주변의 환경과의 비교를 통해 도로 폭을 추정할 수도 있다. 도로의 폭과 인구 밀집도 간에는 일정한 관계가 있을 수 있으며, 추정된 도로 폭과 인구 밀집도 데이터를 결합하여 위험도를 계산할 수 있다. 이를 위해 사전에 정의된 위험도 모델이나 규칙을 사용하여 도로 폭과 인구 밀집도에 따른 위험도 값을 할당할 수 있다.The width of the road can be calculated from the extracted road area. For this purpose, various geometric calculations and pattern analysis techniques can be used to estimate the width of the road. For example, the pixel distance in the horizontal or vertical direction can be measured in the extracted road area, or the road width can be estimated through comparison with the environment around the road. There may be a certain relationship between road width and population density, and the risk can be calculated by combining the estimated road width and population density data. For this purpose, risk values can be assigned according to road width and population density using predefined risk models or rules.

이와 같은 방법을 사용하여 촬영수단(10)을 통해 취득된 영상에서 도로를 자동으로 탐지하고 도로 폭을 계산하여 인구 밀집도에 따른 위험도에 반영할 수 있다. Using this method, roads can be automatically detected in images acquired through the imaging means 10, road widths can be calculated, and reflected in the risk level according to population density.

표시부(30)는 군중 밀집도가 설정된 수치 이상으로 나타나는 위험 상황을 감지하고 관련 정보를 안내하기 위해 사용될 수 있다.The display unit 30 can be used to detect a dangerous situation where the crowd density exceeds a set value and provide related information.

표시부(30)는 촬영수단(10)을 통해 촬영된 영상을 모니터링하는 관제소나 설정된 지역에 위치된 사람들이 파악할 수 있는 장소 중 적어도 어느 한 곳에 배치될 수 있다.The display unit 30 may be placed in at least one of a control center that monitors images captured through the photographing means 10 or a location that can be recognized by people located in a set area.

표시부(30)는 다양한 형태의 디스플레이 장치를 포함할 수 있다. 예컨대, LCD 모니터, LED 패널, 전광판, 프로젝터 등이 사용될 수 있다. 이러한 디스플레이 장치를 통해 촬영된 영상, 군중 밀집도 정보, 위험 상황에 대한 안내 메시지, 경로 안내 등을 표시할 수 있다.The display unit 30 may include various types of display devices. For example, an LCD monitor, LED panel, electronic signboard, projector, etc. can be used. These display devices can display captured images, crowd density information, guidance messages about dangerous situations, route guidance, etc.

표시부(30)는 음성 안내나 경보음 등의 오디오 기능을 포함할 수 있다. 이를 통해 시각적으로 정보를 제공하는 동시에 청각적으로도 안내할 수 있다.The display unit 30 may include audio functions such as voice guidance or alarm sounds. Through this, it is possible to provide information visually and at the same time provide auditory guidance.

표시부(30)는 군중 밀집도가 설정된 수치 이상으로 증가하는 위험 상황을 감지하면, 적절한 경고 신호를 발생시킬 수 있다. 예를 들어, 경보음, 비상등의 점멸, 경고 메시지 등을 통해 사람들에게 안내할 수 있다.When the display unit 30 detects a dangerous situation in which the crowd density increases beyond a set value, it can generate an appropriate warning signal. For example, people can be guided through alarm sounds, flashing emergency lights, warning messages, etc.

또한, 표시부(30)는 관제소나 설정된 지역의 관리자에게 위험 상황에 대한 알림을 전송할 수도 있다. 이를 통해 적시에 대응 조치를 취할 수 있으며, 필요한 경우 응급 서비스나 관련 기관에 연락하여 지원을 요청할 수 있다.Additionally, the display unit 30 may transmit a notification of a dangerous situation to a control center or a manager in a set area. This allows you to take timely response actions and, if necessary, contact emergency services or relevant authorities for assistance.

표시부는 촬영수단을 통해 촬영하는 지역에 위치된 사람들이 휴대한 모바일기기일 수 있다. The display unit may be a mobile device carried by people located in an area being photographed through a photographing means.

휴대한 모바일기기에 설치되는 특정 애플리케이션을 통해 표시부 기능을 구현할 수 있다. 이 애플리케이션은 촬영된 영상, 군중 밀집도 정보, 위험 상황 알림 등을 사용자에게 표시하고, 필요한 경우 경고 메시지를 전달할 수 있다.The display function can be implemented through a specific application installed on a portable mobile device. This application can display captured video, crowd density information, and dangerous situation notifications to the user, and deliver warning messages when necessary.

또한, 설정된 지역에 위치한 사람들이 휴대한 모바일기기에 알림 메시지를 전송하여 위험 상황에 대한 경고를 제공할 수 있다. 이를 위해 푸시 알림 또는 SMS 메시지 등을 활용하여 사용자에게 정보를 전달할 수 있다.Additionally, it is possible to provide warnings about dangerous situations by sending notification messages to mobile devices carried by people located in a set area. For this purpose, information can be delivered to the user using push notifications or SMS messages.

또한, 휴대한 모바일기기의 GPS(Global Positioning System) 또는 기타 위치 기반 기술을 활용하여 사용자의 현재 위치를 파악하고, 해당 위치에 대한 군중 밀집도 정보를 제공할 수 있다. 이를 통해 사용자는 자신이 위치한 지역의 군중 상태를 실시간으로 확인할 수 있다.In addition, the user's current location can be determined by using the GPS (Global Positioning System) of the mobile device carried or other location-based technology, and crowd density information for that location can be provided. This allows users to check the crowd conditions in their area in real time.

또한, 촬영된 영상 데이터를 휴대한 모바일기기의 화면으로 공유하여 사용자에게 표시할 수도 있다. 이를 위해 영상 스트리밍 기술이나 화면 공유 애플리케이션 등을 활용하여 실시간으로 영상을 전달하고 표시할 수 있다.Additionally, the captured video data can be shared and displayed to the user on the screen of a portable mobile device. For this purpose, video can be delivered and displayed in real time using video streaming technology or screen sharing applications.

이상에서 설명한 본 발명에 따르면, 실시간으로 인파 상황을 모니터링하고 즉각적인 대응 조치를 취할 수 있으며, 근거리와 원거리에서 발생하는 인파에 대한 정확한 분석이 가능하고, 사전에 위험 지역을 예측하고 제반 조치를 취할 수 있으며, 보다 빠른 안전 조치가 가능함은 물론, 전술한 효과들을 통해 군중 관리와 안전 관리 분야에서 현장 운영자 및 관리자들에게 큰 도움을 제공할 수 있다.According to the present invention described above, it is possible to monitor crowd situations in real time and take immediate response measures, enable accurate analysis of crowds occurring near and far, and predict risk areas in advance and take various measures. In addition to enabling faster safety measures, the aforementioned effects can provide great help to field operators and managers in the areas of crowd management and safety management.

이상에서, 본 발명의 실시례를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시례에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, as long as it is within the scope of the purpose of the present invention, all of the components may be operated by selectively combining one or more of them. In addition, terms such as “include,” “comprise,” or “have” described above mean that the corresponding component may be present, unless specifically stated to the contrary, and therefore do not exclude other components. Rather, it should be interpreted as being able to include other components. All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as generally understood by those skilled in the art to which the present invention pertains. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the contextual meaning of the related technology and, unless explicitly defined in the present invention, should not be interpreted in an idealized or overly formal sense.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 게시된 실시례들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시례에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention. Accordingly, the embodiments posted in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these examples. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

10: 촬영수단 11: 광각 카메라
12: 팬/틸트/줌 카메라 20: 처리부
30: 표시부
10: Photography means 11: Wide-angle camera
12: Pan/Tilt/Zoom camera 20: Processing unit
30: display unit

Claims (8)

촬영수단을 통해 촬영된 영상으로부터 사람 수를 카운팅하여 실시간으로 군중 밀집도를 계산하는 것으로,
설정된 지역을 촬영하는 적어도 하나의 촬영수단; 및
상기 촬영수단을 통해 촬영된 영상으로부터 사람을 파악하고, 파악된 각각의 사람이 위치된 거리에 따라 사람 수 카운팅 방법을 다르게 적용하여 촬영된 영상속의 전체 사람 수를 카운팅하며, 이를 바탕으로 상기 설정된 지역의 군중 밀집도를 계산하는 처리부를 포함하고,
상기 처리부는,
객체 인식, 객체 추적, 세그멘테이션, 광학 문자 인식 및 군집화 기술을 포함하는 컴퓨터 비전 기술; 및
고해상도 변환, 저조도 개선 및 안개 제거 기술을 포함하는 영상 처리 알고리즘을 적용하며,
상기 처리부는,
영상 속의 군중 밀집도와 함께 인파 흐름도를 함께 파악하여 군중 밀집도를 예측하며,
상기 군중 밀집도 및 상기 인파 흐름도를 통해 군중 밀집도가 높아질 지역을 함께 예측하고,
상기 촬영수단을 통해 촬영된 영상으로부터 사람이 다니는 도로를 파악하고, 파악된 도로의 폭을 반영하여 군중 밀집도가 높아질 지역을 함께 예측하며,
군중 밀집도가 설정된 수치 이상으로 나타나는 위험 상황 발생시, 이를 감지하여 안내하는 표시부를 더 포함하고,
상기 표시부는,
군중이 밀집된 지역에 배치된 LCD 모니터, LED 패널, 전광판 및 프로젝터를 통해 군중이 밀집된 상태를 촬영한 영상, 군중 밀집도 정보, 위험 상황에 대한 안내 메시지 및 경로 안내를 시각적, 청각적으로 표시하며,
상기 설정된 지역에 위치된 사람들이 파악할 수 있는 장소에 배치되고,
상기 촬영수단은,
설정된 지역 전체를 촬영하는 광각 카메라; 및
상기 광각 카메라를 통해 촬영된 영상에서 어느 특정된 곳의 군중 밀집도가 설정된 수치 이상으로 파악될 경우, 상기 특정된 곳을 정밀하게 촬영하는 적어도 하나의 팬/틸트/줌 카메라를 포함하되,
상기 팬/틸트/줌 카메라는 상기 특정된 곳을 서로 다른 각도에서 촬영하는 복수 개의 팬/틸트/줌 카메라로 구성되며,
상기 표시부는 상기 촬영수단을 통해 촬영하는 지역에 위치된 사람들이 휴대한 모바일기기를 포함하고,
상기 휴대한 모바일기기에 설치되는 특정 애플리케이션을 통해 군중 밀집도 정보, 위험 상황 알림이 표시됨과 동시에 상기 촬영수단을 통해 촬영된 영상이 함께 표시되며,
상기 사람 수 카운팅 방법은,
상기 사람이 위치된 거리가 설정된 제1 이격거리 이상이면 원거리로 판단하여 사람의 머리만 카운팅하고,
상기 사람이 위치된 거리가 설정된 상기 제1 이격거리 미만이면 근거리로 판단하여 사람 전신을 카운팅하는 군중 밀집도 자동 측정 시스템.
This method calculates crowd density in real time by counting the number of people from images captured through filming means.
At least one photographing means for photographing a set area; and
People are identified from images captured through the above-mentioned photography means, and the total number of people in the captured images is counted by applying different people counting methods depending on the distance at which each identified person is located, and based on this, the set area is determined. It includes a processing unit that calculates the crowd density of,
The processing unit,
Computer vision technologies, including object recognition, object tracking, segmentation, optical character recognition, and clustering techniques; and
Apply image processing algorithms including high-resolution conversion, low-light improvement, and fog removal technology.
The processing unit,
Predict crowd density by identifying the crowd density in the video and the crowd flow chart.
Predict areas where crowd density will increase based on the crowd density and the crowd flow chart,
Identify roads on which people travel from images captured through the above filming means, and predict areas where crowd density will increase by reflecting the width of the identified roads.
When a dangerous situation occurs where the crowd density exceeds a set value, it further includes a display unit that detects and provides guidance,
The display unit,
Videos of crowded conditions, crowd density information, guidance messages about dangerous situations, and route guidance are displayed visually and audibly through LCD monitors, LED panels, electronic signs, and projectors placed in crowded areas.
It is placed in a place that can be seen by people located in the set area,
The photography means is,
Wide-angle camera that covers the entire set area; and
When the crowd density in a specific place is determined to be greater than a set value in the image captured through the wide-angle camera, it includes at least one pan/tilt/zoom camera that precisely photographs the specific place,
The pan/tilt/zoom camera consists of a plurality of pan/tilt/zoom cameras that photograph the specified location from different angles,
The display unit includes a mobile device carried by people located in an area taking pictures through the photography means,
Crowd density information and dangerous situation notifications are displayed through a specific application installed on the portable mobile device, and images captured through the above-described filming means are also displayed,
The method for counting the number of people is,
If the distance at which the person is located is greater than the set first separation distance, it is judged to be far away and only the person's head is counted,
An automatic crowd density measurement system that counts the entire body of a person by determining that the distance at which the person is located is less than the set first separation distance.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020230076740A 2023-06-15 2023-06-15 Crowd density automatic measurement system KR102663282B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230076740A KR102663282B1 (en) 2023-06-15 2023-06-15 Crowd density automatic measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230076740A KR102663282B1 (en) 2023-06-15 2023-06-15 Crowd density automatic measurement system

Publications (1)

Publication Number Publication Date
KR102663282B1 true KR102663282B1 (en) 2024-05-03

Family

ID=91077097

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230076740A KR102663282B1 (en) 2023-06-15 2023-06-15 Crowd density automatic measurement system

Country Status (1)

Country Link
KR (1) KR102663282B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076316A (en) * 2009-09-30 2011-04-14 Fujifilm Corp Device, method and program for crowd watching
KR101176947B1 (en) 2011-12-08 2012-08-30 동국대학교 경주캠퍼스 산학협력단 Crowd information serving system using cctv
JP2022105203A (en) * 2015-12-28 2022-07-12 日本電気株式会社 Information processing device, control method and program
CN115331175A (en) * 2022-08-24 2022-11-11 浪潮通信信息系统有限公司 Regional people counting method and system based on self-adaptive integrated model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076316A (en) * 2009-09-30 2011-04-14 Fujifilm Corp Device, method and program for crowd watching
KR101176947B1 (en) 2011-12-08 2012-08-30 동국대학교 경주캠퍼스 산학협력단 Crowd information serving system using cctv
JP2022105203A (en) * 2015-12-28 2022-07-12 日本電気株式会社 Information processing device, control method and program
CN115331175A (en) * 2022-08-24 2022-11-11 浪潮通信信息系统有限公司 Regional people counting method and system based on self-adaptive integrated model

Similar Documents

Publication Publication Date Title
CA2931713C (en) Video camera scene translation
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
US10366263B2 (en) Object detection for video camera self-calibration
Nam et al. Intelligent video surveillance system: 3-tier context-aware surveillance system with metadata
KR102579542B1 (en) Crowd density-based hazardous area automated alert system
KR20160062880A (en) road traffic information management system for g using camera and radar
CN104378582A (en) Intelligent video analysis system and method based on PTZ video camera cruising
Yang et al. Clustering method for counting passengers getting in a bus with single camera
CA2670021A1 (en) System and method for estimating characteristics of persons or things
Cheng et al. Accurate motion detection using a self-adaptive background matching framework
Davies et al. A progress review of intelligent CCTV surveillance systems
KR20170006356A (en) Method for customer analysis based on two-dimension video and apparatus for the same
CN113869258A (en) Traffic incident detection method and device, electronic equipment and readable storage medium
KR102663282B1 (en) Crowd density automatic measurement system
KR101161557B1 (en) The apparatus and method of moving object tracking with shadow removal moudule in camera position and time
JP2023036054A (en) Target counting method, apparatus, device, and storage medium
Vasu An effective step to real-time implementation of accident detection system using image processing
Bhusal Object detection and tracking in wide area surveillance using thermal imagery
Bragatto et al. A new approach to multiple vehicle tracking in intersections using harris corners and adaptive background subtraction
KR101374138B1 (en) System for abnormal situation detection
Pflugfelder et al. Influence of camera properties on image analysis in visual tunnel surveillance
Hradiš et al. Real-time tracking of participants in meeting video
CN114979567B (en) Object and region interaction method and system applied to video intelligent monitoring
Dalka et al. Video content analysis in the urban area telemonitoring system
KR20180000205A (en) Apparatus and method for intelligently analyzing video

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant