KR102353724B1 - Apparatus and method for monitoring city condition - Google Patents
Apparatus and method for monitoring city condition Download PDFInfo
- Publication number
- KR102353724B1 KR102353724B1 KR1020190155346A KR20190155346A KR102353724B1 KR 102353724 B1 KR102353724 B1 KR 102353724B1 KR 1020190155346 A KR1020190155346 A KR 1020190155346A KR 20190155346 A KR20190155346 A KR 20190155346A KR 102353724 B1 KR102353724 B1 KR 102353724B1
- Authority
- KR
- South Korea
- Prior art keywords
- state
- image
- area
- analysis unit
- facility
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title description 22
- 238000000034 method Methods 0.000 title description 14
- 238000004458 analytical method Methods 0.000 claims abstract description 70
- 238000012806 monitoring device Methods 0.000 claims abstract description 12
- 230000002265 prevention Effects 0.000 claims description 19
- 238000012423 maintenance Methods 0.000 claims description 8
- 238000010422 painting Methods 0.000 claims description 5
- 238000003915 air pollution Methods 0.000 claims description 3
- 230000002950 deficient Effects 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 2
- 230000003449 preventive effect Effects 0.000 claims description 2
- 239000003973 paint Substances 0.000 claims 1
- 230000002159 abnormal effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000010813 municipal solid waste Substances 0.000 description 3
- 206010012289 Dementia Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/14—Central alarm receiver or annunciator arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Emergency Management (AREA)
- Alarm Systems (AREA)
Abstract
모니터링 장치가 제공된다. 상기 모니터링 장치는 설정 지역을 촬영하는 영상 유니트로부터 상기 설정 지역의 영상 데이터 및 위치 정보를 획득하는 획득부; 복수의 상기 영상 유니트로부터 획득된 복수의 상기 영상 데이터를 위치별로 통합하는 통합부; 상기 통합부에 의해 통합된 통합 영상에서 관심 영역을 설정하는 설정부; 상기 관심 영역의 상태 정보를 분석하는 분석부;를 포함할 수 있다.A monitoring device is provided. The monitoring device may include: an acquisition unit configured to acquire image data and location information of the set area from an image unit that captures the set area; an integrator for integrating the plurality of image data obtained from the plurality of image units by location; a setting unit for setting a region of interest in the integrated image integrated by the integrating unit; and an analysis unit that analyzes the state information of the region of interest.
Description
본 발명은 도시 상태를 모니터링하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for monitoring city conditions.
카메라 영상 정보를 이용한 위험 상황 및 침입 상황 인식 등은 보편적인 기술이며, 많은 부분에서 연구가 진행되고 있다. 하지만, 해당 연구는 다중 정보를 통합하여 실시간 도시 상태를 모니터링하는 것이 아니라 인공지능기술을 이용한 인식의 자율화 및 고도화에 집중되고 있다. 또한, 이동형 및 고정형 로봇에서 획득된 정보를 분석하여 실시간 도시 상태 정보로 반영하고 분석하여 도시 상태 기반 도시 관리 사항을 제안하는 시스템의 구현 및 적용예는 찾기 힘들다.Recognition of dangerous situations and intrusions using camera image information is a universal technology, and research is being conducted in many areas. However, the research is focused on autonomy and advancement of recognition using artificial intelligence technology, rather than monitoring real-time city conditions by integrating multiple information. In addition, it is difficult to find examples of implementation and application of a system that analyzes information obtained from mobile and stationary robots, reflects and analyzes real-time city state information, and proposes city state-based city management matters.
한국등록특허공보 제10-1285169호에는 트랙 이동체를 이용한 조명등 자동 유지보수 시스템이 나타나 있다. 그러나, 시설에 대한 모니터링이 지협적으로만 수행되는 한계를 갖는다.Korean Patent Publication No. 10-1285169 discloses an automatic maintenance system for lighting lamps using a track moving body. However, there is a limitation in that the monitoring of the facility is performed only locally.
본 발명은 각종 재난 예방을 위해 도시의 상태 정보를 분석하는 모니터링 장치 및 방법을 제공하기 위한 것이다.An object of the present invention is to provide a monitoring apparatus and method for analyzing city state information to prevent various disasters.
본 발명의 모니터링 장치는 설정 지역을 촬영하는 영상 유니트로부터 상기 설정 지역의 영상 데이터 및 위치 정보를 획득하는 획득부; 복수의 상기 영상 유니트로부터 획득된 복수의 상기 영상 데이터를 위치별로 통합하는 통합부; 상기 통합부에 의해 통합된 통합 영상에서 관심 영역을 설정하는 설정부; 상기 관심 영역의 상태 정보를 분석하는 분석부;를 포함할 수 있다.The monitoring apparatus of the present invention includes: an acquisition unit configured to acquire image data and location information of the set area from an image unit that captures the set area; an integrator for integrating the plurality of image data obtained from the plurality of image units by location; a setting unit for setting a region of interest in the integrated image integrated by the integrating unit; and an analysis unit that analyzes the state information of the region of interest.
본 발명의 모니터링 장치는 설정 지역을 촬영한 영상 데이터에서 관심 영역을 설정하는 설정부; 상기 관심 영역의 상태 정보를 분석하는 분석부;를 포함하고, 상기 분석부는 상기 관심 영역의 평소 상태와 상기 관심 영역의 현재 상태를 비교하며, 상기 분석부는 상기 평소 상태와 상기 현재 상태가 설정값 이상의 차이를 갖는 것으로 분석되면, 상기 관심 영역에 이상 상황이 발생된 것으로 판단할 수 있다.A monitoring apparatus of the present invention includes: a setting unit for setting a region of interest in image data obtained by photographing a setting region; and an analysis unit that analyzes the state information of the region of interest, wherein the analysis unit compares a normal state of the region of interest with a current state of the region of interest, and the analysis unit determines that the usual state and the current state are greater than or equal to a set value If it is analyzed that there is a difference, it may be determined that an abnormal situation has occurred in the ROI.
본 발명의 모니터링 방법은 복수의 이동형 로봇 또는 고정형 로봇의 카메라를 통해 도시 구역별 영상 데이터 및 위치 정보를 획득하는 단계; 상기 영상 데이터에 포함된 개인 정보를 필터링하는 단계; 상기 개인 정보가 필터링된 상기 영상 데이터를 이용해서 도시 치안 및 안전 상태, 도시 환경 상태, 도시 시설 상태 중 적어도 하나를 포함하는 도시 상태 정보를 분석하는 단계; 상기 도시 상태 정보의 분석 결과를 이용해서 도시 상태 이상 상황을 모니터링하고, 경찰 서버, 소방 서버, 도시 관리 서버 중 적어도 하나에 상기 도시 상태 정보, 상기 도시 상태 정보의 분석 결과, 상기 도시 상태 이상 상황 중 적어도 하나를 제공하는 단계;를 포함할 수 있다.The monitoring method of the present invention includes: acquiring image data and location information for each city area through cameras of a plurality of mobile robots or fixed robots; filtering the personal information included in the image data; analyzing city state information including at least one of a city security and safety state, an urban environment state, and an urban facility state by using the image data from which the personal information has been filtered; The city state abnormal situation is monitored by using the analysis result of the city state information, and the city state information, the analysis result of the city state information, and the urban state abnormal situation in at least one of a police server, a firefighting server, and a city management server providing at least one; may include.
본 발명의 모니터링 장치 및 방법은 복수의 로봇에서 촬영된 영상 데이터(음성 포함)를 통합해서 도시 전체를 실시간으로 모니터링할 수 있다.The monitoring apparatus and method of the present invention can monitor the entire city in real time by integrating image data (including voice) captured by a plurality of robots.
본 발명에 따르면, 도시 전체를 나타낸 통합 영상에 관심 영역이 설정되고, 관심 영역별로 서로 다른 종류의 도시 상태가 자동으로 파악될 수 있다.According to the present invention, an ROI may be set in an integrated image representing an entire city, and different types of city states may be automatically recognized for each ROI.
자동으로 파악된 도시 상태는 해당 관심 영역의 도시 상태, 예를 들어 범죄, 시설물 훼손 등을 처리할 수 있는 소방 서버, 경찰 서버, 도시 관리 서버 중 하나에 제공될 수 있다.The automatically identified city state may be provided to one of a firefighting server, a police server, and a city management server capable of handling a city state of a corresponding area of interest, for example, crime, damage to facilities, and the like.
본 발명에 따르면, 다중로봇 기반 정보를 수집하여, 재난 예방을 위한 도시의 상태 정보 분석 및 문제 사항을 제시하는 다중로봇 기반 도시 상태 통합 관제 시스템이 제공될 수 있다. 이를 통해서, 도시 정보 수집을 통한 재난 예방 및 도시 관리 환경에서 인력 활용에 대한 문제 및 정보 분석에 필요한 추가적인 자원 소모 문제가 해결될 수 있으며, 도시 상태 모니터링의 실시간성이 보장될 수 있다.According to the present invention, a multi-robot-based city state integrated control system that collects multi-robot-based information, analyzes city state information for disaster prevention, and presents problems can be provided. Through this, the problem of disaster prevention through city information collection and the problem of manpower utilization in the city management environment and the additional resource consumption problem required for information analysis can be solved, and real-time city status monitoring can be guaranteed.
본 발명에서는 다수의 로봇으로부터 획득된 정보를 인식하고 분석하여 실시간 도시 상태를 모니터링하며, 모니터링된 도시 상태 기반의 관리 작업을 제안하기 위한 시스템 및 방법이 제공될 수 있다.In the present invention, a system and method for recognizing and analyzing information obtained from a plurality of robots to monitor real-time city status, and to propose a management operation based on the monitored city status can be provided.
도 1은 본 발명의 모니터링 장치를 나타낸 개략도이다.
도 2는 분석부의 동작을 나타낸 개략도이다.
도 3은 획득부의 동장을 나타낸 개략도이다.
도 4는 설정부의 동작을 나타낸 개략도이다.
도 5는 본 발명의 모니터링 방법을 나타낸 흐름도이다.
도 6은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.1 is a schematic diagram showing a monitoring device of the present invention.
2 is a schematic diagram showing the operation of the analysis unit.
3 is a schematic diagram showing the movement of the acquisition unit.
4 is a schematic diagram showing the operation of the setting unit.
5 is a flowchart illustrating a monitoring method of the present invention.
6 is a diagram illustrating a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is said that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but other elements in the middle It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It is to be understood that the existence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof, is not precluded in advance.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of described items or any item of a plurality of described items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.
도 1은 본 발명의 모니터링 장치(100)를 나타낸 개략도이다. 도 2는 분석부(170)의 동작을 나타낸 개략도이다. 도 3은 획득부(110)의 동장을 나타낸 개략도이다. 도 4는 설정부(150)의 동작을 나타낸 개략도이다.1 is a schematic diagram showing a
도면에 도시된 모니터링 장치(100)는 획득부(110), 통합부(130), 설정부(150), 분석부(170), 제공부(190)를 포함할 수 있다.The
본 발명의 모니터링 장치(100)의 모니터링 대상은 도시 등의 행정 구역을 포함할 수 있다. 행정 구역은 단일의 로봇만으로 모두 촬영하기 힘든 크기를 가질 수 있다. 도시 등의 행정 구역을 실시간으로 모니터링하기 위해서, 행정 구역 내의 서로 다른 설정 지역을 촬영한 복수의 영상 데이터를 취합하고, 거대한 행정 구역 전체를 나타내는 단일의 통합 영상이 형성될 필요가 있다.A monitoring target of the
단일의 통합 영상이 형성되면, 모니터링 장치(100)는 동일한 분석 알고리즘을 적용하여 범죄 발생, 범죄 예방, 도로 환경, 거리 환경, 대기 환경, 대중 교통 시설, 도시 안전 시설, 주민 복지 시설 등의 이상 유무를 나타내는 상태 정보를 자동으로 생성하거나 분석할 수 있다.When a single integrated image is formed, the
획득부(110)는 설정 지역을 촬영하는 영상 유니트(10)로부터 설정 지역의 영상 데이터 및 위치 정보를 획득할 수 있다.The obtaining
획득부(110)는 설정 위치에 고정되거나 복수의 위치를 이동하는 영상 유니트(10)로부터 영상 데이터 i 및 위치 정보 n을 획득할 수 있다. 영상 유니트(10)는 자동 또는 반자동으로 설정 지역을 촬영하는 각종 로봇을 포함할 수 있다. 설정 위치에 고정된 로봇은 CCTV(Closed Circuit TeleVision) 등을 포함할 수 있다. 복수의 위치를 경유해서 이동하는 로봇은 카메라가 탑재된 무인 차량을 포함할 수 있다. 경우에 따라 운전자가 운전하는 차량에 탑재된 촬영 기계도 이동 로봇의 범주에 포함될 수 있다.The
획득부(110)는 영상 데이터에 포함된 개인 정보 p를 필터링할 수 있다. 일 예로, 획득부(110)는 영상 데이터에 등장하는 개인의 얼굴을 모자이크 처리할 수 있다. 만약, 방범 상태의 파악과 같은 경우에는 얼굴의 모자이크 처리 정도로 개인 정보의 필터링이 완료될 수 있다. 반면, 인도의 시설 상태를 파악하는 경우에는 현재 영상 데이터 i1에 존재하는 사람(개인 정보 p)가 필요하지 않다. 이런 경우에는 기존에 촬영해둔 영상 데이터 i0의 배경 b로 현재 영상 데이터 i1의 사람 전체를 덮어씌우는 방식 등으로 사람 전체 모습이 필터링 또는 제거된 최종 영상 데이터 i2가 생성될 수 있다.The
획득부(110)는 복수의 로봇과 유무선으로 통신할 수 있다. 통신 부하를 줄이기 위해 획득부(110)는 복수로 마련될 수 있다.The
통합부(130)는 복수의 영상 유니트(10)로부터 획득된 복수의 영상 데이터 i를 위치별로 통합할 수 있다.The
통합부(130)는 위치 정보 n을 이용해서 위치별로 구분되는 복수의 영상 데이터 i가 지도 m의 위치 정보에 맞게 배치된 통합 영상 j를 생성할 수 있다. 통합 영상 j는 모니터링 장치(100)가 감시 대상으로 하는 전체 영역 z를 모두 포함할 수 있다.The
설정부(150)는 통합부(130)에 의해 통합된 통합 영상에서 관심 영역을 설정할 수 있다. 설정부(150)는 설정 지역을 촬영한 영상 데이터에서 관심 영역을 설정할 수 있다.The
분석부(170)는 관심 영역의 상태 정보를 자동으로 분석할 수 있다.The
분석부(170)는 개인 정보가 필터링된 영상 데이터를 이용해서 도시의 상태를 나타내는 상태 정보를 분석할 수 있다.The
제공부(190)는 분석부(170)에서 분석된 상태 정보를 소방 서버(92), 경찰 서버(91), 도시 관리 서버(93) 중 적어도 하나에 제공할 수 있다. 제공부(190)는 소방 서버(92), 경찰 서버(91), 도시 관리 서버(93)와 유무선 통신하는 서버 통신 모듈을 포함할 수 있다.The providing
관심 영역의 상태 정보는 복수 종류로 분류될 수 있다. 상태 정보의 종류에 맞춰 관심 영역이 설정될 수 있다. 관심 영역은 상태의 이상 유무를 자동 판별하는 기준이 되는 영역 단위로, 한 화면에 하나 이상이 존재할 수 있다. 각 관심 영역의 크기는 서로 동일하거나 서로 다를 수 있다.The state information of the ROI may be classified into a plurality of types. A region of interest may be set according to the type of state information. The region of interest is an area unit that serves as a standard for automatically determining whether a state is abnormal, and one or more may exist in one screen. The size of each ROI may be the same as or different from each other.
도시 상태는 도시 치안 상태, 도시 안전 상태, 도시 환경 상태, 도시 시설 상태 등으로 분류될 수 있다. 이에 맞춰 설정부(150)는 관심 영역을 제1 영역 ①, 제2 영역 ②, 제3 영역 ③으로 구분할 수 있다.The urban state may be classified into an urban security state, an urban safety state, an urban environment state, an urban facility state, and the like. In accordance with this, the
제1 영역 ①은 도시 치안 상태 또는 도시 안전 상태와 관련된 영역으로, 설정부(150)에 의해 설정될 수 있다.The
제2 영역 ②는 도시 환경과 관련된 영역이고, 제3 영역 ③은 도시 시설과 관련된 영역으로, 각각 설정부(150)에 의해 설정될 수 있다.The
분석부(170)는 제1 영역 ①, 제2 영역 ②, 제3 영역 ③을 각각 구분해서 상태 정보를 분석할 수 있다.The
각 영역은 다음의 표 1과 같이 분류되거나 구분될 수 있다.Each area can be classified or divided as shown in Table 1 below.
안전 상태city security and
safe state
(자전거, 버스 등)public transport facilities
(bicycle, bus, etc.)
제1 영역 ①은 범죄 발생 항목, 범죄 예방 항목으로 구분될 수 있다. 범죄 발생 항목은 대인 범죄 발생 상태 또는 대물 범죄 발생 상태를 포함할 수 있다. 대인 범죄 발생 상태를 감시하기 위해 설정부(150)는 건물 사이의 으슥한 골목, 사람이 다니는 인도 등을 제1 영역 ①로 설정할 수 있다. 분석부(170)는 영상 기반의 폭력 상황을 인식하거나, 음성 인식 기반의 응급 상황을 판단할 수 있다. 분석부(170)는 영상 데이터(음성 데이터 포함 가능), 특히 제1 영역 ①의 분석을 통해 폭력 상황을 인식하거나 응급 상황을 판단할 수 있다. 일 예로, 분석부(170)는 기계 학습을 통해 사람이 쓰러진 것을 판단하는 응급 모델을 이용해서 사람이 쓰러진 응급 상황을 판단할 수 있다. 또는, 분석부(170)는 사람의 주먹이나 발이 기설정된 궤적을 따라 움직이는 경우, 폭력으로 판단하고 폭력 상황이라고 판단할 수 있다. 분석부(170)의 분석 결과는 제공부(190)에 의해 경찰 서버(91), 소방 서버(92), 도시 관리 서버(93)에 제공될 수 있다.The
범죄 예방 항목은 도시 순찰 상태를 포함할 수 있다.The crime prevention item may include city patrol status.
분석부(170)는 이동형 로봇의 이동 경로 기록을 기반으로 순찰 상태를 판단할 수 있다. 분석부(170)는 영상 기반 지도내 탐색 지역을 분석할 수 있다.The
설정부(150)는 이동 로봇이 촬영한 영상 데이터를 제2 영역으로 설정할 수 있다. 이동 로봇의 영상이 한자리에 고정되어 있으면, 분석부(170)는 이동형 로봇에 의한 도시 순찰이 비정상적인 것으로 판단할 수 있다. 또는, 분석부(170)는 이동 로봇의 위치 정보를 분석해서 이동 로봇이 움직이지 않으면 도시 순찰 상태가 비정상적인 것으로 판단할 수 있다.The
제2 영역 ②는 도로 환경 항목, 거리 환경 항목, 대기 환경 항목으로 구분될 수 있다.The
도로 환경 항목은 도로 관리 상태 또는 도로 혼잡 발생 관리 상태를 포함할 수 있다.The road environment item may include a road management status or a road congestion occurrence management status.
분석부(170)는 차선 및 횡단보도 도색 상태를 인식하거나, 불법 주정차 구역내 차량 상태를 인식할 수 있다.The
설정부(150)는 차량이 지나다니는 도로, 차량이 주차하는 장소를 제2 영역 ②로 설정할 수 있다. 분석부(170)는 설정부(150)에 의해 설정된 제2 영역 ②의 분석을 통해 도로에 그려진 차선의 상태 및 횡단보도의 상태를 확인하거나, 불법 주정차를 인식할 수 있다. 분석부(170)는 도로에 차선 또는 횡단보도가 새로 그려진 시점에 촬영된 차선 또는 횡단보도를 기준 영상으로 설정하고, 이후에 촬영된 영상과 기준 영상을 비교할 수 있다. 기준 영상의 도색 면적을 기준으로 본래의 색이 아닌 다른 색의 비율의 설정값을 만족하면 분석부(170)는 도색 상태를 불량으로 판별할 수 있다. 도색 상태 불량 정보는 제공부(190)에 의해 도시 관리 서버(93)에 제공될 수 있다.The
거리 환경 항목은 부착물 관리 상태 또는 거리 관리 상태를 포함할 수 있다.The street environment item may include an attachment management state or a distance management state.
분석부(170)는 건물 외벽의 부착물 상태를 인식하거나, 인도 상태 및 인도 내의 장애물을 인식할 수 있다. 분석부(170)는 건물의 벽, 가로등 등에 부착된 부착물의 상태를 분석하거나, 거리에 존재하는 쓰레기양과 같은 거리 관리 상태를 분석할 수 있다.The
설정부(150)는 건물의 벽, 가로등, 쓰레기가 집중되는 인도, 쓰레기통 주변을 제2 영역 ②로 설정할 수 있다. 분석부(170)는 제2 영역 ②로 설정된 영역에 대한 분석에 부착물 관리 상태 또는 거리 관리 상태를 분석하는 기계 학습 알고리즘 또는 영상 분석 알고리즘을 적용할 수 있다. 분석 결과가 설정값을 만족하면, 분석부(170)는 부착물 관리 상태 또는 거리 관리 상태를 불량으로 판단할 수 있다. 불량 상태 정보는 제공부(190)에 의해 도시 관리 서버(93)에 제공될 수 있다.The
대기 환경 항목은 대기 오염 상태를 포함할 수 있다.The air environment item may include air pollution conditions.
분석부(170)는 대기 색상 및 구름 상태 기반으로 대기 상태를 인식할 수 있다. 또는, 분석부(170)는 기상청 데이터베이스로부터 해당 지역의 대기 상태를 획득할 수 있다.The
설정부(150)는 대기 색상 및 구름 상태를 분석하기 위해, 영상 데이터에 포함된 하늘 부분을 제2 영역 ②로 설정할 수 있다. 분석부(170)는 설정부(150)에 의해 설정된 제2 영역 ②에 대기 색상 분석 알고리즘, 구름 분석 알고리즘을 적용해서 해당 지역의 대기 상태를 분석할 수 있다.The
제3 영역 ③은 대중 교통 시설 항목, 도시 안전 시설 항목, 주민 복지 시설 항목으로 구분될 수 있다.The
대중 교통 시설 항목은 자전거 도로 및 관련 시설 상태 또는 대중 교통 이용 시설 정비 상태를 포함할 수 있다.The public transportation facility item may include a bicycle road and related facility condition or a public transportation facility maintenance condition.
분석부(170)는 시설 파손 여부를 인식하거나, 이용 시설의 정비 기록 데이터베이스로부터 정비 상태를 획득할 수 있다.The
일 예로, 설정부(150)는 영상 데이터에 포함된 자전거 도로 또는 자전거 도로 관련 시설을 제3 영역 ③으로 설정할 수 있다. 설정부(150)는 영상 데이터에 포함된 버스 정류장 시설(차양막, 안내판 등), 택시 정류장 시설을 제3 영역 ③으로 설정할 수 있다.For example, the
분석부(170)는 제3 영역 ③의 기준 영상과 현재 영상 간의 비교, 훼손 분석 알고리즘 등을 이용해서 이용 시설의 파손 여부를 인식하거나 판별할 수 있다. 분석부(170)의 판별 결과는 제공부(190)에 의해 도시 관리 서버(93)에 제공될 수 있다.The
도시 안전 시설 항목은 자연재해 예방 시설 관리 상태 또는 인위재난 예방 시설 관리 상태를 포함할 수 있다.The urban safety facility item may include a management status of a natural disaster prevention facility or a management status of a man-made disaster prevention facility.
분석부(170)는 예방 시설의 정상 작동 여부를 인식하거나, 재난 예방 시설의 점검 기록을 획득할 수 있다.The
자연재해 예방 시설은 눈이 내리는 환경에서 도로에 뿌릴 수 있는 모래를 보과하는 보관함 등을 포함할 수 있다. 인위재난 예방 시설은 도로의 신호등 등을 포함할 수 있다.Natural disaster prevention facilities may include storage bins to compensate for sand that can be sprinkled on roads in snowy conditions. The human-made disaster prevention facility may include a traffic light on the road.
설정부(150)는 보관함 또는 신호등을 제3 영역 ③으로 설정할 수 있다. 분석부(170)느는 설정부(150)에 의해 설정된 제3 영역 ③의 파손 여부를 인식하거나 분석할 수 있다. 분석부(170)의 분석 결과는 제공부(190)에 의해 도시 관리 서버(93) 또는 소방 서버(92)에 제공될 수 있다.The
주민 복지 시설 항목은 생활 기반 시설 상태 또는 주민 복지 시설 상태를 포함할 수 있다.The resident welfare facility item may include a living infrastructure status or a resident welfare facility status.
분석부(170)는 생활 기반 시설 및 복지 시설 내 외부 파손 여부를 인식할 수 있다. The
설정부(150)는 사회복지관, 치매지원센터 등의 주민 복지 시설이 표시된 영상 데이터의 일부 영역을 제3 영역 ③으로 설정할 수 있다. 분석부(170)는 제3 영역 ③에 등장하는 건물 등의 훼손 여부를 분석, 판별할 수 있다.The
기본적으로, 분석부(170)는 관심 영역 ①, ②, ③의 평소 상태와 관심 영역의 현재 상태를 비교할 수 있다. 분석부(170)는 평소 상태와 현재 상태가 설정값 이상의 차이를 갖는 것으로 분석되면, 해당 관심 영역에 이상 상황이 발생된 것으로 판단할 수 있다.Basically, the
설정부(150)는 영상 데이터에 포함된 객체를 치안, 도로, 거리, 대기, 시설에 따라 분류할 수 있다. 설정부(150)는 분류 결과에 따라 설정 지역에 하나 이상의 관심 영역 ①, ②, ③을 설정할 수 있다.The
분석부(170)는 영상 데이터에 설정된 각 관심 영역에 대해 분류 결과에 따라 서로 다른 설정값을 적용할 수 있다.The
분석부(170)는 서로 다르게 설정된 각 설정값을 이용해서 영상 데이터에 포함된 각 관심 영역을 구분해서 모니터링할 수 있다.The
도 5는 본 발명의 모니터링 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a monitoring method of the present invention.
본 발명의 모니터링 방법은 도 1에 도시된 모니터링 장치(100)에 의해 수행될 수 있다.The monitoring method of the present invention may be performed by the
모니터링 장치(100)는 복수의 이동형 로봇 또는 고정형 로봇의 카메라를 통해 도시 구역별 영상 데이터 및 위치 정보를 획득할 수 있다(S 510). 획득부(110)에서 수행되는 동작으로 복수의 로봇이 마련되는 경우, 통신 부하 및 처리 부하의 경감을 위해 획득부(110)도 복수로 마련될 수 있다.The
모니터링 장치(100)는 영상 데이터에 포함된 개인 정보를 필터링할 수 있다(S 520). 범죄자 등을 얼굴 식별과 같은 특수 상황을 제외하고, 개인의 얼굴 등과 같은 개인 정보는 보호되는 것이 좋다. 획득부(110)는 영상 데이터에 포함된 얼굴을 모자이크 처리하거나 사람이 존재하는 영역의 기존 이미지를 가져와 사람을 덮어씌울 수 있다.The
모니터링 장치(100)는 개인 정보가 필터링된 영상 데이터를 이용해서 도시 치안 및 안전 상태, 도시 환경 상태, 도시 시설 상태 중 적어도 하나를 포함하는 도시 상태 정보를 분석할 수 있다(S 530). 도시 상태 정보는 분석부(170)에 의해 분석될 수 있다. 필요에 따라, 영상 유니트(10)에 해당하는 복수의 로봇으로부터 획득된 복수의 영상 데이터는 하나의 통합 영상으로 통합하는 통합부(130)가 마련될 수 있다. 또한, 통합 영상에서 관심 영역을 설정하는 설정부(150)가 추가로 마련될 수 있다.The
모니터링 장치(100)는 도시 상태 정보의 분석 결과를 이용해서 도시 상태 이상 상황을 모니터링할 수 있다. 모니터링 장치(100)는 경찰 서버(91), 소방 서버(92), 도시 관리 서버(93) 중 적어도 하나에 도시 상태 정보, 도시 상태 정보의 분석 결과, 도시 상태 이상 상황 중 적어도 하나를 제공할 수 있다(S 540). 도시 상태 이상 상황의 모니터링은 분석부(170)에 의해 수행될 수 있다. 도시 상태 정보, 분석 결과, 이상 상황은 제공부(190)에 의해 외부 서버(91, 92, 93)에 제공될 수 있다.The
도 6은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 6의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 모니터링 장치(100) 등) 일 수 있다. 6 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 6 may be a device described herein (eg, the
도 6의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 6 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . In addition, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, and methods described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100 .
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a nonvolatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. On the other hand, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded may be implemented. And, such an implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also presented. It belongs to the scope of the invention.
10...영상 유니트 91...경찰 서버
92...소방 서버 93...도시 관리 서버
100...모니터링 장치 110...획득부
130...통합부 150...설정부
170...분석부 190...제공부10...
92...
100...
130...
170...
Claims (8)
상기 관심 영역의 상태 정보를 분석하는 분석부;
도시 관리 서버와 통신하는 제공부;를 포함하고,
상기 분석부는 차량이 지나다니는 도로에 그려진 차선의 상태 또는 횡단보도의 상태를 확인하며,
상기 분석부는 도로에 차선 또는 횡단보도가 새로 그려진 시점에 촬영된 차선 또는 횡단보도의 영상을 기준 영상으로 설정하고, 이후에 촬영된 상기 차선 또는 상기 횡단보도의 영상과 상기 기준 영상을 비교하며,
도로에 차선 또는 횡단보도가 새로 그려진 시점 이후에 촬영된 상기 차선 또는 상기 횡단보도의 영상을 '이후에 촬영된 영상'으로 정의할 때,
상기 분석부는 상기 이후에 촬영된 영상에서, 상기 기준 영상의 상기 차선 또는 상기 횡단보도의 도색 면적을 기준으로 본래의 색이 아닌 다른 색의 비율이 설정값을 만족하면, 도색 상태를 불량으로 판별하고,
상기 제공부는 상기 도색 상태의 불량을 나타내는 정보를 상기 도시 관리 서버에 제공하며,
상기 설정부는 상기 관심 영역을 제1 영역, 제2 영역, 제3 영역으로 구분하고,
상기 제1 영역은 도시 치안 상태 또는 도시 안전 상태와 관련된 영역이며,
상기 제2 영역은 도시 환경과 관련된 영역이고,
상기 제3 영역은 도시 시설과 관련된 영역이며,
상기 분석부는 상기 제1 영역, 상기 제2 영역, 상기 제3 영역을 각각 구분해서 상기 상태 정보를 분석하고,
상기 제1 영역은 범죄 발생 항목, 범죄 예방 항목으로 구분되며,
상기 범죄 발생 항목은 대인 범죄 발생 상태 또는 대물 범죄 발생 상태를 포함하고,
상기 분석부는 영상 기반의 폭력 상황을 인식하거나, 음성 인식 기반의 응급 상황을 판단하며,
상기 범죄 예방 항목은 도시 순찰 상태를 포함하고,
상기 분석부는 이동형 로봇의 이동 경로 기록을 기반으로 순찰 상태를 판단하거나, 영상 기반 지도내 탐색 지역을 분석하며,
상기 제2 영역은 도로 환경 항목, 거리 환경 항목, 대기 환경 항목으로 구분되고,
상기 도로 환경 항목은 도로 관리 상태 또는 도로 혼잡 발생 관리 상태를 포함하며,
상기 분석부는 차선 및 횡단보도 도색 상태 인식하거나, 불법 주정차 구역내 차량 상태를 인식하고,
상기 거리 환경 항목은 부착물 관리 상태 또는 거리 관리 상태를 포함하며,
상기 분석부는 건물 외벽의 부착물 상태를 인식하거나, 인도 상태 및 인도 내의 장애물을 인식하고,
상기 대기 환경 항목은 대기 오염 상태를 포함하며,
상기 분석부는 대기 색상 및 구름 상태 기반으로 대기 상태를 인식하거나, 기상청 데이터베이스로부터 지역의 대기 상태를 획득하고,
상기 제3 영역은 대중 교통 시설 항목, 도시 안전 시설 항목, 주민 복지 시설 항목으로 구분되며,
상기 대중 교통 시설 항목은 자전거 도로 및 관련 시설 상태 또는 대중 교통 이용 시설 정비 상태를 포함하고,
상기 분석부는 시설 파손 여부를 인식하거나, 이용 시설의 정비 기록 데이터베이스로부터 정비 상태를 획득하며,
상기 도시 안전 시설 항목은 자연재해 예방 시설 관리 상태 또는 인위재난 예방 시설 관리 상태를 포함하고,
상기 분석부는 예방 시설의 정상 작동 여부를 인식하거나, 재난 예방 시설의 점검 기록을 획득하며,
상기 주민 복지 시설 항목은 생활 기반 시설 상태 또는 주민 복지 시설 상태를 포함하고,
상기 분석부는 생활 기반 시설 및 복지 시설 내 외부 파손 여부를 인식하며,
상기 설정부는 상기 영상 데이터에 포함된 객체를 치안, 도로, 거리, 대기, 시설에 따라 분류하고,
상기 설정부는 분류 결과에 따라 상기 설정 지역에 하나 이상의 상기 관심 영역을 설정하며,
상기 분석부는 상기 영상 데이터에 설정된 각 관심 영역에 대해 상기 분류 결과에 따라 서로 다른 설정값을 적용하고,
상기 분석부는 서로 다르게 설정된 각 설정값을 이용해서 상기 영상 데이터에 포함된 각 관심 영역을 구분해서 모니터링하는 모니터링 장치.
a setting unit for setting a region of interest in image data obtained by photographing a setting region;
an analysis unit analyzing state information of the region of interest;
Including; providing unit that communicates with the city management server;
The analysis unit confirms the state of the lane drawn on the road through which the vehicle passes or the state of the crosswalk,
The analysis unit sets the image of the lane or crosswalk taken at the time when the lane or crosswalk is newly drawn on the road as a reference image, and compares the image of the lane or the crosswalk taken later with the reference image,
When defining the image of the lane or crosswalk taken after the time when the lane or crosswalk is newly drawn on the road as 'image taken later',
In the image taken after the above, if the ratio of the color other than the original color based on the painted area of the lane or the crosswalk of the reference image satisfies the set value, the painting state is determined as defective, ,
The providing unit provides information indicating the failure of the painting state to the city management server,
The setting unit divides the region of interest into a first region, a second region, and a third region,
The first area is an area related to a city policing state or a city safety state,
The second area is an area related to an urban environment,
The third area is an area related to urban facilities,
The analysis unit analyzes the state information by dividing the first region, the second region, and the third region, respectively,
The first area is divided into crime occurrence items and crime prevention items,
The crime occurrence item includes a state of occurrence of a crime against a person or a state of occurrence of an objectionable crime,
The analysis unit recognizes an image-based violence situation or determines an emergency situation based on voice recognition,
The crime prevention item includes city patrol status,
The analysis unit determines the patrol state based on the moving path record of the mobile robot, or analyzes the search area in the image-based map,
The second area is divided into a road environment item, a street environment item, and an atmospheric environment item,
The road environment item includes a road management state or a road congestion occurrence management state,
The analysis unit recognizes the paint state of the lane and crosswalk, or recognizes the state of the vehicle in the illegal parking area,
The street environment item includes an attachment management state or a distance management state,
The analysis unit recognizes the state of attachment of the outer wall of the building, or recognizes the state of the sidewalk and the obstacle in the sidewalk,
The air environment item includes an air pollution state,
The analysis unit recognizes the atmospheric state based on the atmospheric color and cloud state, or obtains the regional atmospheric state from the Meteorological Agency database,
The third area is divided into a public transportation facility item, a city safety facility item, and a resident welfare facility item,
The public transportation facility item includes a bicycle road and related facility condition or a public transportation facility maintenance condition,
The analysis unit recognizes whether the facility is damaged or acquires the maintenance status from the maintenance record database of the facility used,
The city safety facility item includes a natural disaster prevention facility management state or a man-made disaster prevention facility management state,
The analysis unit recognizes whether the preventive facility operates normally, or obtains an inspection record of the disaster prevention facility,
The resident welfare facility item includes a living infrastructure status or a resident welfare facility status,
The analysis unit recognizes whether there is external damage inside living infrastructure and welfare facilities,
The setting unit classifies the objects included in the image data according to security, road, street, atmosphere, and facilities,
The setting unit sets one or more regions of interest in the setting region according to the classification result,
The analysis unit applies different setting values according to the classification result to each ROI set in the image data,
The analysis unit monitors each region of interest included in the image data by using each set value set differently from each other.
상기 설정 지역을 촬영하는 영상 유니트로부터 상기 설정 지역의 영상 데이터 및 위치 정보를 획득하는 획득부, 복수의 상기 영상 유니트로부터 획득된 복수의 상기 영상 데이터를 위치별로 통합한 통합 영상을 생성하는 통합부가 마련되고,
상기 획득부는 설정 위치에 고정되거나 복수의 위치를 이동하는 로봇으로부터 상기 영상 데이터 및 상기 위치 정보를 획득하고,
상기 통합부는 상기 위치 정보를 이용해서 위치별로 구분되는 복수의 상기 영상 데이터가 상기 위치 정보에 맞게 배치된 상기 통합 영상을 생성하는 모니터링 장치.
According to claim 1,
An acquisition unit for obtaining image data and location information of the set area from an image unit for photographing the set area, and an integrator for generating an integrated image by integrating a plurality of the image data obtained from a plurality of the image units for each location are provided become,
The acquisition unit acquires the image data and the position information from a robot fixed to a set position or moving a plurality of positions,
The integrator generates the integrated image in which a plurality of the image data classified for each location is arranged according to the location information by using the location information.
상기 설정 지역을 촬영하는 영상 유니트로부터 상기 설정 지역의 영상 데이터 및 위치 정보를 획득하는 획득부가 마련되고,
상기 획득부는 상기 영상 데이터에 포함된 개인 정보를 필터링하고,
상기 분석부는 상기 개인 정보가 필터링된 영상 데이터를 이용해서 도시의 상태를 나타내는 상기 상태 정보를 분석하는 모니터링 장치.
According to claim 1,
An acquisition unit is provided for acquiring image data and location information of the set area from an image unit that captures the set area,
The acquisition unit filters the personal information included in the image data,
The analyzing unit is a monitoring device for analyzing the state information indicating the state of the city by using the image data from which the personal information has been filtered.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190155346A KR102353724B1 (en) | 2019-11-28 | 2019-11-28 | Apparatus and method for monitoring city condition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190155346A KR102353724B1 (en) | 2019-11-28 | 2019-11-28 | Apparatus and method for monitoring city condition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210066296A KR20210066296A (en) | 2021-06-07 |
KR102353724B1 true KR102353724B1 (en) | 2022-01-19 |
Family
ID=76374338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190155346A KR102353724B1 (en) | 2019-11-28 | 2019-11-28 | Apparatus and method for monitoring city condition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102353724B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114980430B (en) * | 2022-06-02 | 2024-01-16 | 常州嘉顿照明科技有限公司 | Be applied to large-scale square's of city high-pole lamp intelligent lighting system |
CN117075640B (en) * | 2023-10-12 | 2024-01-12 | 江苏智慧汽车研究院有限公司 | Unmanned operation supervision system and method for artificial intelligent equipment based on Internet of things |
CN117151959B (en) * | 2023-10-16 | 2024-04-16 | 广东紫慧旭光科技有限公司 | Real-time video analysis method, system and storage medium for city management |
CN118504843A (en) * | 2024-07-17 | 2024-08-16 | 深圳市华傲数据技术有限公司 | Government affair data processing method and device, storage medium and electronic equipment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100994159B1 (en) * | 2010-05-10 | 2010-11-12 | 투아이시스(주) | Catenary furniture deformation video surveillance system |
KR101743689B1 (en) * | 2016-09-07 | 2017-06-07 | 주식회사 엠제이비전테크 | Method for image processing of integrated intelligence surveillance CCTV(closed circuit television) and integrated intelligence surveillance CCTV system |
KR101865072B1 (en) * | 2016-10-17 | 2018-06-07 | 주식회사에스에이티 | An apparatus and method for constructing microscopic dust information by measuring, compensating and predicting the concentration density of microscopic dust |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101045300B1 (en) * | 2009-01-22 | 2011-06-29 | 렉스젠(주) | Vehicle Monitering System With Privacy Protection and the Method thereof |
KR101285169B1 (en) | 2012-11-23 | 2013-07-11 | (주)그린파워 | Maintenance system for lighting installations using track movement device |
KR101761357B1 (en) * | 2012-12-14 | 2017-07-25 | 한국전자통신연구원 | System and method for vehicle monitoring |
-
2019
- 2019-11-28 KR KR1020190155346A patent/KR102353724B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100994159B1 (en) * | 2010-05-10 | 2010-11-12 | 투아이시스(주) | Catenary furniture deformation video surveillance system |
KR101743689B1 (en) * | 2016-09-07 | 2017-06-07 | 주식회사 엠제이비전테크 | Method for image processing of integrated intelligence surveillance CCTV(closed circuit television) and integrated intelligence surveillance CCTV system |
KR101865072B1 (en) * | 2016-10-17 | 2018-06-07 | 주식회사에스에이티 | An apparatus and method for constructing microscopic dust information by measuring, compensating and predicting the concentration density of microscopic dust |
Also Published As
Publication number | Publication date |
---|---|
KR20210066296A (en) | 2021-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102353724B1 (en) | Apparatus and method for monitoring city condition | |
CN109686109B (en) | Parking lot safety monitoring management system and method based on artificial intelligence | |
CN104506804B (en) | Motor vehicle abnormal behaviour monitoring device and its method on a kind of through street | |
KR102122859B1 (en) | Method for tracking multi target in traffic image-monitoring-system | |
CN110738857B (en) | Vehicle violation evidence obtaining method, device and equipment | |
KR101971878B1 (en) | Video surveillance system and method using deep-learning based car number recognition technology in multi-lane environment | |
KR101833359B1 (en) | Method and apparatus for collecting traffic information from bigdata of outside image of car | |
KR101671428B1 (en) | Intelligent Monitoring System For Violation Vehicles in crossroads | |
CN107705574A (en) | A kind of precisely full-automatic capturing system of quick road violation parking | |
CN101964145A (en) | Automatic license plate recognition method and system | |
KR102122850B1 (en) | Solution for analysis road and recognition vehicle license plate employing deep-learning | |
KR102035592B1 (en) | A supporting system and method that assist partial inspections of suspicious objects in cctv video streams by using multi-level object recognition technology to reduce workload of human-eye based inspectors | |
CN108983806A (en) | Method and system for generating area detection and air route planning data and aircraft | |
CN109448365A (en) | Across the scale space base land regions road traffic system integrated supervision method of one kind | |
KR102434154B1 (en) | Method for tracking multi target in traffic image-monitoring-system | |
CN111783700B (en) | Automatic recognition and early warning method and system for pavement foreign matters | |
CN111439187A (en) | Intelligent patrol car system | |
CN114394100A (en) | Unmanned prowl car control system and unmanned car | |
CN112511610A (en) | Vehicle-mounted patrol intelligent method and system based on urban fine management conditions | |
US8229170B2 (en) | Method and system for detecting a signal structure from a moving video platform | |
CN211630273U (en) | Intelligent image recognition device for railway environment | |
KR102309106B1 (en) | Situation linkage type image analysis device | |
CN113076821A (en) | Event detection method and device | |
KR101686851B1 (en) | Integrated control system using cctv camera | |
KR101395095B1 (en) | Auto searching system to search car numbers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |