KR20230087008A - Processing apparatus for dangerous situation information using smart pole - Google Patents
Processing apparatus for dangerous situation information using smart pole Download PDFInfo
- Publication number
- KR20230087008A KR20230087008A KR1020210175548A KR20210175548A KR20230087008A KR 20230087008 A KR20230087008 A KR 20230087008A KR 1020210175548 A KR1020210175548 A KR 1020210175548A KR 20210175548 A KR20210175548 A KR 20210175548A KR 20230087008 A KR20230087008 A KR 20230087008A
- Authority
- KR
- South Korea
- Prior art keywords
- dangerous situation
- server
- camera
- image
- unit
- Prior art date
Links
- 238000012545 processing Methods 0.000 title description 4
- 238000012544 monitoring process Methods 0.000 claims abstract description 26
- 230000010365 information processing Effects 0.000 claims abstract description 19
- 239000000758 substrate Substances 0.000 claims description 16
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 abstract description 14
- 238000013473 artificial intelligence Methods 0.000 abstract description 12
- 206010013647 Drowning Diseases 0.000 abstract 1
- 230000006870 function Effects 0.000 description 15
- 101100277553 Caenorhabditis elegans dep-1 gene Proteins 0.000 description 6
- 241001455273 Tetrapoda Species 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B23/00—Alarms responsive to unspecified undesired or abnormal conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/14—Central alarm receiver or annunciator arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Emergency Management (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 발명은 스마트 폴을 이용한 위험상황 정보 처리장치에 관한 것이다.The present invention relates to a dangerous situation information processing device using a smart pole.
보다 자세하게는, 본 발명은 사람이 물에 빠지는 등의 위험한 상황을 인공지능을 이용하여 신속하고 정확하게 감지할 수 있는 스마트 폴을 이용한 위험상황 정보 처리장치에 관한 것이다.More specifically, the present invention relates to a dangerous situation information processing device using a smart pole capable of quickly and accurately detecting a dangerous situation such as a person falling into water using artificial intelligence.
정보통신기술의 발달로 인해 CCTV 또는 블랙박스와 같은 영상 데이터를 수집하기 위한 장치가 널리 보급되고 있다.Due to the development of information and communication technology, devices for collecting image data such as CCTVs or black boxes are becoming widely available.
이러한 장치들은 사회 및 개인의 안전을 위한 무인 감시 체계의 일부로서 사용될 수 있다.These devices can be used as part of an unmanned surveillance system for social and personal safety.
종래의 데이터 수집 장치는 녹화된 영상 데이터를 사후적으로 이용하여 문제를 확인하는 용도로 주로 사용되고 있다.Conventional data collection devices are mainly used for the purpose of confirming problems by using recorded video data ex post facto.
그러나 사후적으로 영상 데이터를 이용하는 경우에는 위험상황에 대해 신속하게 대응하기 어렵다는 문제점이 있다.However, there is a problem in that it is difficult to quickly respond to a dangerous situation in the case of using image data ex post facto.
위험상황에 신속하게 대응하기 위한 종래기술로서 대한민국 등록특허공보 제10-2126498호[문헌 1](발명의 명칭 : 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템)에서는 영상 인식에 대한 인공지능 알고리즘을 이용한 학습을 통해 객체, 객체의 움직임 및 위험상황을 감지하고 위험 단계에 따른 감시 기능을 수행하는 기술적 구성을 포함하고 있다.As a prior art for quickly responding to dangerous situations, Korean Patent Registration No. 10-2126498 [Document 1] (title of invention: image recognition-based dangerous situation detection method, risk management device, and dangerous situation detection system) image recognition It includes a technical configuration that detects objects, movements of objects, and dangerous situations through learning using artificial intelligence algorithms and performs monitoring functions according to risk levels.
그러나 문헌 1에 따른 기술에서는 데이터 처리량이 과도하게 증가할 수 있다는 문제점이 있다.However, in the technique according to
본 발명은 인공지능을 이용하여 빠르고 정확하게 위험상황을 감지할 수 있는 스마트 폴을 이용한 위험상황 정보 처리장치 제공하는데 그 목적이 있다.An object of the present invention is to provide a dangerous situation information processing device using a smart pole capable of quickly and accurately detecting a dangerous situation using artificial intelligence.
본 발명은 상대적으로 적은 데이터 처리량으로 위험상황을 감지하기 위한 스마트 폴을 이용한 위험상황 정보 처리를 제공하는데 다른 목적이 있다.Another object of the present invention is to provide dangerous situation information processing using a smart pole for detecting a dangerous situation with a relatively small amount of data processing.
본 발명은 위험상황을 효과적으로 관리할 수 있는 스마트 폴을 이용한 위험상황 정보 처리를 제공하는데 또 다른 목적이 있다.Another object of the present invention is to provide dangerous situation information processing using smart poles that can effectively manage dangerous situations.
본 발명에 따른 스마트 폴을 이용한 위험상황 정보 처리장치는 수직방향(Vertical Direction)으로 연장되는 부분을 포함하는 기둥부(Pilalr Part), 상기 기둥부에 배치되는 카메라 모듈(Camera Module) 및 서버(Server)를 포함하고, 상기 카메라 모듈은 미리 설정된 대상영역(Target Area)을 촬영하여 감시영상(Monitoring Image)을 생성하고, 생성한 상기 감시영상을 상기 서버로 전송하고, 상기 서버는 상기 카메라 모듈로부터 수신한 상기 감시영상을 분석하여 위험상황을 검출하고, 검출한 상기 위험상황에 관련된 관련영상 및 상기 위험상황에 관련된 위치정보를 연관시켜 저장할 수 있다.Danger situation information processing device using a smart pole according to the present invention includes a pillar part including a part extending in the vertical direction, a camera module disposed in the pillar part, and a server ), wherein the camera module captures a preset target area to generate a monitoring image, transmits the generated monitoring image to the server, and the server receives the image from the camera module A dangerous situation may be detected by analyzing the surveillance image, and the detected image related to the dangerous situation and location information related to the dangerous situation may be stored in association with each other.
또한, 상기 카메라 모듈은 케이스부(Case Part), 상기 케이스부 내부에 배치되는 프레임부(Frame Part), 상기 케이스부 내에서 상기 프레임부에 배치되며 상기 대상영역을 촬영하는 카메라부(Camera Part) 및 상기 케이스부 내에 배치되며, 상기 카메라부와 전기적으로 연결되는 카메라 구동부(Camera Driver)를 포함하고, 상기 카메라부는 제 1 촬영 영역에 대응되는 제 1 카메라부(First Camera Part) 및 제 2 촬영 영역에 대응되는 제 2 카메라부(Second Camera Part)를 포함하고, 상기 제 1 카메라부는 제 1 렌즈부(First Lens Part) 및 상기 제 1 렌즈부가 배치되는 제 1 렌즈 기판부(First Lens Substrate Part)를 포함하고, 상기 제 2 카메라부는 제 2 렌즈부(Second Lens Part) 및 상기 제 2 렌즈부가 배치되는 제 2 렌즈 기판부(Second Lens Substrate Part)를 포함하고, 상기 제 1 렌즈부가 향하는 방향은 상기 제 2 렌즈부가 향하는 방향과 다를 수 있다.In addition, the camera module includes a case part, a frame part disposed inside the case part, and a camera part disposed in the frame part within the case part and capturing the target area. and a camera driver disposed within the case unit and electrically connected to the camera unit, wherein the camera unit includes a first camera part corresponding to a first capturing area and a second capturing area. The first camera part includes a first lens part (First Lens Part) and a first lens substrate part on which the first lens part is disposed. The second camera unit includes a second lens part and a second lens substrate part on which the second lens part is disposed, and the direction in which the first lens part faces is the first lens part. 2 It may be different from the direction the lens unit faces.
또한, 상기 카메라 모듈은 설정모드(Setting Mode)에서 상기 대상영역을 촬영하여 설정영상(Setting Image)을 생성하고, 생성한 상기 설정영상을 상기 서버로 전송하고, 상기 서버는 상기 설정영상을 분석하여 상기 대상영역에서 배경을 검출하고, 검출한 상기 배경에서 관심영역 및 위험영역을 설정하고, 상기 감시영상에서 객체(Object)가 상기 위험영역에 위치하는 경우에 상기 위험상황이 발생한 것으로 판단할 수 있다.In addition, the camera module captures the target area in a setting mode to generate a setting image, transmits the generated setting image to the server, and the server analyzes the setting image It is possible to determine that the dangerous situation has occurred when a background is detected in the target region, an interest region and a danger region are set in the detected background, and an object is located in the danger region in the surveillance image. .
또한, 상기 서버는 미리 설정된 적어도 하나의 단말기로 상기 위험상황에 대한 정보를 전송할 수 있다.In addition, the server may transmit information on the dangerous situation to at least one preset terminal.
또한, 상기 위험상황에 관련된 위치를 포인팅(Pointing)하는 포인팅부(Pointing Part)를 더 포함할 수 있다.In addition, a pointing part for pointing to a location related to the dangerous situation may be further included.
본 발명에 따른 스마트 폴을 이용한 위험상황 정보 처리는 위험상황을 충분히 빠르고 정확하게 감지할 수 있는 효과가 있다.Dangerous situation information processing using a smart pole according to the present invention has the effect of sufficiently quickly and accurately detecting a dangerous situation.
본 발명에 따른 스마트 폴을 이용한 위험상황 정보 처리는 데이터 처리량을 줄임으로써 위험상황을 보다 빠르게 감지할 수 있는 효과가 있다.Dangerous situation information processing using a smart pole according to the present invention has the effect of detecting a dangerous situation more quickly by reducing data throughput.
도 1 내지 도 3은 본 발명에 따른 스마트 폴과 인공지능을 이용한 위험상황 정보 처리장치에 대해 설명하기 위한 도면이다.
도 4 내지 도 5는 설정모드에 대해 설명하기 위한 도면이다.
도 6 내지 도 17은 위험상황을 감지하는 방법 및 그에 관련된 내용을 설명하기 위한 도면이다.
도 18 내지 도 35는 카메라 모듈에 대해 설명하기 위한 도면이다.1 to 3 are views for explaining a dangerous situation information processing device using a smart pole and artificial intelligence according to the present invention.
4 and 5 are diagrams for explaining the setting mode.
6 to 17 are diagrams for explaining a method for detecting a dangerous situation and contents related thereto.
18 to 35 are diagrams for explaining a camera module.
이하, 첨부된 도면을 참조하여 본 발명에 따른 스마트 폴을 이용한 위험상황 정보 처리장치에 대해 상세히 설명한다.Hereinafter, a dangerous situation information processing device using a smart pole according to the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. This is not intended to limit the present invention to specific embodiments, and it can be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.
본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. The terms may only be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The terms and/or may include any combination of a plurality of related recited items or any of a plurality of related recited items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. can be understood On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it may be understood that no other element exists in the middle.
본 문서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this document are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.
본 문서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this document, the terms "include" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features It may be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries may be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, interpreted in an ideal or excessively formal meaning. It may not be.
아울러, 본 문서에 개시된 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the embodiments disclosed in this document are provided to more completely explain the embodiments to those skilled in the art, and the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.
본 문서에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 수 있다.In describing the present invention in this document, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description may be omitted.
도 1 내지 도 3은 본 발명에 따른 스마트 폴과 인공지능을 이용한 위험상황 정보 처리장치에 대해 설명하기 위한 도면이다.1 to 3 are views for explaining a dangerous situation information processing device using a smart pole and artificial intelligence according to the present invention.
도 1을 살펴보면, 본 발명에 따른 스마트 폴과 인공지능을 이용한 위험상황 정보 처리장치(1, 이하 '정보 처리장치'라 칭할 수 있다)는 적어도 하나의 카메라 모듈(Camera Module, 10), 서버(Server, 20), 적어도 하나의 안전요원 단말기(60) 및 적어도 하나의 감독관 단말기(70)를 포함할 수 있다.Referring to FIG. 1, a dangerous situation information processing device (1, hereinafter referred to as an 'information processing device') using a smart pole and artificial intelligence according to the present invention includes at least one camera module (Camera Module, 10), a server ( Server, 20), at least one
카메라 모듈(10)은 주변의 영상을 촬영할 수 있다. 여기서, 주변은 카메라 모듈(10)의 촬영이 가능한 영역, 즉 대상영역(Target Area)을 의미할 수 있다. 대상영역은 촬영영역이라고도 할 수 있다.The
이러한 카메라 모듈(10)은 기둥 형태를 갖는 기둥부(Pillar Part, 50)에 배치될 수 있다.The
기둥부(50)는 도로변 등에 설치되는 전신주, 가로등 등의 형태를 갖는 것이 가능하다.The
이처럼, 기둥부(50)에 카메라 모듈(10)을 설치하는 것을 스마트 폴(Smart Pole, SP) 타입이라고 할 수 있다.As such, installing the
도시하지는 않았지만, 스마트 폴(SP)에는 전력을 공급하기 위한 전력 공급 수단, 통신을 수행하기 위한 통신 수단 등의 다양한 전자부품이 배치될 수 있다.Although not shown, various electronic components such as power supply means for supplying power and communication means for performing communication may be disposed in the smart pole (SP).
도 2에 나타나 있는 바와 같이, 카메라 모듈(10)을 포함하는 스마트 폴(SP)은 복수개가 강 등의 하천(RVR)의 고수부지 등에 설치될 수 있다.As shown in Figure 2, a plurality of smart poles (SP) including the
이하에서는 카메라 모듈(10)의 관점에서 주로 설명을 진행하지만, 카메라 모듈(10)은 스마트 폴(SP)로 치환되더라도 무방할 수 있다.In the following, description is mainly made from the viewpoint of the
안전요원 단말기(60)는 미리 설정된 안전요원이 사용하는 무선 및/또는 유선 단말기라고 할 수 있다.The
안전요원은 지역의 안정을 위해 활동하는 사람들로서 상인, 공무원, 경찰 등 다양한 사람들이 이에 참여할 수 있다.Security guards are people who work for regional stability, and various people such as merchants, public officials, and police can participate in them.
예를 들면, 서울의 이촌동에서 활동하는 상인 A를 가정하여 보자.For example, suppose merchant A is active in Ichon-dong, Seoul.
상인 A는 자신의 단말기(안전요원 단말기(60))를 이용하여 서버(20)에 서울 이촌동에 대응하는 안전요원으로 등록하고, 서버(20)로부터 안전요원에 대응하는 소정의 앱(App)을 다운로드하여 설치할 수 있다.Merchant A registers with the
이러한 상인 A는 지역, 즉 서울 이촌동에서 위험상황이 발생하는 경우 서울 이촌동의 안전요원으로서 활동할 수 있다.When a dangerous situation occurs in the region, that is, Ichon-dong, Seoul, merchant A can act as a safety agent in Ichon-dong, Seoul.
감독관 단말기(70)는 미리 설정된 감독관(Supervisor)이 사용하는 무선 및/또는 유선 단말기라고 할 수 있다.The
감독관은 위험상황에 대한 상황 파악을 하는 사람일 수 있다.A supervisor may be a person who assesses the situation for a dangerous situation.
예를 들면, 감독관은 위험상황을 충분히 정확하게 파악할 수 있는 사람들로서 경찰관, 소방관 등 다양한 사람들이 이에 참여할 수 있다.For example, a supervisor is a person who can sufficiently accurately grasp a dangerous situation, and various people such as police officers and firefighters can participate in it.
서버(20)는 적어도 하나의 카메라 모듈(10), 적어도 하나의 안전요원 단말기(60) 및 적어도 하나의 감독관 단말기(70)와 유선 및/또는 무선 방식으로 통신을 수행할 수 있다.The
카메라 모듈(10), 서버(20), 안전요원 단말기(60) 및 감독관 단말기(70) 사이의 통신의 흐름이 도 3에 대략적으로 나타나 있다.A flow of communication between the
서버(20)는 적어도 하나의 카메라 모듈(10)로부터 카메라 모듈(10)이 촬영한 영상(설정영상, 감시영상)을 전송받고, 전송받은 영상을 인공지능을 이용하여 분석할 수 있다.The
여기서, 설정영상 및/또는 감시영상은 동영상 및/또는 정지영상인 것이 가능하다.Here, it is possible that the setting image and/or surveillance image is a moving image and/or a still image.
서버(20)는 인공지능을 이용하여 카메라 모듈(10)이 촬영한 영상을 분석하여 위험상황을 감지할 수 있다.The
서버(20)는 포인팅 제어신호 및/또는 알람 제어신호를 카메라 모듈(10)로 전송할 수 있다.The
서버(20)는 위험상황의 발생 시 위험상황에 대한 정보를 적어도 하나의 안전요원 단말기(60) 및/또는 적어도 하나의 감독관 단말기(70)로 전송할 수 있다.When a dangerous situation occurs, the
아울러, 서버(20)는 위험상황에 대응하는 위치정보, 예컨대 위험상황이 발생한 위치에 대한 정보 및/또는 위험상황이 감지된 감시영상을 촬영한 카메라 모듈(20)의 위치에 대한 정보를 안전요원 단말기(60) 및/또는 감독자 단말기(70)로 전송할 수 있다.In addition, the
또는, 서버(20)는 위험상황에 대응하는 위치 정보를 카메라 모듈(10)로 전송하는 것도 가능할 수 있다.Alternatively, the
적어도 하나의 안전요원 단말기(60)는 서버(20)로 위험상황에 대응하는 대응영상을 전송할 수 있다.At least one safety personnel terminal 60 may transmit a corresponding image corresponding to a dangerous situation to the
서버(20)는 적어도 하나의 감독관 단말기(70)로 위험상황의 판정을 요청하는 정보를 전송하고, 이에 대응하여 감독관 단말기(70)는 서버(20)로 위험상황을 판정한 판정정보를 전송하는 것이 가능하다.The
아울러, 서버(20)는 위험상황에 관련된 적어도 하나의 안전요원 단말기(60) 및/또는 감독관 단말기(70)로 소정의 보상을 지급할 수 있다.In addition, the
여기서, 보상은 금전적인 보상이 가능하고, 누적되는 포인트를 지급하는 방식도 가능할 수 있다.Here, the reward may be a monetary reward, and a method of providing accumulated points may also be possible.
아울러, 서버(20)는 적어도 하나의 카메라 모듈(10), 적어도 하나의 안전요원 단말기(60) 및/또는 적어도 하나의 감독관 단말기(70)를 관리할 수 있다.In addition, the
카메라 모듈(10)이 촬영한 영상은 설정영상(Setting Image) 및 감시영상(Monitoring Image)을 포함할 수 있다.The image captured by the
감시영상은 카메라 모듈(10)이 촬영이 가능한 영역, 즉 대상영역에서 위험상황이 발생하는지를 감시(Monitoring)하기 위해 촬영한 영상일 수 있다. 예를 들어, 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변에서 위험상황이 발생하는지를 감시하는 경우, 카메라 모듈(10)이 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변을 촬영한 영상이 감시영상이 될 수 있다.The monitoring image may be an image captured by the
설정영상은 카메라 모듈(10)이 대상영역에서 배경(Background)을 검출하기 위해 촬영한 영상일 수 있다.The set image may be an image captured by the
설정영상은 배경의 설정을 위한 영상으로서 샘플영상이라도 할 수 있다.The setting image is an image for setting the background and may be a sample image.
서버(20)는 주기적 또는 비주기적으로 적어도 하나의 설정영상을 촬영하여 배경을 변경(업데이트)하는 것이 가능하다.The
도 4 내지 도 5는 설정모드에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.4 and 5 are diagrams for explaining the setting mode. Hereinafter, description of the parts described in detail above may be omitted.
도 4를 살펴보면, 설정모드(Setting Mode)(S100)에서는 카메라 모듈(10)이 대상영역을 촬영하여 설정영상을 생성할 수 있다(S100).Referring to FIG. 4 , in a setting mode (S100), the
설정모드는 카메라 모듈(10)의 설정을 위한 모드라고 할 수 있다.The setting mode may be referred to as a mode for setting the
이후, 카메라 모듈(10)은 생성한 설정영상을 서버(20)로 전송할 수 있다(S120).Thereafter, the
예를 들어, 카메라 모듈(10)(혹은 스마트 폴(SP))이 최초로 설치되는 경우에는 카메라 모듈(10)이 촬영할 수 있는 영역이 아직 명확하게 규정되지 않을 수 있다.For example, when the camera module 10 (or smart pole (SP)) is installed for the first time, an area where the
이러한 경우, 카메라 모듈(10)은 대상영역의 영상을 미리 설정된 기간동안 미리 설정된 주기로 촬영하고, 촬영한 영상(설정영상)을 서버(20)로 전송할 수 있다.In this case, the
그러면, 서버(20)에서는 인공지능을 이용하여 카메라 모듈(10)로부터 전송받은 적어도 하나의 설정영상을 분석하여 배경을 검출할 수 있다(S130).Then, the
예를 들어, 서버(20)는 1분 간격으로 한달동안 촬영된 설정영상을 분석하여 한달동안의 데이터 변화량이 미리 설정된 임계 변화량보다 더 적은 부분을 검출할 수 있다.For example, the
이후, 서버(20)는 데이터 변화량이 임계 변화량보다 적은 부분, 예컨대 데이터 변화량이 실질적으로 0이거나 충분히 미미한 부분을 배경으로 판단하여 검출할 수 있다.Thereafter, the
서버(20)는 영상 분석을 거듭하면서 딥러닝(Deep Learning)을 통해 배경을 보다 효과적이고 정밀하게 검출할 수 있다.The
아울러, 서버(20)는 검출한 배경에서 관심영역(Region Of Interest, ROI) 및 위험영역(Dangerous Area, DA)을 구분하여 설정할 수 있다(S140).In addition, the
또한, 서버(20)는 대상영역에 대응하여 검출한 배경에서 관심영역(ROI) 및 위험영역(DA) 이외에 안전영역(Safety Area, SA)을 더 설정할 수 있다.In addition, the
여기서, 위험영역(DA)은 사람이 들어가면 위험한 상황이 발생할 수 있는 영역이라고 할 수 있다. 예를 들면, 강 등의 하천, 바다, 다리의 난간 외부 등이 위험영역(DA)으로 설정될 수 있다.Here, the danger area DA may be referred to as an area in which a dangerous situation may occur when a person enters. For example, a river such as a river, the sea, and the outside of a railing of a bridge may be set as the danger area DA.
관심영역(ROI)은 위험영역(DA)에 인접하여 사람이 위험영역(DA)으로 이동할 수 있는 가능성이 충분히 높은 영역이라고 할 수 있다. 예를 들면, 강의 고수부지의 일부, 바다에서 테트라포드(Tetrapod)가 설치된 영역, 다리의 보행자 통로가 관심영역(ROI)으로 설정될 수 있다.The region of interest (ROI) can be said to be an area adjacent to the risk region (DA) and highly likely to move a person to the risk region (DA). For example, a part of a highland area of a river, an area in which a tetrapod is installed in the sea, and a pedestrian passage of a bridge may be set as a region of interest (ROI).
안심영역(SA)은 관심영역(ROI)과 인접하고, 위험영역(DA)으로부터 충분히 멀리 떨어진 영역일 수 있다.The safe area SA may be an area adjacent to the area of interest ROI and sufficiently far from the risk area DA.
예를 들어, 도 5의 (A)에 나타나 있는 바와 같이, 카메라 모듈(10)이 설정영상으로서 소정의 강변에 대한 영상을 촬영하는 경우를 가정하여 보자.For example, as shown in (A) of FIG. 5, let's assume a case where the
이러한 경우, 서버(20)는 영상에서 물에 대응되는 영역을 위험영역(DA)으로 설정하고, 물에 접하는 고수부지 영역을 관심영역(ROI)으로 설정하고, 물로부터 충분히 멀리 떨어진 부분을 안심영역(SA)으로 설정할 수 있다.In this case, the
또는, 도 5의 (B)에 나타나 있는 바와 같이, 카메라 모듈(10)이 설정영상으로서 소정의 방파제에 대한 영상을 촬영하는 경우를 가정하여 보자.Or, as shown in (B) of FIG. 5, let's assume a case where the
이러한 경우, 서버(20)는 영상에서 물, 즉 바다에 대응되는 영역을 위험영역(DA)으로 설정하고, 테트라포드가 배치된 영역을 관심영역(ROI)으로 설정하고, 테트라포드가 설치되지 않고 물로부터 충분히 멀리 떨어진 부분을 안심영역(SA)으로 설정할 수 있다.In this case, the
여기서는 강 및 바다(방파제)의 경우를 예로 들었지만 다리, 낚시터, 파도가 높은 갯바위, 저수지 등 위험상황이 발생하는 장소라면 어떠한 곳이라도 본 발명에 따른 카메라 모듈(10)(스마트 폴(SP))이 설치되는 것이 가능할 수 있다.Here, the case of rivers and seas (breakwaters) is given as an example, but the camera module 10 (smart pole (SP)) according to the present invention is used in any place where a dangerous situation occurs, such as a bridge, a fishing ground, a seashore with high waves, a reservoir, etc. It may be possible to install
아울러, 도 5에서는 대상영역에 대한 배경에서 위험영역(DA), 관심영역(ROI) 및 안전영역(SA)을 모두 설정하는 경우를 설명하고 있지만, 본 발명은 이에 한정되지 않을 수 있다.In addition, although FIG. 5 describes the case of setting all of the risk area (DA), the area of interest (ROI), and the safety area (SA) in the background of the target area, the present invention may not be limited thereto.
예를 들면, 경우에 따라 배경에서 위험영역(DA) 및 관심영역(ROI)을 설정하면서도, 안전영역(SA)은 설정하지 않을 수 있다. 폭이 좁은 방파제, 높이가 높은 출렁다리 등의 경우가 이에 대응될 수 있다.For example, while the risk area DA and the area of interest ROI are set in the background in some cases, the safe area SA may not be set. A narrow breakwater or a high suspension bridge may correspond to this.
이처럼, 배경을 안전영역(SA), 관심영역(ROI) 및 위험영역(DA)으로 구분하는 경우에는, 카메라 모듈(10)이 촬영한 영상, 즉 감시영상에서 관심영역(ROI) 및/또는 위험영역(DA)에 대응하는 부분만을 분석하여 위험상황을 감지할 수 있다. 이에 따라, 데이터 처리량을 줄여 신속한 위험상황의 감지가 가능할 수 있다.In this way, when the background is divided into a safety area (SA), an area of interest (ROI), and a danger area (DA), the area of interest (ROI) and/or danger in the image captured by the
도 6 내지 도 17은 위험상황을 감지하는 방법 및 그에 관련된 내용을 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.6 to 17 are diagrams for explaining a method for detecting a dangerous situation and contents related thereto. Hereinafter, description of the parts described in detail above may be omitted.
도 6을 살펴보면, 감시모드(Monitoring Mode)(S200)에서 카메라 모듈(10)은 대상영역을 촬영하여 감시영상을 생성할 수 있다(S210).Referring to FIG. 6 , in the monitoring mode (S200), the
감시모드는 대상영역에서 위험상황이 발생하는지를 감시하는 모드라고 할 수 있다.The surveillance mode may be referred to as a mode for monitoring whether a dangerous situation occurs in the target area.
이후, 카메라 모듈(10)은 생성한 감시영상을 서버(20)로 전송할 수 있다(S220).Thereafter, the
그러면 서버(20)는 인공지능을 이용하여 감시영상을 분석(S230)하여, 감시영상에 위험상황이 포함되어 있는지, 즉 위험상황이 발생하는지의 여부를 판단할 수 있다(S240).Then, the
서버(20)는 카메라 모듈(10)로부터 전송받은 감시영상을 미리 설정된 기간 동안 저장할 수 있다.The
서버(20)는 수신한 감시영상을 분석하여 감시영상을 전송한 카메라 모듈(10)에 대한 위치를 정보를 판별할 수 있다. 예를 들면, 서버(20)는 미리 저장되어 있는 카메라 모듈(10)에 대한 일련번호 등의 고유정보를 근거로 하여 감시영상을 전송한 카메라 모듈(10)의 위치정보를 판별할 수 있다.The
제 S240 단계에서 판단결과, 위험상황이 발생하지 않는 경우에는 미리 설정된 제 1 기능(Default 1)을 수행할 수 있다(S250).As a result of the determination in step S240, when a dangerous situation does not occur, a preset first function (Default 1) may be performed (S250).
제 1 기능으로는 위험상황이 발생하지 않았음을 알리는 기능, 계속해서 감시영상을 분석하는 기능 등을 예로 들 수 있다.Examples of the first function include a function to notify that a dangerous situation has not occurred, a function to continuously analyze surveillance images, and the like.
반면에, 제 S240 단계에서 판단결과, 위험상황이 발생한 경우에는 서버(20)는 위험상황에 관련된 관련영상을 생성(S2560)하고, 생성한 관련영상을 저장(S270)할 수 있다.On the other hand, if a dangerous situation occurs as a result of the determination in step S240, the
서버(20)는 수신한 감시영상을 분석하여 감시영상 내에서 위험상황이 발생한 장소의 위치정보를 판별하는 것이 가능하다.The
관련영상은 위험상황에 관련된 객체(Object)가 포함된 영상을 포함할 수 있다.The related image may include an image including an object related to a dangerous situation.
예를 들어, 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변에서 촬영한 감시영상에서 객체 A(사람 A)에 대해 위험상황이 발생하는 경우를 가정하여 보자.For example, let's assume that a dangerous situation occurs for object A (person A) in a surveillance image taken at the Han Riverside in Ichon-dong between aa and bb on xx month xx, 20xx.
이러한 경우, 서버(20)는 저장되어 있는 20xx년 xx월 xx일 aa시 이전의 감시영상을 다시 분석하여 20xx년 xx월 xx일 aa시 이전의 감시영상에서 객체 A를 역추적할 수 있다.In this case, the
이후, 서버(20)는 역추적한 객체 A가 포함되어 있는 영상을 추출하고, 추출한 영상을 관련영상으로 설정하여 저장할 수 있다.Thereafter, the
여기서, 객체를 사람으로 설정하였지만, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 사람이 들고 있는 가방, 사람이 운전하는 자전거, 킥보드, 자동차 등의 탈것 등을 객체로 설정하는 것도 가능할 수 있다.Here, although the object is set as a person, the present invention may not be limited thereto. For example, it may be possible to set vehicles such as a bag held by a person, a bicycle driven by a person, a kickboard, or a car as objects.
아울러, 서버(20)는 관련영상을 저장하면서 위험상황에 대응하는 위치정보를 관련영상과 함께 저장하는 것이 가능하다.In addition, the
위험상황에 대응하는 위치정보는 위험상황이 발생한 위치에 대한 위치정보를 의미할 수 있다.Location information corresponding to a dangerous situation may refer to location information about a location where a dangerous situation occurs.
또는, 위험상황에 대응하는 위치정보는 위험상황이 검출된 감시영상을 촬영한 카메라 모듈(10)(혹은 스마트 폴(SP))의 위치정보를 의미하는 것도 가능할 수 있다.Alternatively, the location information corresponding to the dangerous situation may also mean the location information of the camera module 10 (or smart pole (SP)) that captures the monitoring image in which the dangerous situation is detected.
서버(20)에서 감시영상을 분석하여 위험상황이 발생하는지의 여부를 판단하는 방법에 대해 이하에서 보다 상세히 설명하기로 한다.A method of determining whether a dangerous situation occurs by analyzing a surveillance image in the
도 7에 나타나 있는 바와 같이, 서버(20)에서는 카메라 모듈(10)로부터 전송받은 감시영상을 분석(S230)하여, 감시영상에서 객체(사람 등)를 검출할 수 있다(S300).As shown in FIG. 7 , the
이후, 서버(200)는 검출한 객체의 위치를 판별할 수 있다(301).Thereafter, the server 200 may determine the location of the detected object (301).
객체의 위치는 대상영역에서의 객체의 위치, 혹은 배경에서의 객체의 위치를 의미할 수 있다.The position of the object may mean the position of the object in the target area or the position of the object in the background.
이후, 서버(20)는 객체의 위치가 위험영역(DA)에 포함되어 있는지의 여부를 판단(S302)하고, 판단결과 객체가 위험영역(DA)에 위치하는 경우에는 위험상황이 발생한 것으로 판단할 수 있다(S303).Thereafter, the
예를 들어, 객체가 물에 빠진 상황에서 객체는 위험영역(DA)에 위치할 수 있다. 서버(20)는 이러한 경우를 위험상황으로 판단할 수 있다.For example, in a situation where an object falls into water, the object may be located in the danger area DA. The
반면에, 제 S302 단계에서의 판단결과, 객체의 위치가 위험영역(DA)에 포함되지 않는 경우에는 객체가 위험영역(DA)에 인접한 관심영역(ROI)에 위치하는지의 여부를 판단할 수 있다(S304).On the other hand, as a result of the determination in step S302, if the location of the object is not included in the danger area DA, it can be determined whether the object is located in the region of interest ROI adjacent to the danger area DA. (S304).
제 S304 단계에서의 판단결과, 객체의 위치가 위험영역(DA)에 포함되지 않는 경우에는 객체가 안정영역(SA)에 위치하는 경우에 해당되기 때문에 서버(20)는 위험상황이 발생하지 않은 안전상황이라고 판단할 수 있다(S305).As a result of the determination in step S304, if the location of the object is not included in the danger area (DA), it corresponds to the case where the object is located in the safe area (SA). It can be determined that it is a situation (S305).
반면에, 제 S304 단계에서의 판단결과, 객체의 위치가 위험영역(DA)에 포함되는 경우에는 객체가 관심영역(ROI)에서 위험영역(DA)으로 이동하는지의 여부를 판단할 수 있다(S306).On the other hand, as a result of the determination in step S304, if the location of the object is included in the danger area DA, it can be determined whether the object moves from the ROI to the danger area DA (S306). ).
제 S306 단계에서의 판단결과, 객체가 관심영역(ROI)에서 위험영역(DA)으로 이동하는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).As a result of the determination in step S306, if the object moves from the region of interest (ROI) to the danger region (DA), the
예를 들어, 객체가 고수부지에서 강쪽으로 이동하여 강물 들어가는 경우는 객체가 관심영역(ROI)에서 위험영역(DA)으로 이동하는 경우에 해당될 수 있다. 서버(20)는 이러한 경우를 위험상황으로 판단할 수 있다.For example, the case where the object moves toward the river from the high water site and enters the river may correspond to the case where the object moves from the region of interest (ROI) to the danger region (DA). The
반면에, 제 S306 단계에서의 판단결과, 객체가 관심영역(ROI)에서 위험영역(DA)으로 이동하지 않는 경우에는 객체가 관심영역(ROI)에서 안전영역(SA)으로 이동하는지의 여부를 판단할 수 있다(S307).On the other hand, as a result of the determination in step S306, if the object does not move from the region of interest (ROI) to the danger region (DA), it is determined whether the object moves from the region of interest (ROI) to the safe region (SA). It can (S307).
제 S307 단계에서의 판단결과, 객체가 관심영역(ROI)에서 안전영역(SA)으로 이동하는 경우에는 서버(20)는 위험상황이 발생하지 않은 안전상황이라고 판단할 수 있다(S305).As a result of the determination in step S307, when the object moves from the region of interest (ROI) to the safe region (SA), the
반면에, 제 S307 단계에서의 판단결과, 객체가 관심영역(ROI)에서 안전영역(SA)으로 이동하지 않는 경우에는 서버(20)는 관심영역(ROI)에서 객체가 감지되는지의 여부를 판단할 수 있다(S308).On the other hand, as a result of the determination in step S307, if the object does not move from the region of interest (ROI) to the safe region (SA), the
제 S308 단계에서의 판단결과, 객체가 관심영역(ROI)에서 감지되는 경우에는 제 S302 단계로 진행할 수 있다.As a result of the determination in step S308, when an object is detected in the region of interest (ROI), step S302 may be performed.
반면에, 제 S308 단계에서의 판단결과, 객체가 관심영역(ROI)에서 감지되지 않는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).On the other hand, as a result of the determination in step S308, if the object is not detected in the region of interest (ROI), the
이러한 경우는, 객체가 관심영역(ROI)에 위치하는 상황에서 안전영역(SA)으로 이동하지 않으면서도 갑자기 사라지는 경우에 해당될 수 있다.This case may correspond to a case where the object suddenly disappears without moving to the safe area SA in a situation where the object is located in the ROI.
이러한 경우에는, 객체가 물에 빠지는 등의 위험상황이 발생했을 가능성이 높다. 또는, 객체가 테트라포드가 설치된 지역에 위치하다가 테트라포드의 사이로 빠지는 사고가 발생했을 가능성이 높다.In this case, there is a high possibility that a dangerous situation such as an object falling into water has occurred. Alternatively, it is highly likely that an accident occurred in which the object fell between the tetrapods while being located in the area where the tetrapods were installed.
서버(20)는 객체가 사라지는 것을 판단하기 위해 감시영상을 프레임(Frame) 별로 각각 분석하여 객체를 검출할 수 있다.The
감시영상에서 객체가 관심영역(ROI)에 위치한 상태에서 객체가 안전영역(SA)으로 이동하지 않으면서 객체가 사라지거나 혹은 개체가 관심영역(ROI)에서 위험영역(DA)으로 이동하는 과정에서 사라지는 경우에 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다.In the monitoring image, when the object is located in the region of interest (ROI), the object disappears without moving to the safe region (SA) or disappears while the object moves from the region of interest (ROI) to the danger region (DA). In this case, the
한편, 객체가 단순히 위험영역에 위치하는 것만으로는 위험상황이 발생한 것으로 판단하지 않는 것이 가능하다.Meanwhile, it is possible not to determine that a dangerous situation has occurred simply because the object is simply located in the dangerous area.
도 8에 나타나 있는 바와 같이, 서버(20)는 객체가 위험영역(DA)에 위치하는 경우에는 객체가 위험영역(DA)에 위치하는 시간이 미리 설정된 기준시간을 초과하는지의 여부를 판단할 수 있다(S310).As shown in FIG. 8, when the object is located in the danger zone DA, the
제 S310 단계에서 판단결과, 객체가 기준시간보다 더 오래 위험영역(DA)에 위치하는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).As a result of the determination in step S310, if the object is located in the danger area DA longer than the reference time, the
예를 들어, 객체가 1시간 이상 계속 강물에 빠진 상태를 유지하는 경우 객체에 이상이 발생할 가능성이 높을 수 있다.For example, if the object remains submerged in the river for more than one hour, there is a high possibility that an abnormality will occur in the object.
반면에, 제 S310 단계에서 판단결과, 객체가 위험영역(DA)에 위치하는 시간이 기준시간보다 더 짧은 경우에는 서버(20)는 객체가 다른 영역, 예컨대 관심영역(ROI)으로 이동하는지의 여부를 판단할 수 있다(S311).On the other hand, as a result of the determination in step S310, if the time the object is located in the danger area DA is shorter than the reference time, the
제 S311 단계에서 판단결과, 객체가 다른 영역으로 이동하는 경우에는 제 S304 단계로 진행할 수 있다.As a result of determination in step S311, when the object moves to another area, step S304 may be performed.
반면에, 제 S311 단계에서 판단결과, 객체가 다른 영역으로 이동하지 않는 경우에는 감시영상에서 객체가 감지되는지의 여부를 판단할 수 있다(S312).On the other hand, as a result of the determination in step S311, if the object does not move to another area, it may be determined whether the object is detected in the surveillance image (S312).
제 S312 단계에서의 판단결과, 객체가 감지되는 경우에는 제 S310 단계로 진행할 수 있다.As a result of the determination in step S312, when an object is detected, step S310 may be performed.
반면에, 제 S312 단계에서의 판단결과, 객체가 감지되지 않는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).On the other hand, as a result of the determination in step S312, if the object is not detected, the
이러한 경우는, 객체가 위험영역(DA)에 위치하는 상황에서 관심영역(ROI)으로 이동하지 않으면서도 갑자기 사라지는 경우에 해당될 수 있다.This case may correspond to a case where the object suddenly disappears without moving to the region of interest (ROI) in a situation where the object is located in the danger region (DA).
이러한 경우에는, 객체가 파도 또는 물살에 휩쓸리는 등의 위험상황이 발생했을 가능성이 높다. 또는, 객체가 깊은 물에 완전히 빠져 위험영역(DA)에서 사라지는 경우일 가능성이 높다.In this case, it is highly likely that a dangerous situation such as the object being swept away by waves or currents has occurred. Alternatively, it is highly likely that the object is completely drowned in deep water and disappears from the danger area DA.
한편, 객체의 포즈를 이용하여 위험상황의 발생을 감지하는 것이 가능하다.Meanwhile, it is possible to detect the occurrence of a dangerous situation by using the pose of the object.
도 9에 나타나 있는 바와 같이, 객체가 위험영역(DA)에 위치하거나 혹은 관심영역(ROI)에 위치하는 경우에 서버(20)는 감시영상을 분석하여 객체의 포즈를 판별할 수 있다(S321).As shown in FIG. 9, when the object is located in the danger area DA or the area of interest ROI, the
이후, 판별한 객체의 포즈가 미리 설정된 이상포즈에 매칭(Matching)되는지의 여부를 판단할 수 있다(S322).Thereafter, it may be determined whether the determined pose of the object matches a preset ideal pose (S322).
제 S322 단계에서 판단결과, 객체의 포즈가 이상포즈에 매칭되지 않는 경우에는 미리 설정된 제 2 기능(Default 2)을 수행할 수 있다(S323).As a result of the determination in step S322, if the pose of the object does not match the ideal pose, a preset second function (Default 2) may be performed (S323).
여기서, 제 2 기능은 객체의 위치를 판별하는 단계(S301)로 진행하거나 현 상태를 안전상황이라고 판단하는 것이 가능할 수 있다.Here, the second function may be capable of proceeding to step S301 of determining the location of the object or determining that the current state is a safe state.
반면에, 제 S322 단계에서 판단결과, 객체의 포즈가 이상포즈에 매칭되는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).On the other hand, as a result of the determination in step S322, if the pose of the object matches the ideal pose, the
예를 들면, 객체가 관심영역(ROI) 또는 위험영역(DA)에 위치하는 상태에서 넘어지는 포즈, 다이빙하는 포즈, 가방 등의 또 다른 객체를 던지를 포즈, 다른 객체(사람)를 위험영역(DA)으로 밀어내는 포즈 등을 취하는 경우에, 서버(20)는 위험상황이 발생한 것으로 판단하는 것이 가능하다.For example, in a state where an object is located in the region of interest (ROI) or the danger region (DA), a pose to fall, a pose to dive, a pose to throw another object such as a bag, another object (person) to the danger zone ( DA), in the case of taking a pushing pose or the like, the
이상에서 설명한 바와 같은 방법으로 위험상황을 판단하면서 서버(20)는 다양한 데이터를 축적하고 딥러닝을 수행할 수 있다. 이러한 과정을 거치면서 서버(20)는 보다 빠르고 정확하게 위험상황의 발생을 판단할 수 있다.The
한편, 서버(20)는 위험상황 발생 시 관련영상 및 위치정보를 저장하면서, 위험상황에 대한 정보를 적어도 하나의 다른 단말기로 전송하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.Meanwhile, the
도 10에 나타나 있는 바와 같이, 서버(20)는 관련영상 및/또는 위치정보를 저장(S270)한 이후에 적어도 하나의 감독관 단말기(70)로 위험상황의 판정을 요청하는 정보를 전송할 수 있다(S400).As shown in FIG. 10, the
위험상황의 판정을 위해서 서버(20)는 감독관 단말기(70)로 위험상황에 대응하는 관련정보 및 위치정보를 함께 전송할 수 있다.In order to determine the dangerous situation, the
감독관 단말기(70)는 서버(20)로부터의 판정 요청에 대응하여 관련영상 및 위치정보를 분석하여 위험상황에 대한 위험도를 판정할 수 있다(S410).The
이후, 감독관 단말기(70)는 서버(20)로 위험상황의 위험도를 판정한 정보, 즉 판정 정보를 전송할 수 있다(S420).Thereafter, the
예를 들어, 카메라 모듈(10)이 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변에서 촬영한 감시영상을 서버(20)에서 분석한 결과, 서버(20)가 해당 감시영상에 객체 B(사람 B)에 대해 위험상황이 발생하는 경우를 가정하여 보자.For example, as a result of analyzing the surveillance image taken by the
이러한 경우, 객체 B에 대응하여 관련영상을 생성하고, 위험상황에 대응하는 위치 정보를 관련영상과 함께 저장할 수 있다.In this case, a related image may be generated corresponding to object B, and location information corresponding to a dangerous situation may be stored together with the related image.
아울러, 서버(20)는 객체 B에 대응하는 관련영상과 위치정보를 적어도 하나의 감독관 단말기(70)로 전송하고, 위험상황을 판정해달라고 요청할 수 있다.In addition, the
여기서, 감독관 단말기(70)에서는 서버(20)로부터 수신한 관련영상과 위치정보를 분석하여 위험정도를 판정할 수 있다.Here, the
감독관 단말기(70)를 사용하는 감독관들은 위험상황을 신속하고 정확하게 판단할 수 있는 전문가 그룹으로부터 구성될 수 있다.Supervisors using the
이처럼, 서버(20)가 인공지능을 이용하여 감시영상을 분석하여 위험상황의 발생을 감지하면서도, 관련영상과 위치정보를 감독관 단말기(70)로 전송하여 감독관으로 하여금 위험상황을 판단하게 하는 경우에는 위험상황을 보다 정밀하고 정확하게 분석할 수 있다. 이에 따라, 위험상황 발생 시 보다 신속하고 정확한 대처가 가능할 수 있다.In this way, when the
한편, 서버(20)가 감독관 단말기(70)로부터 수신한 판정정보를 분석하여, 해당 위험상황의 위험도가 미리 설정된 기준 위험도를 초과하는지의 여부를 판단할 수 있다(S430).Meanwhile, the
제 S430 단계에서 판단결과, 해당 위험상황의 위험도가 기준 위험도를 초과하지 않는 경우에는 미리 설정된 제 3 기능(Default 3)을 수행할 수 있다(S440).As a result of the determination in step S430, if the risk level of the corresponding dangerous situation does not exceed the standard risk level, a preset third function (Default 3) may be performed (S440).
여기서, 제 3 기능은 해당 위험상황에 대한 위험도가 충분히 낮다는 것을 알리는 정보를 서버(20)로 전송하는 기능, 위험 경보를 해제하는 기능 등을 예로 들 수 있다.Here, the third function may include, for example, a function of transmitting information indicating that the risk level of the corresponding dangerous situation is sufficiently low to the
반면에, 제 S430 단계에서 판단결과, 해당 위험상황의 위험도가 기준 위험도를 초과하는 경우에는 서버(20)는 해당 위험상황이 위험이 실제라고 판단하고, 이에 대한 정보를 적어도 하나의 안전요원 단말기(60)로 전송하여 위험 상황을 알릴 수 있다(S450).On the other hand, as a result of the determination in step S430, if the risk level of the dangerous situation exceeds the standard risk level, the
안전요원 단말기(60)로 전송하는 정보는 위험상황에 대응하는 관련영상 및 위치정보를 포함할 수 있다.Information transmitted to the safety personnel terminal 60 may include a related image and location information corresponding to a dangerous situation.
예를 들면, 서버(20)는 도 11에 나타나 있는 바와 같은 위험상황 알람 메시지를 적어도 하나의 안전요원 단말기(60)로 전송할 수 있다.For example, the
이후, 위험상황 알림 메시지를 수신한 적어도 하나의 안전요원은 관련영상 및 위치정보를 확인하여 해당 위험상황이 발생한 위치로 이동할 수 있다.Thereafter, at least one safety officer who has received the dangerous situation notification message can check the related video and location information and move to the location where the dangerous situation occurs.
이후, 안전요원 단말기(60)에서는 위험상황에 대응하는 적어도 하나의 영상, 즉 대응영상을 촬영하여 서버(20)로 전송할 수 있다.Thereafter, the safety personnel terminal 60 may capture and transmit at least one image corresponding to a dangerous situation, that is, a corresponding image to the
그러면, 서버(20)는 안전요원 단말기(60)로부터 대응영상이 입력되는지의 여부를 판단하고, 대응영상이 입력되는 경우에 대응영상을 저장할 수 있다(S480).Then, the
이후, 서버(20)는 대응영상을 입력한 적어도 하나의 안전요원 단말기(60)로 소정의 보상을 지급할 수 있다(S490).Thereafter, the
반면에, 제 S460 단계에서 판단결과 대응영상이 입력되지 않는 경우에는 미리 설정된 제 4 기능(Default 4)을 수행할 수 있다(S470).On the other hand, if the corresponding image is not input as a result of the determination in step S460, a preset fourth function (Default 4) may be performed (S470).
여기서, 제 4 기능은 대응영상을 입력하라는 요청을 적어도 하나의 안전요원 단말기(60)로 전송하는 기능 등을 예로 들 수 있다.Here, the fourth function may include, for example, a function of transmitting a request to input a corresponding image to at least one
예를 들어, 카메라 모듈(10)이 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변에서 촬영한 감시영상을 서버(20)에서 분석한 결과, 서버(20)가 해당 감시영상에 객체 B(사람 B)에 대해 위험상황이 발생하는 경우를 가정하여 보자.For example, as a result of analyzing the surveillance image taken by the
여기서, 감독관 단말기(70)에서 서버(20)로 객체 B에 대한 위험상황의 위험도가 기준 위험도보다 저 높다고 판정한 판정정보를 전송할 수 있다.Here, the
그러면, 서버(20)는 감독관 단말기(70)로부터 수신한 판정정보를 근거로 하여 적어도 하나의 안전요원 단말기(60)로 객체 B에 대해 위험상황이 발생했다는 정보를 전송할 수 있다.Then, the
여기서, 서버(20)는 객체 B가 포함된 감시영상, 즉 관련영상 및 객체 B의 위험상황에 대응되는 위치정보를 적어도 하나의 안전요원 단말기(60)로 전송할 수 있다. 예를 들면, 이촌동 혹은 이촌동에 인접하는 지역에 거주하거나 이촌동에 연관된 적어도 하나의 안전요원의 단말기(60)로 객체 B의 위험상황에 대한 정보를 전송할 수 있다.Here, the
이를 위해, 서버(20)는 각각의 안전요원 단말기(60)의 위치정보를 수집하여 저장할 수 있다.To this end, the
객체 B의 위험상황에 대한 정보를 수신한 적어도 하나의 안전요원은 해당 위험상황에 대응되는 위치, 즉 이촌동으로 이동할 수 있다.Upon receiving the information on the dangerous situation of object B, at least one safety officer may move to a location corresponding to the dangerous situation, that is, Ichon-dong.
이후, 이촌동으로 이동한 적어도 하나의 안전요원은 객체 B의 구조 등의 안전조치를 취할 수 있다.Thereafter, at least one safety officer who has moved to Ichon-dong may take safety measures such as rescue of object B.
이후, 안전조치를 취한 적어도 하나의 안전요원은 안전조치에 대한 영상, 즉 대응영상을 촬영하고, 촬영한 대응영상을 서버(20)로 전송할 수 있다.Thereafter, at least one safety officer who has taken a safety measure may photograph a video of the safety measure, that is, a corresponding video, and transmit the photographed corresponding video to the
그러면, 서버(20)는 해당 안전요원 단말기(60)로 금전적 보상, 누적 포인트의 지급 등의 방식으로 보상을 실시할 수 있다.Then, the
이와 같이, 위험상황에 대한 정보를 적어도 하나의 안전요원 단말기(60)로 전송하는 경우에는 안전요원으로 하여금 위험상황에 자발적으로 개입하도록 하는 동기를 부여할 수 있다.In this way, when the information on the dangerous situation is transmitted to at least one
아울러, 위험상황 발생 시 경찰, 구급대 또는 구조대의 도착 이전에 인근에 위치한 안전요원으로부터 도움을 받을 수 있어서 신속한 응급대응이 가능할 수 있다.In addition, when a dangerous situation occurs, it is possible to receive help from a safety agent located nearby before the police, ambulance or rescue team arrives, so that rapid emergency response can be possible.
한편, 이상에서는 감독관 단말기(70)와 안전요원 단말기(60)를 별도로 설정하는 것으로 설명하였지만, 본 발명은 이에 한정되지 않을 수 있다.Meanwhile, in the above, it has been described that the
예를 들면, 서버(20)에 등록된 사용자가 감독관 역할을 수행할지 혹은 안전요원 역할을 수행할지 스스로 선택하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.For example, it is possible for a user registered in the
도 12를 살펴보면, 적어도 하나의 사용자 단말기(User Terminal, UT)가 서버(20)에 접속할 수 있다(S500).Referring to FIG. 12 , at least one user terminal (UT) may access the server 20 (S500).
서버(20)에 접속한 사용자 단말기(UT)는 서버(20)로부터 안전관리를 위한 소정의 앱을 다운받아 설치할 수 있다(S510).The user terminal UT connected to the
아울러, 사용자 단말기(UT)는 서버(20)에 소정의 사용자 정보를 전송하여 사용자 등록을 수행할 수 있다(S520).In addition, the user terminal UT may perform user registration by transmitting predetermined user information to the server 20 (S520).
사용자 등록을 완료한 사용자 단말기(UT)는 서버(20)를 통해 설정모드를 선택할 수 있다(S530).The user terminal UT that has completed user registration may select a setting mode through the server 20 (S530).
예를 들면, 도 13에 나타나 있는 바와 같이, 사용자 단말기(UT)에는 안전요원 모드를 선택할지 혹은 감독관 모드를 설정할지는 선택하기 위한 메뉴가 표시될 수 있다.For example, as shown in FIG. 13 , a menu for selecting whether to select a safety officer mode or a supervisor mode may be displayed on the user terminal UT.
여기서, 사용자가 사용자 단말기(UT)에서 안전요원 모드를 선택하면, 서버(20)는 해당 사용자 단말기(UT)를 안전요원 단말기(60)로 설정할 수 있다.Here, when the user selects the safety officer mode in the user terminal UT, the
반면에, 사용자가 사용자 단말기(UT)에서 감독관 모드를 선택하면, 서버(20)는 해당 사용자 단말기(UT)를 감독관 단말기(70)로 설정할 수 있다.On the other hand, when the user selects the supervisor mode in the user terminal UT, the
이후, 사용자 단말기(UT)에서는 원하는 시간대를 선택할 수 있다(S540).Thereafter, the user terminal UT may select a desired time zone (S540).
예를 들어, 사용자 C가 자신의 단말기를 이용하여 서버(20)에 사용자 등록을 하고, 이후에 안전요원 모드에 대응하여 안전요원으로서 원하는 시간대를 매주 토요일 22시~24시를 설정하고, 아울러, 감독관 모드에 대응하여 감독관으로서 원하는 시간대를 매주 금요일 22시~24시라를 설정하는 것을 가정하여 보자.For example, user C registers as a user in the
이러한 경우, 서버(20)는 사용자 C의 단말기를 매주 금요일 22시~24시 동안에는 감독관 단말기(70)로 설정하고, 매주 토요일 22시~24시 동안에는 안전요원 단말기(60)로 설정하는 것이 가능하다.In this case, the
이에 따라, 사용자 C는 자신의 단말기를 이용하여 매주 금요일 22시~24시 동안에는 감독관으로서 활동하고, 매주 토요일 22시~24시 동안에는 안전요원으로서 활동할 수 있다.Accordingly, the user C can use his terminal to act as a supervisor every Friday from 22:00 to 24:00, and to act as a safety agent from 22:00 to 24:00 every Saturday.
이처럼, 서버(20)에 등록된 사용자가 스스로 안전요원 또는 감독관 역할을 선택하도록 하는 경우에는 사용자의 자발적 참여를 촉진하는 것이 가능하다.In this way, when the user registered in the
한편, 카메라 모듈(10)을 포함하는 스마트 폴(SP)은 위험상황에 대응하는 위치, 즉 위험상황이 발생한 위치를 포인팅(Pointing)하기 위한 포인팅 수단을 포함할 수 있다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.On the other hand, the smart pole (SP) including the
도 14를 살펴보면, 서버(20)가 관련영상 및 위치정보를 저장(S270)한 이후에 포인팅 제어신호를 스마트 폴(SP)로 전송할 수 있다(S600).Referring to FIG. 14 , after the
여기서, 포인팅 제어신호는 위험상황에 대응되는 위치를 포인팅하기 위한 제어신호일 수 있다.Here, the pointing control signal may be a control signal for pointing to a location corresponding to a dangerous situation.
그러면, 포인팅 제어신호를 수신한 스마트 폴(SP)은 포인팅부(Pointing Part)를 활성화시킬 수 있다(S610).Then, the smart pole (SP) receiving the pointing control signal can activate the pointing part (S610).
이후, 스마트 폴(SP)에서는 활성화된 포인팅부를 이용하여 위험상황에 대응되는 위치를 포인팅할 수 있다(S620).Thereafter, the smart pole (SP) can point to a location corresponding to a dangerous situation using an activated pointing unit (S620).
아울러, 서버(20)는 알림 제어신호를 스마트 폴(SP)로 전송할 수 있다(S630).In addition, the
알림 제어신호는 위험상황에 대응하는 감시영상을 촬영한 카메라 모듈(10)을 포함하는 스마트 폴(SP)을 알리기 위한 제어신호일 수 있다.The notification control signal may be a control signal for notifying the smart pole (SP) including the
그러면, 알림 제어신호를 수신한 스마트 폴(SP)은 알림부(Warning Part)를 활성화시키고, 활성화된 알림부는 알림을 출력할 수 있다(S640).Then, the smart pole (SP) receiving the notification control signal activates a warning part, and the activated notification unit may output a notification (S640).
이를 위해, 도 15에 나타나 있는 바와 같이, 스마트 폴(SP)은 기둥부(50)에 배치되는 카메라 모듈(10), 알림부(80) 및 포인팅부(81)를 포함할 수 있다.To this end, as shown in FIG. 15 , the smart pole (SP) may include a
알림부(80)는 소정의 광을 발산하기 위한 경광등(Warning Light)을 포함할 수 있다.The
서버(20)로부터 스마트 폴(SP)로 알림 제어신호가 전송되면, 스마트 폴(SP)은 알림부(80)를 제어하여 소정의 광을 발산하도록 할 수 있다.When a notification control signal is transmitted from the
그러면, 안전요원 등 위험상황을 처리하고자 하는 사람들에게 위험상황이 발생한 위치를 보다 용이하고 신속하게 알릴 수 있다.Then, it is possible to more easily and promptly notify the location of the dangerous situation to people who want to handle the dangerous situation, such as safety personnel.
포인팅부(81)는 레이저 등의 광을 이용하여 포인팅을 할 수 있는 레이저 포인터 등의 포인팅 수단을 포함할 수 있다.The pointing
서버(20)로부터 스마트 폴(SP)로 포인팅 제어신호가 전송되면, 스마트 폴(SP)은 포인팅부(81)를 제어하여 포인팅부(81)가 위험상황에 대응되는 위치(OP)를 소정의 광으로 포인팅하도록 할 수 있다.When a pointing control signal is transmitted from the
이를 위해, 포인팅 제어신호는 위험상황에 대응되는 위치에 대한 정보를 포함할 수 있다.To this end, the pointing control signal may include information about a location corresponding to a dangerous situation.
다른 관점에서 보면, 서버(20)는 포인팅부(81)를 포함하는 스마트 폴(SP)로 위험상황에 대응하는 위치정보, 즉 위험상황이 발생한 장소에 대한 위치정보를 전송하는 것이 가능하다.From another point of view, the
여기서, 서버(20)는 감시영상을 분석하여 감시영상 내에서 위험상황이 발생한 장소의 위치를 판별하고, 판별한 위치정보를 포인팅부(81)로 전송하는 것으로 볼 수 있다.Here, the
한편, 스마트 폴(SP)의 카메라 모듈(10)은 복수의 카메라부(Camera Part)를 포함하고, 복수의 카메라부를 이용하여 넓은 영역의 영상(설정영상, 감시영상 등)을 획득하는 것이 가능하다.On the other hand, the
도 16 내지 도 17을 살펴보면, 기둥부(50)는 수직방향(Vertical Direction, DRV)으로 길게 연장되는 형태를 갖는 수직부(51) 및 수직부(51)로부터 수평방향(Horizontal Direction, DRH)으로 연장되는 수평부(52)를 포함할 수 있다.16 and 17, the
아울러, 수평부(52)의 하부에 카메라 모듈(10)이 설치될 수 있다.In addition, the
여기서는, 알림부(80) 및 포인팅부(81)의 도시는 생략하기로 한다.Here, illustration of the
카메라 모듈(10)은 제 1 대상영역의 영상을 촬영하기 위한 제 1 카메라부(First Camera Part, 11) 및 제 2 대상영역의 영상을 촬영하기 위한 제 2 카메라부(Second Camera Part, 12)를 포함할 수 있다.The
아울러, 포인팅부(81)는 제 1 카메라부(11)에 대응하는 제 1 포인팅부(81a) 및 제 2 카메라부(12)에 대응하는 제 2 포인팅부(81b)를 포함할 수 있다.In addition, the pointing
카메라 모듈(10)은 수평부(52)의 하부의 하면에 배치되고, 제 1 포인팅부(81a)는 수평부(52)의 제 1 카메라부(11)에 대응되는 측면에 배치될 수 있다. 예를 들면, 제 1 포인팅부(81a)는 수평부(52)의 제 1 측면에 배치될 수 있다.The
아울러, 제 2 포인팅부(81b)는 제 2 카메라부(12)에 대응되는 수평부(52)의 측면에 배치될 수 있다. 예를 들면, 제 2 포인팅부(81b)는 수평부(52)의 제 2 측면에 배치될 수 있다.In addition, the
이러한 경우, 제 1 포인팅부(81a)는 제 1 카메라부(11)가 촬영한 감시영상으로부터 감지되는 위험상황에 대응하는 위치를 포인팅할 수 있다.In this case, the
아울러, 제 2 포인팅부(81b)는 제 2 카메라부(12)가 촬영한 감시영상으로부터 감지되는 위험상황에 대응하는 위치를 포인팅할 수 있다.In addition, the
도 18 내지 도 35는 카메라 모듈에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.18 to 35 are diagrams for explaining a camera module. Hereinafter, description of the parts described in detail above may be omitted.
이하에서 제 1 방향(First Direction, DR1)은 제 2 방향(Second Direction, DR2) 및 제 3 방향(Third Direction, DR3)과 교차(수직)하고, 제 2 방향(DR2)은 제 3 방향(DR3)과 교차(수직)할 수 있다.Hereinafter, the first direction (DR1) intersects (perpendicularly) with the second direction (DR2) and the third direction (DR3), and the second direction (DR2) is the third direction (DR3). ) and can intersect (perpendicularly).
여기서, 제 1 방향(DR1), 제 2 방향(DR2) 및 제 3 방향(DR3)은 카메라 모듈(10)의 설명을 용이하게 위해 임의로 설정한 것으로서, 본 발명이 이에 한정되는 것은 아닐 수 있다.Here, the first direction DR1, the second direction DR2, and the third direction DR3 are arbitrarily set for easy description of the
도 18을 살펴보면, 본 발명에 따른 카메라 모듈(10)은 케이스부(Case Part, 30), 프레임부(Frame Part, 40) 및 카메라부(Camera Part, 11, 12)를 포함할 수 있다.Referring to FIG. 18 , the
케이스부(30)는 카메라 모듈(10)의 외관을 이룰 수 있다.The
프레임부(40)는 케이스부(30)의 내부에 배치될 수 있다.The
이러한 프레임부(40)는 카메라부(11, 12) 등의 다른 부품이 배치될 수 있는 지지기반을 마련할 수 있다.The
카메라부(11, 12)는 케이스부(30) 내에서 프레임부(40)에 배치되며 주변 영상을 촬영할 수 있다.The
이러한 카메라부(11, 12)는 제 1 카메라부(11) 및 제 2 카메라부(12)를 포함할 수 있다.These
제 1 카메라부(11)는 제 1 촬영영역, 즉 제 1 대상영역에 대응될 수 있다.The
제 2 카메라부(12)는 제 2 촬영영역 ,즉 제 2 대상영역에 대응될 수 있다.The
예를 들어, 카메라부(11, 12)가 스마트 폴(SP)의 기둥부(50)에 배치되는 경우, 제 1 카메라부(11)는 기둥부(50)의 좌측 영역에 대응되고, 제 2 카메라부(12)는 기둥부(50)의 우측 영역에 대응될 수 있다.For example, when the
다른 관점에서 보면, 제 1 카메라부(11)는 기둥부(50)의 좌측 영역을 촬영하고, 제 2 카메라부(12)는 기둥부(50)의 우측 영역을 촬영할 수 있다.From another point of view, the
아울러, 도시하지는 않았지만, 본 발명에 따른 카메라 모듈(10)은 카메라 구동부(Camera Driver, 미도시)를 더 포함할 수 있다.In addition, although not shown, the
도 19를 살펴보면, 케이스부(30)는 바닥부(Bottom Part, 300), 중간부(Middle Part, 310) 및 덮개부(Cover Part, 320)를 포함할 수 있다.Referring to FIG. 19 , the
바닥부(300)는 수평방향(제 1 방향(DR1) 또는 제 2 방향(DR2)으로 연장되는 부분을 포함하는 플레이트(Plate) 형태를 갖는 것이 가능하다.The
중간부(310)는 바닥부(300)에 배치되며, 수직방향(제 3 방향(DR3))으로 연장되는 부분을 포함할 수 있다.The
중간부(310)는 도시하지는 않았지만 카메라 구동부(미도시) 등의 다른 부품이 배치될 수 있는 공간을 마련할 수 있다.Although not shown, the
이러한 중간부(310)는 양측이 개방된 관(Pipe) 형태를 갖는 것이 가능하다.The
덮개부(320)는 중간부(310)의 상부에 연결될 수 있다.The
덮개부(320)와 바닥부(300)의 사이에 마련된 공간에 프레임부(40), 카메라부(11, 12) 및 카메라 구동부(미도시)가 배치될 수 있다.The
아울러, 카메라부(11, 12)가 원활하게 촬영하기 위해 덮개부(320)는 광투과성 재질을 포함하며 돔(Dome) 형태를 갖는 것이 가능하다.In addition, in order for the
덮개부(320)는 어느 정도 투명할 수 있다.The
도 20을 살펴보면, 제 1 카메라부(11)는 제 1 렌즈부(First Lens Part, 11b) 및 제 1 렌즈 기판부(First Lens Substrate Part, 11a)를 포함할 수 있다.Referring to FIG. 20 , the
제 1 렌즈부(11b)는 제 1 렌즈 기판부(11a)에 배치될 수 있다.The
제 1 렌즈 기판부(11a)에는 제 1 커넥터부(First Connector Part, 11c)가 배치될 수 있다.A
제 1 커넥터부(11c)는 제 1 렌즈부(11b)에 의해 촬영된 영상 데이터를 카메라 구동부(Camera Driver, 190)로 전송하기 위한 제 1 케이블부(First Cable Part, 193)와 전기적으로 연결될 수 있다.The
제 2 카메라부(12)는 제 2 렌즈부(Second Lens Part, 12b) 및 제 2 렌즈 기판부(Second Lens Substrate Part, 12a)를 포함할 수 있다.The
제 2 렌즈부(12b)는 제 2 렌즈 기판부(12a)에 배치될 수 있다.The
제 2 렌즈 기판부(12a)에는 제 2 커넥터부(Second Connector Part, 12c)가 배치될 수 있다.A
제 2 커넥터부(12c)는 제 2 렌즈부(12b)에 의해 촬영된 영상 데이터를 카메라 구동부(190)로 전송하기 위한 제 2 케이블부(Second Cable Part, 194)와 전기적으로 연결될 수 있다.The
카메라 구동부(190)는 제 1 렌즈부(11b) 및/또는 제 2 렌즈부(12b)가 촬영한 영상 데이터를 수신할 수 있다.The
이를 위해, 카메라 구동부(190)는 제 3 커넥터부(Third Connector Part, 191) 및 제 4 커넥터부(Fourth Connector Part, 192)를 포함할 수 있다.To this end, the
제 3 커넥터부(191)은 제 1 케이블부(193)와 전기적으로 연결되고, 제 4 커넥터부(192)은 제 2 케이블부(194)와 전기적으로 연결될 수 있다.The
카메라 구동부(190)는 제 1 렌즈부(11b) 및/또는 제 2 렌즈부(12b)로부터 수신한 영상 데이터를 처리하여 영상 이미지를 생성할 수 있다.The
카메라 구동부(190)는 생성한 영상 이미지를 서버로 전송하는 것이 가능하다.The
이를 위해, 도시하지는 않았지만, 카메라 구동부(190)는 제 1 통신부를 포함할 수 있다.To this end, although not shown, the
도 21 내지 도 22를 살펴보면, 프레임부(40)는 베이스부(Base Part, 400), 제 1 지지부(First Supporting Part, 410) 및 제 2 지지부(Second Supporting Part, 420)를 포함할 수 있다.Referring to FIGS. 21 and 22 , the
베이스부(400)는 제 1 지지부(410) 및 제 2 지지부(420)을 위한 지지기반을 마련할 수 있다.The
제 1 지지부(410)는 제 1 렌즈 기판부(11a)에 대응되며 베이스부(400)에 배치될 수 있다.The
제 2 지지부(420)는 제 2 렌즈 기판부(12a)에 대응되며 베이스부(400)에 배치될 수 있다.The
도 22에 나타나 있는 바와 같이, 베이스부(400)는 제 1 경사면부(First Slope Part, 404) 및 제 2 경사면부(Second Slope Part, 405)를 포함할 수 있다.As shown in FIG. 22 , the
제 1 경사면부(404)는 제 1 지지부(410)에 대응될 수 있다. 즉, 제 1 지지부(410)는 제 1 경사면부(404)에 배치될 수 있다.The first
제 2 경사면부(405)는 제 2 지지부(420)에 대응될 수 있다. 즉, 제 2 지지부(420)는 제 2 경사면부(405)에 배치될 수 있다.The second
베이스부(400)에 대해 보다 상세히 살펴보면 아래와 같다.Looking at the
베이스부(400)는 수평부분(Horizontal Part, 401), 제 1 수직부분(First Vertical Part, 402), 제 2 수직부분(Second Vertical Part, 403), 제 1 경사면부(404) 및 제 2 경사면부(405)를 포함할 수 있다.The
수평부분(401)은 수평방향(제 1 방향(DR1) 또는 제 2 방향(DR2))으로 연장되는 부분을 포함할 수 있다.The
수평부분(401)은 도시하지는 않았지만 케이스부(30)에 연결될 수 있다. 예를 들면, 수평부분(401)은 바닥부(300) 및/또는 중간부(310)에 연결될 수 있다.Although not shown, the
제 1 수직부분(402)은 수평부분(401)의 일측 끝단에서 제 3 방향(DR3)으로 연장될 수 있다.The first
제 2 수직부분(403)은 수평부분(401)의 타측 끝단에서 제 3 방향(DR3)으로 연장될 수 있다.The second
제 1 경사면부(404)는 제 1 수직부분(402)의 끝단에서 사선방향으로 연장될 수 있다.The first
제 2 경사면부(405)는 제 2 수직부분(403)의 끝단에서 사선방향으로 연장될 수 있다.The second
제 1 경사면부(404)와 제 2 경사면부(405)의 끝단은 서로 연결될 수 있다.Ends of the first
제 1 경사면부(404)에는 제 1 지지부(410)가 배치될 수 있다.A
제 2 경사면부(405)에는 제 2 지지부(420)가 배치될 수 있다.A
이러한 구성의 프레임부(40)는 케이스부(30)의 바닥부(300) 및 중간부(310) 중 적어도 하나에 연결될 수 있다.The
예를 들면, 프레임부(40)의 베이스부(400)의 수평부분(401)은 케이스부(30)의 바닥부(300) 및 중간부(310) 중 적어도 하나에 연결될 수 있다.For example, the
도 23을 살펴보면, 프레임부(40)의 베이스부(400)는 개구부(Opening, OP)를 포함할 수 있다.Referring to FIG. 23 , the
개구부(OP)는 베이스부(400)의 제 1 경사면부(404)와 제 2 경사면부(405)의 사이에 위치할 수 있다.The opening OP may be positioned between the first
이러한 개구부(OP)는 제 1 케이블부(193) 및/또는 제 2 케이블부(194)가 지나는 통로가 될 수 있다.The opening OP may be a passage through which the
도 24를 살펴보면, 프레임부(40)의 베이스부(400)는 제 1 베이스부(400a)와 제 2 베이스부(400b)로 분할될 수 있다.Referring to FIG. 24 , the
제 1 베이스부(400a)와 제 2 베이스부(400b)는 형태가 동일하거나 충분히 유사할 수 있다.The shape of the
제 1 베이스부(400a)는 제 1 수평부분(401a), 제 1-1 수직부분(402a), 제 2-1 수직부분(403a), 제 1-1 경사면부(404a) 및 제 2-1 경사면부(405a)를 포함할 수 있다.The
제 2 베이스부(400b)는 제 2 수평부분(401b), 제 1-2 수직부분(402b), 제 2-2 수직부분(403b), 제 1-2 경사면부(404b) 및 제 2-2 경사면부(405b)를 포함할 수 있다.The
도 24와 도 22를 비교하면, 각 부분의 사이즈는 다를 수 있으나, 단면의 형태는 동일하거나 충분히 유사할 수 있다.Comparing FIG. 24 with FIG. 22, the size of each part may be different, but the shape of the cross section may be the same or sufficiently similar.
도 25를 살펴보면, 제 1 베이스부(400a)의 제 1-1 경사면부(404a)와 제 2 베이스부(400b)의 제 2-1 경사면부(404b)에 제 1 지지부(410)가 배치될 수 있다.Referring to FIG. 25, the
아울러, 제 1 베이스부(400a)의 제 1-2 경사면부(405a)와 제 2 베이스부(400b)의 제 2-2 경사면부(405b)에 제 2 지지부(420)가 배치될 수 있다.In addition, the
이러한 경우에는, 도 26에 나타나 있는 바와 같이, 분할된 제 1 베이스부(400a)와 제 2 베이스부(400b)의 사이에 개구부(OP)가 마련되고, 개구부(OP)를 통해 제 1 케이블부(193) 및/또는 제 2 케이블부(194)가 지날 수 있다.In this case, as shown in FIG. 26, an opening OP is provided between the divided
도 26을 살펴보면, 제 1 경사면부(404)(제 1-1 경사면부(404a) 및/또는 제 1-2 경사면부(404b))의 폭(W2)은 제 1 지지부(410)의 폭(W1)보다 더 클 수 있다.Referring to FIG. 26, the width W2 of the first inclined surface portion 404 (the 1-1
아울러, 제 2 경사면부(405)(제 2-1 경사면부(405a) 및/또는 제 2-2 경사면부(405b))의 폭은 제 2 지지부(420)의 폭보다 더 클 수 있다.In addition, the width of the second inclined surface portion 405 (the 2-1
이러한 경우, 제 1 케이블부(193) 및/또는 제 2 케이블부(194)가 개구부(OP)를 보다 용이하게 통과할 수 있다.In this case, the
아울러, 제 1 케이블부(193) 및/또는 제 2 케이블부(194)의 연결 작업을 위한 공간을 충분히 확보할 수 있어서 작업이 용이할 수 있다.In addition, a sufficient space for connecting the
도 27을 살펴보면, 제 1 경사면부(404)(제 1-1 경사면부(404a) 및/또는 제 1-2 경사면부(404b)) 상에서 제 1 지지부(410)는 제 2 지지부(420)와 충분히 멀리 떨어지도록 배치될 수 있다.Referring to FIG. 27, the
자세하게는, 제 1 지지부(410)는 제 1 경사면부(404)(제 1-1 경사면부(404a) 및/또는 제 1-2 경사면부(404b))와 제 1 수직부분(402)(제 1-1 수직부분(402a) 및/또는 제 1-2 수직부분(402b))의 연결 부분에 인접하게 위치할 수 있다.In detail, the
이에 따라, 제 1 경사면부(404)(제 1-1 경사면부(404a) 및/또는 제 1-2 경사면부(404b)) 상에서, 제 1 지지부(410)와 제 1 수직부분(402)(제 1-1 수직부분(402a) 및/또는 제 1-2 수직부분(402b)) 사이의 간격(W3)은 제 1 지지부(410)와 제 2 경사면부(405)(제 2-1 경사면부(405a) 및/또는 제 2-2 경사면부(405b)) 사이의 간격(W4)보다 더 작을 수 있다.Accordingly, on the first inclined surface portion 404 (the 1-1
여기서, W3은 실질적으로 0이 되는 경우도 가능할 수 있다.Here, W3 may be substantially zero.
이러한 구성은 제 2 지지부(420)에도 동일하거나 충분히 유사하게 적용될 수 있다.This configuration may be applied to the
이러한 경우, 제 1 지지부(410)와 제 2 지지부(420) 사이에 충분한 공간을 확보할 수 있다.In this case, a sufficient space may be secured between the
도 28을 살펴보면, 제 1 지지부(410)에는 제 1 렌즈부(11b)는 제 1 렌즈 기판부(11a)를 포함하는 제 1 카메라부(11)가 배치될 수 있다.Referring to FIG. 28 , the
아울러, 제 2 지지부(420)에는 제 2 렌즈부(12b)는 제 2 렌즈 기판부(12a)를 포함하는 제 2 카메라부(12)가 배치될 수 있다.In addition, the
이처럼, 제 1, 2 지지부(410, 420)에 제 1, 2 카메라부(11, 12)를 설치하는 경우에는 제 1, 2 카메라부(11, 12)를 보다 용이하게 설치할 수 있다.In this way, when the first and
도 29를 살펴보면, 제 1 지지부(410)는 측면의 일부가 함몰되어 형성된 제 1 함몰부(HW1)를 포함할 수 있다.Referring to FIG. 29 , the
제 1 지지부(410)에서 제 1 함몰부(HW1)는 제 2 지지부(420)에 인접한 측면에 형성될 수 있다.In the
아울러, 제 2 지지부(420)는 측면의 일부가 함몰되어 형성된 제 2 함몰부(HW2)를 포함할 수 있다.In addition, the
제 2 지지부(420)에서 제 2 함몰부(HW2)는 제 1 지지부(410)에 인접한 측면에 형성될 수 있다.In the
이에 따라, 제 1 함몰부(HW1)와 제 2 함몰부(HW2)는 서로 마주보는 것이 가능하다.Accordingly, it is possible for the first recessed part HW1 and the second recessed part HW2 to face each other.
도 30을 살펴보면, 제 1 지지부(410)는 전면(Front Surface, FS)의 일부가 함몰되어 형성된 제 1 안착부(DeP1)를 포함할 수 있다.Referring to FIG. 30 , the
이러한 제 1 안착부(DeP1)는 제 1 함몰부(HW1)와 연결될 수 있다.The first seating portion DeP1 may be connected to the first recessed portion HW1.
제 2 지지부(420)는 전면(FS)의 일부가 함몰되어 형성된 제 2 안착부(DeP2)를 포함할 수 있다.The
이러한 제 2 안착부(DeP2)는 제 2 함몰부(HW2)와 연결될 수 있다.The second seating part DeP2 may be connected to the second recessed part HW2.
도 31을 살펴보면, 제 1 카메라부(11)는 제 1 지지부(410)의 제 1 안착부(DeP1)에 배치될 수 있다.Referring to FIG. 31 , the
예를 들면, 제 1 카메라부(11)의 제 1 렌즈 기판부(11a)는 제 1 지지부(410)의 제 1 안착부(DeP1)에 배치되고, 스크류 등의 소정의 체결수단(미도시)에 의해 고정되는 것이 가능하다.For example, the
제 2 카메라부(12)는 제 2 지지부(420)의 제 2 안착부(DeP2)에 배치될 수 있다.The
예를 들면, 제 2 카메라부(12)의 제 2 렌즈 기판부(12a)는 제 2 지지부(420)의 제 2 안착부(DeP2)에 배치되고, 스크류 등의 소정의 체결수단(미도시)에 의해 고정되는 것이 가능하다.For example, the
도 32를 살펴보면, 제 1 지지부(410)의 제 1 안착부(DeP1)에 제 1 카메라부(11)가 배치된 상태에서, 제 1 렌즈부(11b)는 제 1 지지부(410)보다 W5만큼 더 돌출될 수 있다.Referring to FIG. 32 , in a state in which the
아울러, 제 2 지지부(420)의 제 2 안착부(DeP2)에 제 2 카메라부(12)가 배치된 상태에서, 제 2 렌즈부(12b)는 제 2 지지부(420)보다 더 돌출될 수 있다.In addition, in a state where the
이러한 경우에는, 제 1, 2 카메라부(11, 12)를 충분히 안정적으로 배치할 수 있을 뿐만 아니라, 제 1, 2 렌즈부(11a, 11b)가 보다 용이하게 주변의 영상을 촬영할 수 있다.In this case, not only can the first and
도 33을 살펴보면, 베이스부(400)는 제 1 베이스부(400a)와 제 2 베이스부(400b)를 포함하고, 베이스부(400)의 제 1, 2 경사면부(404, 405)에 제 1, 2 지지부(410, 420)가 배치되는 경우의 일례가 나타나 있다.Referring to FIG. 33, the
여기서, 제 1, 2 지지부(410, 420)는 제 1, 2 함몰부(HW1, HW2)와 제 1, 2 안착부(DeP1, DeP2)를 포함할 수 있다.Here, the first and
이러한 상태에서 제 1 케이블부(193)와 제 2 케이블부(194)가 연결되는 경우의 일례가 도 34에 나타나 있다.An example of a case where the
도 34를 살펴보면, 제 1 케이블부(193)는 카메라 구동부(190)의 제 3 커넥터부(191)와 제 1 카메라부(11)를 전기적으로 연결할 수 있다.Referring to FIG. 34 , the
아울러, 제 2 케이블부(194)는 카메라 구동부(190)의 제 4 커넥터부(192)와 제 2 카메라부(12)를 전기적으로 연결할 수 있다.In addition, the
베이스부(400)의 수평부분(401)의 상부에 카메라 구동부(190)가 배치될 수 있다.A
또는, 프레임부(40)의 베이스부(400)가 제 1 수평부분(401a)과 제 2 수평부분(401b)으로 분할되는 경우에는, 카메라 구동부(190)는 제 1 수평부분(401a)과 제 2 수평부분(401b)에 걸쳐 배치될 수 있다.Alternatively, when the
제 1 경사면부(404)와 제 2 경사면부(405)의 사이 각도(θ1)는 제 1 카메라부(11)와 제 2 카메라부(12)의 촬영 영역의 중첩(Overlap)과 연관될 수 있다.An angle θ1 between the first
자세하게는, 제 1 경사면부(404)와 제 2 경사면부(405)의 사이 각도(θ1)에 따라 제 1 카메라부(11)의 제 1 렌즈부(11b)가 향하는 방향과 제 2 카메라부(12)의 제 2 렌즈부(12b)가 향하는 방향은 서로 다를 수 있다.Specifically, the direction the
여기서, 제 1 경사면부(404)와 제 2 경사면부(405)의 사이 각도(θ1)는 180°(도)보다 더 작을 수 있다. 예를 들면, 제 1 경사면부(404)와 제 2 경사면부(405)의 사이 각도(θ1)는 45°(도) 이상 135°(도)이하일 수 있다.Here, the angle θ1 between the first
도 35에는 본 발명에 따른 카메라 모듈(10)의 단면의 형태의 일례가 나타나 있다.35 shows an example of a shape of a cross section of the
도 35를 살펴보면, 프레임부(40)의 제 1 경사면부(404)와 제 2 경사면부(405)는 수직방향(제 3 방향(DR3))으로 중간부(310)보다 더 돌출될 수 있다.Referring to FIG. 35 , the first
이를 위해, 프레임부(40)의 제 1 수직부분(402) 및 제 2 수직부분(403)은 수직방향(제 3 방향(DR3))으로 중간부(310)보다 더 연장되는 부분을 포함할 수 있다.To this end, the first
이에 따라, 프레임부(40)의 제 1 경사면부(404)와 제 2 경사면부(405)는 중간부(310)에 의해 가려지지 않을 수 있다.Accordingly, the first
이로 인해, 제 1 카메라부(11) 및 제 2 카메라부(12)도 중간부(310)보다 수직방향(제 3 방향(DR3))으로 더 돌출될 수 있다. 이러한 경우, 제 1 카메라부(11) 및 제 2 카메라부(12)의 효과적인 영상 촬영이 가능할 수 있다.Because of this, the
이상에서 상세히 설명한 카메라 모듈(10)을 스마트 폴(SP)에 적용하면 넓은 영역의 영상을 획득할 수 있다.When the
아울러, 하나의 스마트 폴(SP)에 다수의 카메라를 설치하지 않아도 되기 때문에 스마트 폴(SP)의 구조를 단순화할 수 있다.In addition, since it is not necessary to install a plurality of cameras in one smart pole (SP), the structure of the smart pole (SP) can be simplified.
이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, it will be understood that the technical configuration of the present invention described above can be implemented in other specific forms without changing the technical spirit or essential features of the present invention by those skilled in the art to which the present invention pertains.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above should be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the claims to be described later rather than the foregoing detailed description, and the meaning and scope of the claims And all changes or modified forms derived from the equivalent concept should be construed as being included in the scope of the present invention.
Claims (5)
상기 기둥부에 배치되는 카메라 모듈(Camera Module); 및
서버(Server);
를 포함하고,
상기 카메라 모듈은
미리 설정된 대상영역(Target Area)을 촬영하여 감시영상(Monitoring Image)을 생성하고, 생성한 상기 감시영상을 상기 서버로 전송하고,
상기 서버는
상기 카메라 모듈로부터 수신한 상기 감시영상을 분석하여 위험상황을 검출하고, 검출한 상기 위험상황에 관련된 관련영상 및 상기 위험상황에 관련된 위치정보를 연관시켜 저장하는 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.A pillar part including a part extending in a vertical direction (Vertical Direction);
A camera module disposed on the column part; and
Server;
including,
The camera module
A preset target area is photographed to generate a monitoring image, and the generated monitoring image is transmitted to the server,
The server
Dangerous situation using a smart pole, characterized in that by analyzing the surveillance image received from the camera module to detect a dangerous situation, and to associate and store the detected image related to the dangerous situation and location information related to the dangerous situation. information processor.
상기 카메라 모듈은
케이스부(Case Part);
상기 케이스부 내부에 배치되는 프레임부(Frame Part);
상기 케이스부 내에서 상기 프레임부에 배치되며 상기 대상영역을 촬영하는 카메라부(Camera Part); 및
상기 케이스부 내에 배치되며, 상기 카메라부와 전기적으로 연결되는 카메라 구동부(Camera Driver);
를 포함하고,
상기 카메라부는
제 1 촬영 영역에 대응되는 제 1 카메라부(First Camera Part); 및
제 2 촬영 영역에 대응되는 제 2 카메라부(Second Camera Part);
를 포함하고,
상기 제 1 카메라부는
제 1 렌즈부(First Lens Part); 및
상기 제 1 렌즈부가 배치되는 제 1 렌즈 기판부(First Lens Substrate Part);
를 포함하고,
상기 제 2 카메라부는
제 2 렌즈부(Second Lens Part); 및
상기 제 2 렌즈부가 배치되는 제 2 렌즈 기판부(Second Lens Substrate Part);
를 포함하고,
상기 제 1 렌즈부가 향하는 방향은 상기 제 2 렌즈부가 향하는 방향과 다른 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.According to claim 1,
The camera module
Case Part;
a frame part disposed inside the case part;
a camera part disposed in the frame part within the case part and photographing the target area; and
a camera driver disposed within the case unit and electrically connected to the camera unit;
including,
the camera part
a first camera part corresponding to the first capturing area; and
a second camera part corresponding to the second capturing area;
including,
The first camera unit
a first lens part; and
a first lens substrate part on which the first lens unit is disposed;
including,
The second camera unit
a second lens part; and
a second lens substrate part on which the second lens unit is disposed;
including,
Danger situation information processing device using a smart pole, characterized in that the direction in which the first lens unit faces is different from the direction in which the second lens unit faces.
상기 카메라 모듈은 설정모드(Setting Mode)에서 상기 대상영역을 촬영하여 설정영상(Setting Image)을 생성하고, 생성한 상기 설정영상을 상기 서버로 전송하고,
상기 서버는 상기 설정영상을 분석하여 상기 대상영역에서 배경을 검출하고, 검출한 상기 배경에서 관심영역 및 위험영역을 설정하고, 상기 감시영상에서 객체(Object)가 상기 위험영역에 위치하는 경우에 상기 위험상황이 발생한 것으로 판단하는 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.According to claim 1,
The camera module captures the target area in a setting mode to generate a setting image, transmits the generated setting image to the server,
The server analyzes the set image to detect a background in the target area, sets an interest area and a danger area in the detected background, and when an object is located in the danger area in the surveillance image, the server detects the background in the target area. A dangerous situation information processing device using a smart pole, characterized in that it is determined that a dangerous situation has occurred.
상기 서버는 미리 설정된 적어도 하나의 단말기로 상기 위험상황에 대한 정보를 전송하는 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.According to claim 1,
The server transmits information on the dangerous situation to at least one preset terminal.
상기 위험상황에 관련된 위치를 포인팅(Pointing)하는 포인팅부(Pointing Part)를 더 포함하는 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.According to claim 1,
Dangerous situation information processing device using a smart pole, characterized in that it further comprises a pointing part for pointing to a location related to the dangerous situation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210175548A KR102686900B1 (en) | 2021-12-09 | 2021-12-09 | Processing apparatus for dangerous situation information using smart pole |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210175548A KR102686900B1 (en) | 2021-12-09 | 2021-12-09 | Processing apparatus for dangerous situation information using smart pole |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230087008A true KR20230087008A (en) | 2023-06-16 |
KR102686900B1 KR102686900B1 (en) | 2024-07-19 |
Family
ID=86948210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210175548A KR102686900B1 (en) | 2021-12-09 | 2021-12-09 | Processing apparatus for dangerous situation information using smart pole |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102686900B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102660210B1 (en) | 2023-11-02 | 2024-04-24 | 주식회사 태정이엔지 | Intelligent smart pole having multifunction and control system thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009121053A (en) * | 2007-11-12 | 2009-06-04 | Clarion Co Ltd | Work safety monitoring system of construction-civil engineering work vehicle |
JP2019071578A (en) * | 2017-10-11 | 2019-05-09 | パナソニックIpマネジメント株式会社 | Object detection device, object detection system, and object detection method |
JP2019220939A (en) * | 2018-11-08 | 2019-12-26 | パナソニック株式会社 | Monitor camera and image arrangement method |
KR102126498B1 (en) | 2019-11-15 | 2020-06-25 | 한국건설기술연구원 | Apparatus, system and method for detecting dangerous situation based on image recognition |
-
2021
- 2021-12-09 KR KR1020210175548A patent/KR102686900B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009121053A (en) * | 2007-11-12 | 2009-06-04 | Clarion Co Ltd | Work safety monitoring system of construction-civil engineering work vehicle |
JP2019071578A (en) * | 2017-10-11 | 2019-05-09 | パナソニックIpマネジメント株式会社 | Object detection device, object detection system, and object detection method |
JP2019220939A (en) * | 2018-11-08 | 2019-12-26 | パナソニック株式会社 | Monitor camera and image arrangement method |
KR102126498B1 (en) | 2019-11-15 | 2020-06-25 | 한국건설기술연구원 | Apparatus, system and method for detecting dangerous situation based on image recognition |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102660210B1 (en) | 2023-11-02 | 2024-04-24 | 주식회사 태정이엔지 | Intelligent smart pole having multifunction and control system thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102686900B1 (en) | 2024-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2020203351B2 (en) | Drone-augmented emergency response services | |
KR102189569B1 (en) | Multifunctional smart object recognition accident prevention sign guide plate and accident prevention method using the same | |
JP6768557B2 (en) | Surveillance camera system and surveillance method | |
KR101644443B1 (en) | Warning method and system using prompt situation information data | |
KR101514696B1 (en) | Safety Accident Management System Of Bridge | |
KR102509570B1 (en) | Control device using artificial intelligence learning images and electrical signals and intrusion alert systme including the same | |
JP2007195130A (en) | Video monitoring system | |
KR102015959B1 (en) | INTELLIGENT SECURITY SYSTEM BASED ON DEEP LEARNING USING IoT CAMERA AND METHOD FOR PROCESSING THEREOF | |
KR20160074208A (en) | System and method for providing safety service using beacon signals | |
CN115019463B (en) | Water area supervision system based on artificial intelligence technology | |
CN112263803A (en) | Unmanned vehicle intelligent security system based on real-time scene inspection and automatic detection fire extinguishing and control method | |
KR101903615B1 (en) | Visual observation system and visual observation method using the same | |
KR20230087008A (en) | Processing apparatus for dangerous situation information using smart pole | |
CN110222216B (en) | Multifunctional intelligent defense system | |
KR101415848B1 (en) | Monitering apparatus of school-zone using detection of human body and vehicle | |
KR20230087656A (en) | Processing apparatus and processing method for dangerous situation information using smart pole and artificial intelligence | |
KR20200104548A (en) | Risk alarm system with the safety block | |
JP7447626B2 (en) | Information processing method, information processing device, program and information processing system | |
KR20160086536A (en) | Warning method and system using prompt situation information data | |
KR20220142227A (en) | data collection support system based on delivery motorcycle | |
KR20220042913A (en) | Security light system having a fuction of automatic notifying of emergency situation | |
KR20230053988A (en) | A Control service providing device and an operation method for providing pedestrian safety monitoring and analysis service based on pedestrian safety hazard warning facility device | |
KR20230053986A (en) | A Pedestrian safety hazard warning facility device based on artificial intelligence analysis of pedestrian road image and its operation method | |
CN118097229A (en) | Water area monitoring and emergency response integrated method and system | |
CN118314668A (en) | Security monitoring analysis method based on Internet of things |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |