KR20230087008A - Processing apparatus for dangerous situation information using smart pole - Google Patents

Processing apparatus for dangerous situation information using smart pole Download PDF

Info

Publication number
KR20230087008A
KR20230087008A KR1020210175548A KR20210175548A KR20230087008A KR 20230087008 A KR20230087008 A KR 20230087008A KR 1020210175548 A KR1020210175548 A KR 1020210175548A KR 20210175548 A KR20210175548 A KR 20210175548A KR 20230087008 A KR20230087008 A KR 20230087008A
Authority
KR
South Korea
Prior art keywords
dangerous situation
server
camera
image
unit
Prior art date
Application number
KR1020210175548A
Other languages
Korean (ko)
Other versions
KR102686900B1 (en
Inventor
이재준
Original Assignee
(주)케이아이오티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)케이아이오티 filed Critical (주)케이아이오티
Priority to KR1020210175548A priority Critical patent/KR102686900B1/en
Publication of KR20230087008A publication Critical patent/KR20230087008A/en
Application granted granted Critical
Publication of KR102686900B1 publication Critical patent/KR102686900B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B23/00Alarms responsive to unspecified undesired or abnormal conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Emergency Management (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to a dangerous situation information processing apparatus using a smart pole, and more specifically, to a dangerous situation information processing apparatus using a smart pole, which is capable of quickly and accurately detecting a dangerous situation in which a person is drowning in water using artificial intelligence. According to the present invention, the dangerous situation information processing apparatus using a smart pole comprises: a pillar part including a portion extending vertically; a camera module disposed on the pillar part; and a server. The camera module may generate a monitoring video by capturing a preset target area, and transmit the generated monitoring video to the server. The server may detect a dangerous situation by analyzing the monitoring video received from the camera module and store a related video related to the detected dangerous situation in association with location information related to the dangerous situation.

Description

스마트 폴을 이용한 위험상황 정보 처리장치{PROCESSING APPARATUS FOR DANGEROUS SITUATION INFORMATION USING SMART POLE}Danger situation information processing device using smart pole {PROCESSING APPARATUS FOR DANGEROUS SITUATION INFORMATION USING SMART POLE}

본 발명은 스마트 폴을 이용한 위험상황 정보 처리장치에 관한 것이다.The present invention relates to a dangerous situation information processing device using a smart pole.

보다 자세하게는, 본 발명은 사람이 물에 빠지는 등의 위험한 상황을 인공지능을 이용하여 신속하고 정확하게 감지할 수 있는 스마트 폴을 이용한 위험상황 정보 처리장치에 관한 것이다.More specifically, the present invention relates to a dangerous situation information processing device using a smart pole capable of quickly and accurately detecting a dangerous situation such as a person falling into water using artificial intelligence.

정보통신기술의 발달로 인해 CCTV 또는 블랙박스와 같은 영상 데이터를 수집하기 위한 장치가 널리 보급되고 있다.Due to the development of information and communication technology, devices for collecting image data such as CCTVs or black boxes are becoming widely available.

이러한 장치들은 사회 및 개인의 안전을 위한 무인 감시 체계의 일부로서 사용될 수 있다.These devices can be used as part of an unmanned surveillance system for social and personal safety.

종래의 데이터 수집 장치는 녹화된 영상 데이터를 사후적으로 이용하여 문제를 확인하는 용도로 주로 사용되고 있다.Conventional data collection devices are mainly used for the purpose of confirming problems by using recorded video data ex post facto.

그러나 사후적으로 영상 데이터를 이용하는 경우에는 위험상황에 대해 신속하게 대응하기 어렵다는 문제점이 있다.However, there is a problem in that it is difficult to quickly respond to a dangerous situation in the case of using image data ex post facto.

위험상황에 신속하게 대응하기 위한 종래기술로서 대한민국 등록특허공보 제10-2126498호[문헌 1](발명의 명칭 : 영상 인식 기반의 위험상황 감지방법, 위험 관리 장치 및 위험상황 감지시스템)에서는 영상 인식에 대한 인공지능 알고리즘을 이용한 학습을 통해 객체, 객체의 움직임 및 위험상황을 감지하고 위험 단계에 따른 감시 기능을 수행하는 기술적 구성을 포함하고 있다.As a prior art for quickly responding to dangerous situations, Korean Patent Registration No. 10-2126498 [Document 1] (title of invention: image recognition-based dangerous situation detection method, risk management device, and dangerous situation detection system) image recognition It includes a technical configuration that detects objects, movements of objects, and dangerous situations through learning using artificial intelligence algorithms and performs monitoring functions according to risk levels.

그러나 문헌 1에 따른 기술에서는 데이터 처리량이 과도하게 증가할 수 있다는 문제점이 있다.However, in the technique according to Document 1, there is a problem that data throughput may be excessively increased.

[문헌 1] 대한민국 등록특허공보 제10-2126498호[Document 1] Republic of Korea Patent Registration No. 10-2126498

본 발명은 인공지능을 이용하여 빠르고 정확하게 위험상황을 감지할 수 있는 스마트 폴을 이용한 위험상황 정보 처리장치 제공하는데 그 목적이 있다.An object of the present invention is to provide a dangerous situation information processing device using a smart pole capable of quickly and accurately detecting a dangerous situation using artificial intelligence.

본 발명은 상대적으로 적은 데이터 처리량으로 위험상황을 감지하기 위한 스마트 폴을 이용한 위험상황 정보 처리를 제공하는데 다른 목적이 있다.Another object of the present invention is to provide dangerous situation information processing using a smart pole for detecting a dangerous situation with a relatively small amount of data processing.

본 발명은 위험상황을 효과적으로 관리할 수 있는 스마트 폴을 이용한 위험상황 정보 처리를 제공하는데 또 다른 목적이 있다.Another object of the present invention is to provide dangerous situation information processing using smart poles that can effectively manage dangerous situations.

본 발명에 따른 스마트 폴을 이용한 위험상황 정보 처리장치는 수직방향(Vertical Direction)으로 연장되는 부분을 포함하는 기둥부(Pilalr Part), 상기 기둥부에 배치되는 카메라 모듈(Camera Module) 및 서버(Server)를 포함하고, 상기 카메라 모듈은 미리 설정된 대상영역(Target Area)을 촬영하여 감시영상(Monitoring Image)을 생성하고, 생성한 상기 감시영상을 상기 서버로 전송하고, 상기 서버는 상기 카메라 모듈로부터 수신한 상기 감시영상을 분석하여 위험상황을 검출하고, 검출한 상기 위험상황에 관련된 관련영상 및 상기 위험상황에 관련된 위치정보를 연관시켜 저장할 수 있다.Danger situation information processing device using a smart pole according to the present invention includes a pillar part including a part extending in the vertical direction, a camera module disposed in the pillar part, and a server ), wherein the camera module captures a preset target area to generate a monitoring image, transmits the generated monitoring image to the server, and the server receives the image from the camera module A dangerous situation may be detected by analyzing the surveillance image, and the detected image related to the dangerous situation and location information related to the dangerous situation may be stored in association with each other.

또한, 상기 카메라 모듈은 케이스부(Case Part), 상기 케이스부 내부에 배치되는 프레임부(Frame Part), 상기 케이스부 내에서 상기 프레임부에 배치되며 상기 대상영역을 촬영하는 카메라부(Camera Part) 및 상기 케이스부 내에 배치되며, 상기 카메라부와 전기적으로 연결되는 카메라 구동부(Camera Driver)를 포함하고, 상기 카메라부는 제 1 촬영 영역에 대응되는 제 1 카메라부(First Camera Part) 및 제 2 촬영 영역에 대응되는 제 2 카메라부(Second Camera Part)를 포함하고, 상기 제 1 카메라부는 제 1 렌즈부(First Lens Part) 및 상기 제 1 렌즈부가 배치되는 제 1 렌즈 기판부(First Lens Substrate Part)를 포함하고, 상기 제 2 카메라부는 제 2 렌즈부(Second Lens Part) 및 상기 제 2 렌즈부가 배치되는 제 2 렌즈 기판부(Second Lens Substrate Part)를 포함하고, 상기 제 1 렌즈부가 향하는 방향은 상기 제 2 렌즈부가 향하는 방향과 다를 수 있다.In addition, the camera module includes a case part, a frame part disposed inside the case part, and a camera part disposed in the frame part within the case part and capturing the target area. and a camera driver disposed within the case unit and electrically connected to the camera unit, wherein the camera unit includes a first camera part corresponding to a first capturing area and a second capturing area. The first camera part includes a first lens part (First Lens Part) and a first lens substrate part on which the first lens part is disposed. The second camera unit includes a second lens part and a second lens substrate part on which the second lens part is disposed, and the direction in which the first lens part faces is the first lens part. 2 It may be different from the direction the lens unit faces.

또한, 상기 카메라 모듈은 설정모드(Setting Mode)에서 상기 대상영역을 촬영하여 설정영상(Setting Image)을 생성하고, 생성한 상기 설정영상을 상기 서버로 전송하고, 상기 서버는 상기 설정영상을 분석하여 상기 대상영역에서 배경을 검출하고, 검출한 상기 배경에서 관심영역 및 위험영역을 설정하고, 상기 감시영상에서 객체(Object)가 상기 위험영역에 위치하는 경우에 상기 위험상황이 발생한 것으로 판단할 수 있다.In addition, the camera module captures the target area in a setting mode to generate a setting image, transmits the generated setting image to the server, and the server analyzes the setting image It is possible to determine that the dangerous situation has occurred when a background is detected in the target region, an interest region and a danger region are set in the detected background, and an object is located in the danger region in the surveillance image. .

또한, 상기 서버는 미리 설정된 적어도 하나의 단말기로 상기 위험상황에 대한 정보를 전송할 수 있다.In addition, the server may transmit information on the dangerous situation to at least one preset terminal.

또한, 상기 위험상황에 관련된 위치를 포인팅(Pointing)하는 포인팅부(Pointing Part)를 더 포함할 수 있다.In addition, a pointing part for pointing to a location related to the dangerous situation may be further included.

본 발명에 따른 스마트 폴을 이용한 위험상황 정보 처리는 위험상황을 충분히 빠르고 정확하게 감지할 수 있는 효과가 있다.Dangerous situation information processing using a smart pole according to the present invention has the effect of sufficiently quickly and accurately detecting a dangerous situation.

본 발명에 따른 스마트 폴을 이용한 위험상황 정보 처리는 데이터 처리량을 줄임으로써 위험상황을 보다 빠르게 감지할 수 있는 효과가 있다.Dangerous situation information processing using a smart pole according to the present invention has the effect of detecting a dangerous situation more quickly by reducing data throughput.

도 1 내지 도 3은 본 발명에 따른 스마트 폴과 인공지능을 이용한 위험상황 정보 처리장치에 대해 설명하기 위한 도면이다.
도 4 내지 도 5는 설정모드에 대해 설명하기 위한 도면이다.
도 6 내지 도 17은 위험상황을 감지하는 방법 및 그에 관련된 내용을 설명하기 위한 도면이다.
도 18 내지 도 35는 카메라 모듈에 대해 설명하기 위한 도면이다.
1 to 3 are views for explaining a dangerous situation information processing device using a smart pole and artificial intelligence according to the present invention.
4 and 5 are diagrams for explaining the setting mode.
6 to 17 are diagrams for explaining a method for detecting a dangerous situation and contents related thereto.
18 to 35 are diagrams for explaining a camera module.

이하, 첨부된 도면을 참조하여 본 발명에 따른 스마트 폴을 이용한 위험상황 정보 처리장치에 대해 상세히 설명한다.Hereinafter, a dangerous situation information processing device using a smart pole according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. This is not intended to limit the present invention to specific embodiments, and it can be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.

본 발명을 설명함에 있어서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first and second may be used to describe various components, but the components may not be limited by the terms. The terms may only be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함할 수 있다.The terms and/or may include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. can be understood On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it may be understood that no other element exists in the middle.

본 문서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms used in this document are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions may include plural expressions unless the context clearly dictates otherwise.

본 문서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this document, the terms "include" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features It may be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries may be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, interpreted in an ideal or excessively formal meaning. It may not be.

아울러, 본 문서에 개시된 실시예는 당 업계에서 평균적인 지식을 가진 자에게 보다 완전하게 설명하기 위해서 제공되는 것으로서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In addition, the embodiments disclosed in this document are provided to more completely explain the embodiments to those skilled in the art, and the shapes and sizes of elements in the drawings may be exaggerated for clearer explanation.

본 문서에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 수 있다.In describing the present invention in this document, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description may be omitted.

도 1 내지 도 3은 본 발명에 따른 스마트 폴과 인공지능을 이용한 위험상황 정보 처리장치에 대해 설명하기 위한 도면이다.1 to 3 are views for explaining a dangerous situation information processing device using a smart pole and artificial intelligence according to the present invention.

도 1을 살펴보면, 본 발명에 따른 스마트 폴과 인공지능을 이용한 위험상황 정보 처리장치(1, 이하 '정보 처리장치'라 칭할 수 있다)는 적어도 하나의 카메라 모듈(Camera Module, 10), 서버(Server, 20), 적어도 하나의 안전요원 단말기(60) 및 적어도 하나의 감독관 단말기(70)를 포함할 수 있다.Referring to FIG. 1, a dangerous situation information processing device (1, hereinafter referred to as an 'information processing device') using a smart pole and artificial intelligence according to the present invention includes at least one camera module (Camera Module, 10), a server ( Server, 20), at least one safety officer terminal 60, and at least one supervisor terminal 70.

카메라 모듈(10)은 주변의 영상을 촬영할 수 있다. 여기서, 주변은 카메라 모듈(10)의 촬영이 가능한 영역, 즉 대상영역(Target Area)을 의미할 수 있다. 대상영역은 촬영영역이라고도 할 수 있다.The camera module 10 may capture images of the surroundings. Here, the periphery may mean an area where the camera module 10 can shoot, that is, a target area. The target region may also be referred to as a photographing region.

이러한 카메라 모듈(10)은 기둥 형태를 갖는 기둥부(Pillar Part, 50)에 배치될 수 있다.The camera module 10 may be disposed on a pillar part 50 having a pillar shape.

기둥부(50)는 도로변 등에 설치되는 전신주, 가로등 등의 형태를 갖는 것이 가능하다.The pole portion 50 may have a shape such as a telephone pole or a street light installed on the side of a road.

이처럼, 기둥부(50)에 카메라 모듈(10)을 설치하는 것을 스마트 폴(Smart Pole, SP) 타입이라고 할 수 있다.As such, installing the camera module 10 to the pillar portion 50 may be referred to as a smart pole (SP) type.

도시하지는 않았지만, 스마트 폴(SP)에는 전력을 공급하기 위한 전력 공급 수단, 통신을 수행하기 위한 통신 수단 등의 다양한 전자부품이 배치될 수 있다.Although not shown, various electronic components such as power supply means for supplying power and communication means for performing communication may be disposed in the smart pole (SP).

도 2에 나타나 있는 바와 같이, 카메라 모듈(10)을 포함하는 스마트 폴(SP)은 복수개가 강 등의 하천(RVR)의 고수부지 등에 설치될 수 있다.As shown in Figure 2, a plurality of smart poles (SP) including the camera module 10 may be installed in high water sites such as rivers (RVR).

이하에서는 카메라 모듈(10)의 관점에서 주로 설명을 진행하지만, 카메라 모듈(10)은 스마트 폴(SP)로 치환되더라도 무방할 수 있다.In the following, description is mainly made from the viewpoint of the camera module 10, but the camera module 10 may be replaced with a smart pole (SP).

안전요원 단말기(60)는 미리 설정된 안전요원이 사용하는 무선 및/또는 유선 단말기라고 할 수 있다.The safety officer terminal 60 may be a wireless and/or wired terminal used by a preset safety officer.

안전요원은 지역의 안정을 위해 활동하는 사람들로서 상인, 공무원, 경찰 등 다양한 사람들이 이에 참여할 수 있다.Security guards are people who work for regional stability, and various people such as merchants, public officials, and police can participate in them.

예를 들면, 서울의 이촌동에서 활동하는 상인 A를 가정하여 보자.For example, suppose merchant A is active in Ichon-dong, Seoul.

상인 A는 자신의 단말기(안전요원 단말기(60))를 이용하여 서버(20)에 서울 이촌동에 대응하는 안전요원으로 등록하고, 서버(20)로부터 안전요원에 대응하는 소정의 앱(App)을 다운로드하여 설치할 수 있다.Merchant A registers with the server 20 as a safety officer corresponding to Ichon-dong, Seoul using his/her terminal (safety officer terminal 60), and downloads a predetermined app corresponding to the safety officer from the server 20. You can download and install it.

이러한 상인 A는 지역, 즉 서울 이촌동에서 위험상황이 발생하는 경우 서울 이촌동의 안전요원으로서 활동할 수 있다.When a dangerous situation occurs in the region, that is, Ichon-dong, Seoul, merchant A can act as a safety agent in Ichon-dong, Seoul.

감독관 단말기(70)는 미리 설정된 감독관(Supervisor)이 사용하는 무선 및/또는 유선 단말기라고 할 수 있다.The supervisor terminal 70 may be a wireless and/or wired terminal used by a preset supervisor.

감독관은 위험상황에 대한 상황 파악을 하는 사람일 수 있다.A supervisor may be a person who assesses the situation for a dangerous situation.

예를 들면, 감독관은 위험상황을 충분히 정확하게 파악할 수 있는 사람들로서 경찰관, 소방관 등 다양한 사람들이 이에 참여할 수 있다.For example, a supervisor is a person who can sufficiently accurately grasp a dangerous situation, and various people such as police officers and firefighters can participate in it.

서버(20)는 적어도 하나의 카메라 모듈(10), 적어도 하나의 안전요원 단말기(60) 및 적어도 하나의 감독관 단말기(70)와 유선 및/또는 무선 방식으로 통신을 수행할 수 있다.The server 20 may communicate with at least one camera module 10 , at least one safety officer terminal 60 , and at least one supervisor terminal 70 in a wired and/or wireless manner.

카메라 모듈(10), 서버(20), 안전요원 단말기(60) 및 감독관 단말기(70) 사이의 통신의 흐름이 도 3에 대략적으로 나타나 있다.A flow of communication between the camera module 10, the server 20, the safety officer terminal 60, and the supervisor terminal 70 is schematically shown in FIG.

서버(20)는 적어도 하나의 카메라 모듈(10)로부터 카메라 모듈(10)이 촬영한 영상(설정영상, 감시영상)을 전송받고, 전송받은 영상을 인공지능을 이용하여 분석할 수 있다.The server 20 may receive an image (setting image, surveillance image) captured by the camera module 10 from at least one camera module 10 and analyze the transmitted image using artificial intelligence.

여기서, 설정영상 및/또는 감시영상은 동영상 및/또는 정지영상인 것이 가능하다.Here, it is possible that the setting image and/or surveillance image is a moving image and/or a still image.

서버(20)는 인공지능을 이용하여 카메라 모듈(10)이 촬영한 영상을 분석하여 위험상황을 감지할 수 있다.The server 20 may detect a dangerous situation by analyzing an image captured by the camera module 10 using artificial intelligence.

서버(20)는 포인팅 제어신호 및/또는 알람 제어신호를 카메라 모듈(10)로 전송할 수 있다.The server 20 may transmit a pointing control signal and/or an alarm control signal to the camera module 10 .

서버(20)는 위험상황의 발생 시 위험상황에 대한 정보를 적어도 하나의 안전요원 단말기(60) 및/또는 적어도 하나의 감독관 단말기(70)로 전송할 수 있다.When a dangerous situation occurs, the server 20 may transmit information about the dangerous situation to at least one safety officer terminal 60 and/or at least one supervisor terminal 70 .

아울러, 서버(20)는 위험상황에 대응하는 위치정보, 예컨대 위험상황이 발생한 위치에 대한 정보 및/또는 위험상황이 감지된 감시영상을 촬영한 카메라 모듈(20)의 위치에 대한 정보를 안전요원 단말기(60) 및/또는 감독자 단말기(70)로 전송할 수 있다.In addition, the server 20 transmits location information corresponding to the dangerous situation, for example, information on the location where the dangerous situation occurred and/or information about the location of the camera module 20 that captured the surveillance image in which the dangerous situation was detected to the safety personnel. It can be transmitted to the terminal 60 and/or the supervisor terminal 70.

또는, 서버(20)는 위험상황에 대응하는 위치 정보를 카메라 모듈(10)로 전송하는 것도 가능할 수 있다.Alternatively, the server 20 may transmit location information corresponding to a dangerous situation to the camera module 10 .

적어도 하나의 안전요원 단말기(60)는 서버(20)로 위험상황에 대응하는 대응영상을 전송할 수 있다.At least one safety personnel terminal 60 may transmit a corresponding image corresponding to a dangerous situation to the server 20 .

서버(20)는 적어도 하나의 감독관 단말기(70)로 위험상황의 판정을 요청하는 정보를 전송하고, 이에 대응하여 감독관 단말기(70)는 서버(20)로 위험상황을 판정한 판정정보를 전송하는 것이 가능하다.The server 20 transmits information requesting determination of a dangerous situation to at least one supervisor terminal 70, and in response to this, the supervisor terminal 70 transmits determination information for determining a dangerous situation to the server 20. it is possible

아울러, 서버(20)는 위험상황에 관련된 적어도 하나의 안전요원 단말기(60) 및/또는 감독관 단말기(70)로 소정의 보상을 지급할 수 있다.In addition, the server 20 may provide a predetermined reward to at least one safety officer terminal 60 and/or supervisor terminal 70 related to a dangerous situation.

여기서, 보상은 금전적인 보상이 가능하고, 누적되는 포인트를 지급하는 방식도 가능할 수 있다.Here, the reward may be a monetary reward, and a method of providing accumulated points may also be possible.

아울러, 서버(20)는 적어도 하나의 카메라 모듈(10), 적어도 하나의 안전요원 단말기(60) 및/또는 적어도 하나의 감독관 단말기(70)를 관리할 수 있다.In addition, the server 20 may manage at least one camera module 10 , at least one safety officer terminal 60 , and/or at least one supervisor terminal 70 .

카메라 모듈(10)이 촬영한 영상은 설정영상(Setting Image) 및 감시영상(Monitoring Image)을 포함할 수 있다.The image captured by the camera module 10 may include a setting image and a monitoring image.

감시영상은 카메라 모듈(10)이 촬영이 가능한 영역, 즉 대상영역에서 위험상황이 발생하는지를 감시(Monitoring)하기 위해 촬영한 영상일 수 있다. 예를 들어, 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변에서 위험상황이 발생하는지를 감시하는 경우, 카메라 모듈(10)이 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변을 촬영한 영상이 감시영상이 될 수 있다.The monitoring image may be an image captured by the camera module 10 to monitor whether a dangerous situation occurs in an area capable of being photographed, that is, a target area. For example, when monitoring whether a dangerous situation occurs along the Han River in Ichon-dong between aa:00 and bb on xx/xx, 20xx, the camera module 10 detects a dangerous situation between aa and bb on xx/xx, 20xx. The video taken can be a surveillance video.

설정영상은 카메라 모듈(10)이 대상영역에서 배경(Background)을 검출하기 위해 촬영한 영상일 수 있다.The set image may be an image captured by the camera module 10 to detect a background in the target area.

설정영상은 배경의 설정을 위한 영상으로서 샘플영상이라도 할 수 있다.The setting image is an image for setting the background and may be a sample image.

서버(20)는 주기적 또는 비주기적으로 적어도 하나의 설정영상을 촬영하여 배경을 변경(업데이트)하는 것이 가능하다.The server 20 may change (update) the background by periodically or non-periodically capturing at least one setting image.

도 4 내지 도 5는 설정모드에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.4 and 5 are diagrams for explaining the setting mode. Hereinafter, description of the parts described in detail above may be omitted.

도 4를 살펴보면, 설정모드(Setting Mode)(S100)에서는 카메라 모듈(10)이 대상영역을 촬영하여 설정영상을 생성할 수 있다(S100).Referring to FIG. 4 , in a setting mode (S100), the camera module 10 may capture a target area to generate a setting image (S100).

설정모드는 카메라 모듈(10)의 설정을 위한 모드라고 할 수 있다.The setting mode may be referred to as a mode for setting the camera module 10 .

이후, 카메라 모듈(10)은 생성한 설정영상을 서버(20)로 전송할 수 있다(S120).Thereafter, the camera module 10 may transmit the generated setting image to the server 20 (S120).

예를 들어, 카메라 모듈(10)(혹은 스마트 폴(SP))이 최초로 설치되는 경우에는 카메라 모듈(10)이 촬영할 수 있는 영역이 아직 명확하게 규정되지 않을 수 있다.For example, when the camera module 10 (or smart pole (SP)) is installed for the first time, an area where the camera module 10 can capture may not yet be clearly defined.

이러한 경우, 카메라 모듈(10)은 대상영역의 영상을 미리 설정된 기간동안 미리 설정된 주기로 촬영하고, 촬영한 영상(설정영상)을 서버(20)로 전송할 수 있다.In this case, the camera module 10 may capture an image of the target area at a preset cycle for a preset period of time, and transmit the captured image (setting image) to the server 20 .

그러면, 서버(20)에서는 인공지능을 이용하여 카메라 모듈(10)로부터 전송받은 적어도 하나의 설정영상을 분석하여 배경을 검출할 수 있다(S130).Then, the server 20 may detect the background by analyzing at least one set image transmitted from the camera module 10 using artificial intelligence (S130).

예를 들어, 서버(20)는 1분 간격으로 한달동안 촬영된 설정영상을 분석하여 한달동안의 데이터 변화량이 미리 설정된 임계 변화량보다 더 적은 부분을 검출할 수 있다.For example, the server 20 may analyze set images taken for one month at intervals of one minute and detect a portion where the amount of change in data for one month is less than a preset threshold amount of change.

이후, 서버(20)는 데이터 변화량이 임계 변화량보다 적은 부분, 예컨대 데이터 변화량이 실질적으로 0이거나 충분히 미미한 부분을 배경으로 판단하여 검출할 수 있다.Thereafter, the server 20 may determine and detect a portion where the data change amount is less than the threshold change amount, for example, a portion where the data change amount is substantially zero or sufficiently insignificant as a background.

서버(20)는 영상 분석을 거듭하면서 딥러닝(Deep Learning)을 통해 배경을 보다 효과적이고 정밀하게 검출할 수 있다.The server 20 may more effectively and precisely detect the background through deep learning while repeatedly analyzing the image.

아울러, 서버(20)는 검출한 배경에서 관심영역(Region Of Interest, ROI) 및 위험영역(Dangerous Area, DA)을 구분하여 설정할 수 있다(S140).In addition, the server 20 may classify and set a region of interest (ROI) and a dangerous area (DA) in the detected background (S140).

또한, 서버(20)는 대상영역에 대응하여 검출한 배경에서 관심영역(ROI) 및 위험영역(DA) 이외에 안전영역(Safety Area, SA)을 더 설정할 수 있다.In addition, the server 20 may further set a safety area (SA) in addition to the region of interest (ROI) and the danger region (DA) in the detected background corresponding to the target region.

여기서, 위험영역(DA)은 사람이 들어가면 위험한 상황이 발생할 수 있는 영역이라고 할 수 있다. 예를 들면, 강 등의 하천, 바다, 다리의 난간 외부 등이 위험영역(DA)으로 설정될 수 있다.Here, the danger area DA may be referred to as an area in which a dangerous situation may occur when a person enters. For example, a river such as a river, the sea, and the outside of a railing of a bridge may be set as the danger area DA.

관심영역(ROI)은 위험영역(DA)에 인접하여 사람이 위험영역(DA)으로 이동할 수 있는 가능성이 충분히 높은 영역이라고 할 수 있다. 예를 들면, 강의 고수부지의 일부, 바다에서 테트라포드(Tetrapod)가 설치된 영역, 다리의 보행자 통로가 관심영역(ROI)으로 설정될 수 있다.The region of interest (ROI) can be said to be an area adjacent to the risk region (DA) and highly likely to move a person to the risk region (DA). For example, a part of a highland area of a river, an area in which a tetrapod is installed in the sea, and a pedestrian passage of a bridge may be set as a region of interest (ROI).

안심영역(SA)은 관심영역(ROI)과 인접하고, 위험영역(DA)으로부터 충분히 멀리 떨어진 영역일 수 있다.The safe area SA may be an area adjacent to the area of interest ROI and sufficiently far from the risk area DA.

예를 들어, 도 5의 (A)에 나타나 있는 바와 같이, 카메라 모듈(10)이 설정영상으로서 소정의 강변에 대한 영상을 촬영하는 경우를 가정하여 보자.For example, as shown in (A) of FIG. 5, let's assume a case where the camera module 10 captures an image of a predetermined riverside as a set image.

이러한 경우, 서버(20)는 영상에서 물에 대응되는 영역을 위험영역(DA)으로 설정하고, 물에 접하는 고수부지 영역을 관심영역(ROI)으로 설정하고, 물로부터 충분히 멀리 떨어진 부분을 안심영역(SA)으로 설정할 수 있다.In this case, the server 20 sets the area corresponding to the water in the image as the risk area (DA), sets the high water site area in contact with the water as the area of interest (ROI), and sets a part far enough away from the water as the safe area. (SA).

또는, 도 5의 (B)에 나타나 있는 바와 같이, 카메라 모듈(10)이 설정영상으로서 소정의 방파제에 대한 영상을 촬영하는 경우를 가정하여 보자.Or, as shown in (B) of FIG. 5, let's assume a case where the camera module 10 captures an image of a predetermined breakwater as a set image.

이러한 경우, 서버(20)는 영상에서 물, 즉 바다에 대응되는 영역을 위험영역(DA)으로 설정하고, 테트라포드가 배치된 영역을 관심영역(ROI)으로 설정하고, 테트라포드가 설치되지 않고 물로부터 충분히 멀리 떨어진 부분을 안심영역(SA)으로 설정할 수 있다.In this case, the server 20 sets the area corresponding to water, that is, the sea, as the area of danger (DA) in the image, sets the area where the tetrapods are placed as the area of interest (ROI), and sets the area where the tetrapods are placed as the area of interest (ROI), and the tetrapods are not installed and the water is removed from the water. A sufficiently distant part may be set as the safe area (SA).

여기서는 강 및 바다(방파제)의 경우를 예로 들었지만 다리, 낚시터, 파도가 높은 갯바위, 저수지 등 위험상황이 발생하는 장소라면 어떠한 곳이라도 본 발명에 따른 카메라 모듈(10)(스마트 폴(SP))이 설치되는 것이 가능할 수 있다.Here, the case of rivers and seas (breakwaters) is given as an example, but the camera module 10 (smart pole (SP)) according to the present invention is used in any place where a dangerous situation occurs, such as a bridge, a fishing ground, a seashore with high waves, a reservoir, etc. It may be possible to install

아울러, 도 5에서는 대상영역에 대한 배경에서 위험영역(DA), 관심영역(ROI) 및 안전영역(SA)을 모두 설정하는 경우를 설명하고 있지만, 본 발명은 이에 한정되지 않을 수 있다.In addition, although FIG. 5 describes the case of setting all of the risk area (DA), the area of interest (ROI), and the safety area (SA) in the background of the target area, the present invention may not be limited thereto.

예를 들면, 경우에 따라 배경에서 위험영역(DA) 및 관심영역(ROI)을 설정하면서도, 안전영역(SA)은 설정하지 않을 수 있다. 폭이 좁은 방파제, 높이가 높은 출렁다리 등의 경우가 이에 대응될 수 있다.For example, while the risk area DA and the area of interest ROI are set in the background in some cases, the safe area SA may not be set. A narrow breakwater or a high suspension bridge may correspond to this.

이처럼, 배경을 안전영역(SA), 관심영역(ROI) 및 위험영역(DA)으로 구분하는 경우에는, 카메라 모듈(10)이 촬영한 영상, 즉 감시영상에서 관심영역(ROI) 및/또는 위험영역(DA)에 대응하는 부분만을 분석하여 위험상황을 감지할 수 있다. 이에 따라, 데이터 처리량을 줄여 신속한 위험상황의 감지가 가능할 수 있다.In this way, when the background is divided into a safety area (SA), an area of interest (ROI), and a danger area (DA), the area of interest (ROI) and/or danger in the image captured by the camera module 10, that is, a surveillance image A dangerous situation can be detected by analyzing only the part corresponding to the area DA. Accordingly, it may be possible to quickly detect a dangerous situation by reducing the amount of data processing.

도 6 내지 도 17은 위험상황을 감지하는 방법 및 그에 관련된 내용을 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.6 to 17 are diagrams for explaining a method for detecting a dangerous situation and contents related thereto. Hereinafter, description of the parts described in detail above may be omitted.

도 6을 살펴보면, 감시모드(Monitoring Mode)(S200)에서 카메라 모듈(10)은 대상영역을 촬영하여 감시영상을 생성할 수 있다(S210).Referring to FIG. 6 , in the monitoring mode (S200), the camera module 10 may generate a monitoring image by capturing a target area (S210).

감시모드는 대상영역에서 위험상황이 발생하는지를 감시하는 모드라고 할 수 있다.The surveillance mode may be referred to as a mode for monitoring whether a dangerous situation occurs in the target area.

이후, 카메라 모듈(10)은 생성한 감시영상을 서버(20)로 전송할 수 있다(S220).Thereafter, the camera module 10 may transmit the generated monitoring image to the server 20 (S220).

그러면 서버(20)는 인공지능을 이용하여 감시영상을 분석(S230)하여, 감시영상에 위험상황이 포함되어 있는지, 즉 위험상황이 발생하는지의 여부를 판단할 수 있다(S240).Then, the server 20 may analyze the surveillance image using artificial intelligence (S230) to determine whether a dangerous situation is included in the surveillance image, that is, whether a dangerous situation occurs (S240).

서버(20)는 카메라 모듈(10)로부터 전송받은 감시영상을 미리 설정된 기간 동안 저장할 수 있다.The server 20 may store the monitoring image transmitted from the camera module 10 for a preset period of time.

서버(20)는 수신한 감시영상을 분석하여 감시영상을 전송한 카메라 모듈(10)에 대한 위치를 정보를 판별할 수 있다. 예를 들면, 서버(20)는 미리 저장되어 있는 카메라 모듈(10)에 대한 일련번호 등의 고유정보를 근거로 하여 감시영상을 전송한 카메라 모듈(10)의 위치정보를 판별할 수 있다.The server 20 may analyze the received monitoring image to determine location information of the camera module 10 that transmits the monitoring image. For example, the server 20 may determine location information of the camera module 10 that has transmitted the surveillance image based on unique information such as a serial number of the camera module 10 stored in advance.

제 S240 단계에서 판단결과, 위험상황이 발생하지 않는 경우에는 미리 설정된 제 1 기능(Default 1)을 수행할 수 있다(S250).As a result of the determination in step S240, when a dangerous situation does not occur, a preset first function (Default 1) may be performed (S250).

제 1 기능으로는 위험상황이 발생하지 않았음을 알리는 기능, 계속해서 감시영상을 분석하는 기능 등을 예로 들 수 있다.Examples of the first function include a function to notify that a dangerous situation has not occurred, a function to continuously analyze surveillance images, and the like.

반면에, 제 S240 단계에서 판단결과, 위험상황이 발생한 경우에는 서버(20)는 위험상황에 관련된 관련영상을 생성(S2560)하고, 생성한 관련영상을 저장(S270)할 수 있다.On the other hand, if a dangerous situation occurs as a result of the determination in step S240, the server 20 may generate a related image related to the dangerous situation (S2560) and store the generated related image (S270).

서버(20)는 수신한 감시영상을 분석하여 감시영상 내에서 위험상황이 발생한 장소의 위치정보를 판별하는 것이 가능하다.The server 20 may analyze the received monitoring image to determine location information of a place where a dangerous situation occurs in the monitoring image.

관련영상은 위험상황에 관련된 객체(Object)가 포함된 영상을 포함할 수 있다.The related image may include an image including an object related to a dangerous situation.

예를 들어, 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변에서 촬영한 감시영상에서 객체 A(사람 A)에 대해 위험상황이 발생하는 경우를 가정하여 보자.For example, let's assume that a dangerous situation occurs for object A (person A) in a surveillance image taken at the Han Riverside in Ichon-dong between aa and bb on xx month xx, 20xx.

이러한 경우, 서버(20)는 저장되어 있는 20xx년 xx월 xx일 aa시 이전의 감시영상을 다시 분석하여 20xx년 xx월 xx일 aa시 이전의 감시영상에서 객체 A를 역추적할 수 있다.In this case, the server 20 may backtrack the object A in the surveillance image before aa on the xx month xx of the year 20xx by re-analyzing the stored surveillance image before aa:00 on the xx month xx day of the year 20xx.

이후, 서버(20)는 역추적한 객체 A가 포함되어 있는 영상을 추출하고, 추출한 영상을 관련영상으로 설정하여 저장할 수 있다.Thereafter, the server 20 may extract an image including the back-tracked object A, set the extracted image as a related image, and store the extracted image.

여기서, 객체를 사람으로 설정하였지만, 본 발명은 이에 한정되지 않을 수 있다. 예를 들면, 사람이 들고 있는 가방, 사람이 운전하는 자전거, 킥보드, 자동차 등의 탈것 등을 객체로 설정하는 것도 가능할 수 있다.Here, although the object is set as a person, the present invention may not be limited thereto. For example, it may be possible to set vehicles such as a bag held by a person, a bicycle driven by a person, a kickboard, or a car as objects.

아울러, 서버(20)는 관련영상을 저장하면서 위험상황에 대응하는 위치정보를 관련영상과 함께 저장하는 것이 가능하다.In addition, the server 20 can store the location information corresponding to the dangerous situation together with the related images while storing the related images.

위험상황에 대응하는 위치정보는 위험상황이 발생한 위치에 대한 위치정보를 의미할 수 있다.Location information corresponding to a dangerous situation may refer to location information about a location where a dangerous situation occurs.

또는, 위험상황에 대응하는 위치정보는 위험상황이 검출된 감시영상을 촬영한 카메라 모듈(10)(혹은 스마트 폴(SP))의 위치정보를 의미하는 것도 가능할 수 있다.Alternatively, the location information corresponding to the dangerous situation may also mean the location information of the camera module 10 (or smart pole (SP)) that captures the monitoring image in which the dangerous situation is detected.

서버(20)에서 감시영상을 분석하여 위험상황이 발생하는지의 여부를 판단하는 방법에 대해 이하에서 보다 상세히 설명하기로 한다.A method of determining whether a dangerous situation occurs by analyzing a surveillance image in the server 20 will be described in more detail below.

도 7에 나타나 있는 바와 같이, 서버(20)에서는 카메라 모듈(10)로부터 전송받은 감시영상을 분석(S230)하여, 감시영상에서 객체(사람 등)를 검출할 수 있다(S300).As shown in FIG. 7 , the server 20 may analyze the surveillance image transmitted from the camera module 10 (S230) and detect an object (such as a person) from the surveillance image (S300).

이후, 서버(200)는 검출한 객체의 위치를 판별할 수 있다(301).Thereafter, the server 200 may determine the location of the detected object (301).

객체의 위치는 대상영역에서의 객체의 위치, 혹은 배경에서의 객체의 위치를 의미할 수 있다.The position of the object may mean the position of the object in the target area or the position of the object in the background.

이후, 서버(20)는 객체의 위치가 위험영역(DA)에 포함되어 있는지의 여부를 판단(S302)하고, 판단결과 객체가 위험영역(DA)에 위치하는 경우에는 위험상황이 발생한 것으로 판단할 수 있다(S303).Thereafter, the server 20 determines whether the location of the object is included in the danger area DA (S302), and if the object is located in the danger area DA as a result of the determination, it is determined that a dangerous situation has occurred. It can (S303).

예를 들어, 객체가 물에 빠진 상황에서 객체는 위험영역(DA)에 위치할 수 있다. 서버(20)는 이러한 경우를 위험상황으로 판단할 수 있다.For example, in a situation where an object falls into water, the object may be located in the danger area DA. The server 20 may determine this case as a dangerous situation.

반면에, 제 S302 단계에서의 판단결과, 객체의 위치가 위험영역(DA)에 포함되지 않는 경우에는 객체가 위험영역(DA)에 인접한 관심영역(ROI)에 위치하는지의 여부를 판단할 수 있다(S304).On the other hand, as a result of the determination in step S302, if the location of the object is not included in the danger area DA, it can be determined whether the object is located in the region of interest ROI adjacent to the danger area DA. (S304).

제 S304 단계에서의 판단결과, 객체의 위치가 위험영역(DA)에 포함되지 않는 경우에는 객체가 안정영역(SA)에 위치하는 경우에 해당되기 때문에 서버(20)는 위험상황이 발생하지 않은 안전상황이라고 판단할 수 있다(S305).As a result of the determination in step S304, if the location of the object is not included in the danger area (DA), it corresponds to the case where the object is located in the safe area (SA). It can be determined that it is a situation (S305).

반면에, 제 S304 단계에서의 판단결과, 객체의 위치가 위험영역(DA)에 포함되는 경우에는 객체가 관심영역(ROI)에서 위험영역(DA)으로 이동하는지의 여부를 판단할 수 있다(S306).On the other hand, as a result of the determination in step S304, if the location of the object is included in the danger area DA, it can be determined whether the object moves from the ROI to the danger area DA (S306). ).

제 S306 단계에서의 판단결과, 객체가 관심영역(ROI)에서 위험영역(DA)으로 이동하는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).As a result of the determination in step S306, if the object moves from the region of interest (ROI) to the danger region (DA), the server 20 may determine that a dangerous situation has occurred (S303).

예를 들어, 객체가 고수부지에서 강쪽으로 이동하여 강물 들어가는 경우는 객체가 관심영역(ROI)에서 위험영역(DA)으로 이동하는 경우에 해당될 수 있다. 서버(20)는 이러한 경우를 위험상황으로 판단할 수 있다.For example, the case where the object moves toward the river from the high water site and enters the river may correspond to the case where the object moves from the region of interest (ROI) to the danger region (DA). The server 20 may determine this case as a dangerous situation.

반면에, 제 S306 단계에서의 판단결과, 객체가 관심영역(ROI)에서 위험영역(DA)으로 이동하지 않는 경우에는 객체가 관심영역(ROI)에서 안전영역(SA)으로 이동하는지의 여부를 판단할 수 있다(S307).On the other hand, as a result of the determination in step S306, if the object does not move from the region of interest (ROI) to the danger region (DA), it is determined whether the object moves from the region of interest (ROI) to the safe region (SA). It can (S307).

제 S307 단계에서의 판단결과, 객체가 관심영역(ROI)에서 안전영역(SA)으로 이동하는 경우에는 서버(20)는 위험상황이 발생하지 않은 안전상황이라고 판단할 수 있다(S305).As a result of the determination in step S307, when the object moves from the region of interest (ROI) to the safe region (SA), the server 20 may determine that the dangerous situation is not a safe situation (S305).

반면에, 제 S307 단계에서의 판단결과, 객체가 관심영역(ROI)에서 안전영역(SA)으로 이동하지 않는 경우에는 서버(20)는 관심영역(ROI)에서 객체가 감지되는지의 여부를 판단할 수 있다(S308).On the other hand, as a result of the determination in step S307, if the object does not move from the region of interest (ROI) to the safe region (SA), the server 20 determines whether the object is detected in the region of interest (ROI). It can (S308).

제 S308 단계에서의 판단결과, 객체가 관심영역(ROI)에서 감지되는 경우에는 제 S302 단계로 진행할 수 있다.As a result of the determination in step S308, when an object is detected in the region of interest (ROI), step S302 may be performed.

반면에, 제 S308 단계에서의 판단결과, 객체가 관심영역(ROI)에서 감지되지 않는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).On the other hand, as a result of the determination in step S308, if the object is not detected in the region of interest (ROI), the server 20 may determine that a dangerous situation has occurred (S303).

이러한 경우는, 객체가 관심영역(ROI)에 위치하는 상황에서 안전영역(SA)으로 이동하지 않으면서도 갑자기 사라지는 경우에 해당될 수 있다.This case may correspond to a case where the object suddenly disappears without moving to the safe area SA in a situation where the object is located in the ROI.

이러한 경우에는, 객체가 물에 빠지는 등의 위험상황이 발생했을 가능성이 높다. 또는, 객체가 테트라포드가 설치된 지역에 위치하다가 테트라포드의 사이로 빠지는 사고가 발생했을 가능성이 높다.In this case, there is a high possibility that a dangerous situation such as an object falling into water has occurred. Alternatively, it is highly likely that an accident occurred in which the object fell between the tetrapods while being located in the area where the tetrapods were installed.

서버(20)는 객체가 사라지는 것을 판단하기 위해 감시영상을 프레임(Frame) 별로 각각 분석하여 객체를 검출할 수 있다.The server 20 may detect the object by analyzing the surveillance image for each frame in order to determine that the object disappears.

감시영상에서 객체가 관심영역(ROI)에 위치한 상태에서 객체가 안전영역(SA)으로 이동하지 않으면서 객체가 사라지거나 혹은 개체가 관심영역(ROI)에서 위험영역(DA)으로 이동하는 과정에서 사라지는 경우에 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다.In the monitoring image, when the object is located in the region of interest (ROI), the object disappears without moving to the safe region (SA) or disappears while the object moves from the region of interest (ROI) to the danger region (DA). In this case, the server 20 may determine that a dangerous situation has occurred.

한편, 객체가 단순히 위험영역에 위치하는 것만으로는 위험상황이 발생한 것으로 판단하지 않는 것이 가능하다.Meanwhile, it is possible not to determine that a dangerous situation has occurred simply because the object is simply located in the dangerous area.

도 8에 나타나 있는 바와 같이, 서버(20)는 객체가 위험영역(DA)에 위치하는 경우에는 객체가 위험영역(DA)에 위치하는 시간이 미리 설정된 기준시간을 초과하는지의 여부를 판단할 수 있다(S310).As shown in FIG. 8, when the object is located in the danger zone DA, the server 20 may determine whether the time the object is located in the danger zone DA exceeds a preset reference time. Yes (S310).

제 S310 단계에서 판단결과, 객체가 기준시간보다 더 오래 위험영역(DA)에 위치하는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).As a result of the determination in step S310, if the object is located in the danger area DA longer than the reference time, the server 20 may determine that a danger situation has occurred (S303).

예를 들어, 객체가 1시간 이상 계속 강물에 빠진 상태를 유지하는 경우 객체에 이상이 발생할 가능성이 높을 수 있다.For example, if the object remains submerged in the river for more than one hour, there is a high possibility that an abnormality will occur in the object.

반면에, 제 S310 단계에서 판단결과, 객체가 위험영역(DA)에 위치하는 시간이 기준시간보다 더 짧은 경우에는 서버(20)는 객체가 다른 영역, 예컨대 관심영역(ROI)으로 이동하는지의 여부를 판단할 수 있다(S311).On the other hand, as a result of the determination in step S310, if the time the object is located in the danger area DA is shorter than the reference time, the server 20 determines whether the object moves to another area, for example, the area of interest (ROI). It is possible to determine (S311).

제 S311 단계에서 판단결과, 객체가 다른 영역으로 이동하는 경우에는 제 S304 단계로 진행할 수 있다.As a result of determination in step S311, when the object moves to another area, step S304 may be performed.

반면에, 제 S311 단계에서 판단결과, 객체가 다른 영역으로 이동하지 않는 경우에는 감시영상에서 객체가 감지되는지의 여부를 판단할 수 있다(S312).On the other hand, as a result of the determination in step S311, if the object does not move to another area, it may be determined whether the object is detected in the surveillance image (S312).

제 S312 단계에서의 판단결과, 객체가 감지되는 경우에는 제 S310 단계로 진행할 수 있다.As a result of the determination in step S312, when an object is detected, step S310 may be performed.

반면에, 제 S312 단계에서의 판단결과, 객체가 감지되지 않는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).On the other hand, as a result of the determination in step S312, if the object is not detected, the server 20 may determine that a dangerous situation has occurred (S303).

이러한 경우는, 객체가 위험영역(DA)에 위치하는 상황에서 관심영역(ROI)으로 이동하지 않으면서도 갑자기 사라지는 경우에 해당될 수 있다.This case may correspond to a case where the object suddenly disappears without moving to the region of interest (ROI) in a situation where the object is located in the danger region (DA).

이러한 경우에는, 객체가 파도 또는 물살에 휩쓸리는 등의 위험상황이 발생했을 가능성이 높다. 또는, 객체가 깊은 물에 완전히 빠져 위험영역(DA)에서 사라지는 경우일 가능성이 높다.In this case, it is highly likely that a dangerous situation such as the object being swept away by waves or currents has occurred. Alternatively, it is highly likely that the object is completely drowned in deep water and disappears from the danger area DA.

한편, 객체의 포즈를 이용하여 위험상황의 발생을 감지하는 것이 가능하다.Meanwhile, it is possible to detect the occurrence of a dangerous situation by using the pose of the object.

도 9에 나타나 있는 바와 같이, 객체가 위험영역(DA)에 위치하거나 혹은 관심영역(ROI)에 위치하는 경우에 서버(20)는 감시영상을 분석하여 객체의 포즈를 판별할 수 있다(S321).As shown in FIG. 9, when the object is located in the danger area DA or the area of interest ROI, the server 20 may analyze the surveillance image to determine the pose of the object (S321). .

이후, 판별한 객체의 포즈가 미리 설정된 이상포즈에 매칭(Matching)되는지의 여부를 판단할 수 있다(S322).Thereafter, it may be determined whether the determined pose of the object matches a preset ideal pose (S322).

제 S322 단계에서 판단결과, 객체의 포즈가 이상포즈에 매칭되지 않는 경우에는 미리 설정된 제 2 기능(Default 2)을 수행할 수 있다(S323).As a result of the determination in step S322, if the pose of the object does not match the ideal pose, a preset second function (Default 2) may be performed (S323).

여기서, 제 2 기능은 객체의 위치를 판별하는 단계(S301)로 진행하거나 현 상태를 안전상황이라고 판단하는 것이 가능할 수 있다.Here, the second function may be capable of proceeding to step S301 of determining the location of the object or determining that the current state is a safe state.

반면에, 제 S322 단계에서 판단결과, 객체의 포즈가 이상포즈에 매칭되는 경우에는 서버(20)는 위험상황이 발생한 것으로 판단할 수 있다(S303).On the other hand, as a result of the determination in step S322, if the pose of the object matches the ideal pose, the server 20 may determine that a dangerous situation has occurred (S303).

예를 들면, 객체가 관심영역(ROI) 또는 위험영역(DA)에 위치하는 상태에서 넘어지는 포즈, 다이빙하는 포즈, 가방 등의 또 다른 객체를 던지를 포즈, 다른 객체(사람)를 위험영역(DA)으로 밀어내는 포즈 등을 취하는 경우에, 서버(20)는 위험상황이 발생한 것으로 판단하는 것이 가능하다.For example, in a state where an object is located in the region of interest (ROI) or the danger region (DA), a pose to fall, a pose to dive, a pose to throw another object such as a bag, another object (person) to the danger zone ( DA), in the case of taking a pushing pose or the like, the server 20 can determine that a dangerous situation has occurred.

이상에서 설명한 바와 같은 방법으로 위험상황을 판단하면서 서버(20)는 다양한 데이터를 축적하고 딥러닝을 수행할 수 있다. 이러한 과정을 거치면서 서버(20)는 보다 빠르고 정확하게 위험상황의 발생을 판단할 수 있다.The server 20 may accumulate various data and perform deep learning while determining a dangerous situation in the manner described above. Through this process, the server 20 can more quickly and accurately determine the occurrence of a dangerous situation.

한편, 서버(20)는 위험상황 발생 시 관련영상 및 위치정보를 저장하면서, 위험상황에 대한 정보를 적어도 하나의 다른 단말기로 전송하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.Meanwhile, the server 20 may transmit information on the dangerous situation to at least one other terminal while storing related images and location information when a dangerous situation occurs. In this regard, referring to the accompanying drawings, it will be described as follows.

도 10에 나타나 있는 바와 같이, 서버(20)는 관련영상 및/또는 위치정보를 저장(S270)한 이후에 적어도 하나의 감독관 단말기(70)로 위험상황의 판정을 요청하는 정보를 전송할 수 있다(S400).As shown in FIG. 10, the server 20 may transmit information requesting determination of a dangerous situation to at least one supervisor terminal 70 after storing related images and/or location information (S270) ( S400).

위험상황의 판정을 위해서 서버(20)는 감독관 단말기(70)로 위험상황에 대응하는 관련정보 및 위치정보를 함께 전송할 수 있다.In order to determine the dangerous situation, the server 20 may transmit related information and location information corresponding to the dangerous situation to the supervisor terminal 70 together.

감독관 단말기(70)는 서버(20)로부터의 판정 요청에 대응하여 관련영상 및 위치정보를 분석하여 위험상황에 대한 위험도를 판정할 수 있다(S410).The supervisor terminal 70 may analyze the related image and location information in response to the decision request from the server 20 to determine the degree of risk for the dangerous situation (S410).

이후, 감독관 단말기(70)는 서버(20)로 위험상황의 위험도를 판정한 정보, 즉 판정 정보를 전송할 수 있다(S420).Thereafter, the supervisor terminal 70 may transmit information for determining the risk level of the dangerous situation, that is, determination information to the server 20 (S420).

예를 들어, 카메라 모듈(10)이 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변에서 촬영한 감시영상을 서버(20)에서 분석한 결과, 서버(20)가 해당 감시영상에 객체 B(사람 B)에 대해 위험상황이 발생하는 경우를 가정하여 보자.For example, as a result of analyzing the surveillance image taken by the camera module 10 along the Han River in Ichon-dong between aa and bb on xx month xx in 20xx, the server 20 finds an object in the surveillance image Assume that a dangerous situation occurs for B (person B).

이러한 경우, 객체 B에 대응하여 관련영상을 생성하고, 위험상황에 대응하는 위치 정보를 관련영상과 함께 저장할 수 있다.In this case, a related image may be generated corresponding to object B, and location information corresponding to a dangerous situation may be stored together with the related image.

아울러, 서버(20)는 객체 B에 대응하는 관련영상과 위치정보를 적어도 하나의 감독관 단말기(70)로 전송하고, 위험상황을 판정해달라고 요청할 수 있다.In addition, the server 20 may transmit a related image and location information corresponding to the object B to at least one supervisor terminal 70 and request to determine a dangerous situation.

여기서, 감독관 단말기(70)에서는 서버(20)로부터 수신한 관련영상과 위치정보를 분석하여 위험정도를 판정할 수 있다.Here, the supervisor terminal 70 may analyze the related video and location information received from the server 20 to determine the degree of danger.

감독관 단말기(70)를 사용하는 감독관들은 위험상황을 신속하고 정확하게 판단할 수 있는 전문가 그룹으로부터 구성될 수 있다.Supervisors using the supervisor terminal 70 may be formed from an expert group capable of quickly and accurately determining a dangerous situation.

이처럼, 서버(20)가 인공지능을 이용하여 감시영상을 분석하여 위험상황의 발생을 감지하면서도, 관련영상과 위치정보를 감독관 단말기(70)로 전송하여 감독관으로 하여금 위험상황을 판단하게 하는 경우에는 위험상황을 보다 정밀하고 정확하게 분석할 수 있다. 이에 따라, 위험상황 발생 시 보다 신속하고 정확한 대처가 가능할 수 있다.In this way, when the server 20 detects the occurrence of a dangerous situation by analyzing the surveillance video using artificial intelligence, and transmits the related video and location information to the supervisor terminal 70 so that the supervisor determines the dangerous situation, Risk situations can be analyzed more precisely and accurately. Accordingly, it may be possible to more quickly and accurately cope with a dangerous situation.

한편, 서버(20)가 감독관 단말기(70)로부터 수신한 판정정보를 분석하여, 해당 위험상황의 위험도가 미리 설정된 기준 위험도를 초과하는지의 여부를 판단할 수 있다(S430).Meanwhile, the server 20 may analyze the decision information received from the supervisor terminal 70 to determine whether the risk level of the dangerous situation exceeds a preset standard risk level (S430).

제 S430 단계에서 판단결과, 해당 위험상황의 위험도가 기준 위험도를 초과하지 않는 경우에는 미리 설정된 제 3 기능(Default 3)을 수행할 수 있다(S440).As a result of the determination in step S430, if the risk level of the corresponding dangerous situation does not exceed the standard risk level, a preset third function (Default 3) may be performed (S440).

여기서, 제 3 기능은 해당 위험상황에 대한 위험도가 충분히 낮다는 것을 알리는 정보를 서버(20)로 전송하는 기능, 위험 경보를 해제하는 기능 등을 예로 들 수 있다.Here, the third function may include, for example, a function of transmitting information indicating that the risk level of the corresponding dangerous situation is sufficiently low to the server 20 and a function of canceling a danger alert.

반면에, 제 S430 단계에서 판단결과, 해당 위험상황의 위험도가 기준 위험도를 초과하는 경우에는 서버(20)는 해당 위험상황이 위험이 실제라고 판단하고, 이에 대한 정보를 적어도 하나의 안전요원 단말기(60)로 전송하여 위험 상황을 알릴 수 있다(S450).On the other hand, as a result of the determination in step S430, if the risk level of the dangerous situation exceeds the standard risk level, the server 20 determines that the dangerous situation is dangerous, and transmits information about it to at least one safety personnel terminal ( 60) to notify the dangerous situation (S450).

안전요원 단말기(60)로 전송하는 정보는 위험상황에 대응하는 관련영상 및 위치정보를 포함할 수 있다.Information transmitted to the safety personnel terminal 60 may include a related image and location information corresponding to a dangerous situation.

예를 들면, 서버(20)는 도 11에 나타나 있는 바와 같은 위험상황 알람 메시지를 적어도 하나의 안전요원 단말기(60)로 전송할 수 있다.For example, the server 20 may transmit a dangerous situation alarm message as shown in FIG. 11 to at least one safety officer terminal 60 .

이후, 위험상황 알림 메시지를 수신한 적어도 하나의 안전요원은 관련영상 및 위치정보를 확인하여 해당 위험상황이 발생한 위치로 이동할 수 있다.Thereafter, at least one safety officer who has received the dangerous situation notification message can check the related video and location information and move to the location where the dangerous situation occurs.

이후, 안전요원 단말기(60)에서는 위험상황에 대응하는 적어도 하나의 영상, 즉 대응영상을 촬영하여 서버(20)로 전송할 수 있다.Thereafter, the safety personnel terminal 60 may capture and transmit at least one image corresponding to a dangerous situation, that is, a corresponding image to the server 20 .

그러면, 서버(20)는 안전요원 단말기(60)로부터 대응영상이 입력되는지의 여부를 판단하고, 대응영상이 입력되는 경우에 대응영상을 저장할 수 있다(S480).Then, the server 20 may determine whether or not a corresponding image is input from the safety personnel terminal 60, and store the corresponding image when the corresponding image is input (S480).

이후, 서버(20)는 대응영상을 입력한 적어도 하나의 안전요원 단말기(60)로 소정의 보상을 지급할 수 있다(S490).Thereafter, the server 20 may provide a predetermined reward to at least one safety officer terminal 60 having input the corresponding image (S490).

반면에, 제 S460 단계에서 판단결과 대응영상이 입력되지 않는 경우에는 미리 설정된 제 4 기능(Default 4)을 수행할 수 있다(S470).On the other hand, if the corresponding image is not input as a result of the determination in step S460, a preset fourth function (Default 4) may be performed (S470).

여기서, 제 4 기능은 대응영상을 입력하라는 요청을 적어도 하나의 안전요원 단말기(60)로 전송하는 기능 등을 예로 들 수 있다.Here, the fourth function may include, for example, a function of transmitting a request to input a corresponding image to at least one safety officer terminal 60 .

예를 들어, 카메라 모듈(10)이 20xx년 xx월 xx일 aa시~bb시 사이에 이촌동 한강변에서 촬영한 감시영상을 서버(20)에서 분석한 결과, 서버(20)가 해당 감시영상에 객체 B(사람 B)에 대해 위험상황이 발생하는 경우를 가정하여 보자.For example, as a result of analyzing the surveillance image taken by the camera module 10 along the Han River in Ichon-dong between aa and bb on xx month xx in 20xx, the server 20 finds an object in the surveillance image Assume that a dangerous situation occurs for B (person B).

여기서, 감독관 단말기(70)에서 서버(20)로 객체 B에 대한 위험상황의 위험도가 기준 위험도보다 저 높다고 판정한 판정정보를 전송할 수 있다.Here, the supervisor terminal 70 may transmit to the server 20 determination information determined that the risk level of the dangerous situation for the object B is lower than the reference risk level.

그러면, 서버(20)는 감독관 단말기(70)로부터 수신한 판정정보를 근거로 하여 적어도 하나의 안전요원 단말기(60)로 객체 B에 대해 위험상황이 발생했다는 정보를 전송할 수 있다.Then, the server 20 may transmit information that a dangerous situation has occurred with respect to the object B to at least one safety personnel terminal 60 based on the determination information received from the supervisor terminal 70 .

여기서, 서버(20)는 객체 B가 포함된 감시영상, 즉 관련영상 및 객체 B의 위험상황에 대응되는 위치정보를 적어도 하나의 안전요원 단말기(60)로 전송할 수 있다. 예를 들면, 이촌동 혹은 이촌동에 인접하는 지역에 거주하거나 이촌동에 연관된 적어도 하나의 안전요원의 단말기(60)로 객체 B의 위험상황에 대한 정보를 전송할 수 있다.Here, the server 20 may transmit a monitoring image including the object B, that is, a related image and location information corresponding to a dangerous situation of the object B to at least one lifeguard terminal 60 . For example, information on the dangerous situation of the object B may be transmitted to the terminal 60 of at least one safety officer living in Ichon-dong or an area adjacent to Ichon-dong or associated with Ichon-dong.

이를 위해, 서버(20)는 각각의 안전요원 단말기(60)의 위치정보를 수집하여 저장할 수 있다.To this end, the server 20 may collect and store location information of each safety personnel terminal 60 .

객체 B의 위험상황에 대한 정보를 수신한 적어도 하나의 안전요원은 해당 위험상황에 대응되는 위치, 즉 이촌동으로 이동할 수 있다.Upon receiving the information on the dangerous situation of object B, at least one safety officer may move to a location corresponding to the dangerous situation, that is, Ichon-dong.

이후, 이촌동으로 이동한 적어도 하나의 안전요원은 객체 B의 구조 등의 안전조치를 취할 수 있다.Thereafter, at least one safety officer who has moved to Ichon-dong may take safety measures such as rescue of object B.

이후, 안전조치를 취한 적어도 하나의 안전요원은 안전조치에 대한 영상, 즉 대응영상을 촬영하고, 촬영한 대응영상을 서버(20)로 전송할 수 있다.Thereafter, at least one safety officer who has taken a safety measure may photograph a video of the safety measure, that is, a corresponding video, and transmit the photographed corresponding video to the server 20 .

그러면, 서버(20)는 해당 안전요원 단말기(60)로 금전적 보상, 누적 포인트의 지급 등의 방식으로 보상을 실시할 수 있다.Then, the server 20 may reward the corresponding lifeguard terminal 60 in a manner such as monetary compensation or payment of accumulated points.

이와 같이, 위험상황에 대한 정보를 적어도 하나의 안전요원 단말기(60)로 전송하는 경우에는 안전요원으로 하여금 위험상황에 자발적으로 개입하도록 하는 동기를 부여할 수 있다.In this way, when the information on the dangerous situation is transmitted to at least one safety personnel terminal 60, it is possible to motivate the safety personnel to voluntarily intervene in the dangerous situation.

아울러, 위험상황 발생 시 경찰, 구급대 또는 구조대의 도착 이전에 인근에 위치한 안전요원으로부터 도움을 받을 수 있어서 신속한 응급대응이 가능할 수 있다.In addition, when a dangerous situation occurs, it is possible to receive help from a safety agent located nearby before the police, ambulance or rescue team arrives, so that rapid emergency response can be possible.

한편, 이상에서는 감독관 단말기(70)와 안전요원 단말기(60)를 별도로 설정하는 것으로 설명하였지만, 본 발명은 이에 한정되지 않을 수 있다.Meanwhile, in the above, it has been described that the supervisor terminal 70 and the safety officer terminal 60 are set separately, but the present invention may not be limited thereto.

예를 들면, 서버(20)에 등록된 사용자가 감독관 역할을 수행할지 혹은 안전요원 역할을 수행할지 스스로 선택하는 것이 가능하다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.For example, it is possible for a user registered in the server 20 to select by himself whether to perform a supervisory role or a safety officer role. In this regard, referring to the accompanying drawings, it will be described as follows.

도 12를 살펴보면, 적어도 하나의 사용자 단말기(User Terminal, UT)가 서버(20)에 접속할 수 있다(S500).Referring to FIG. 12 , at least one user terminal (UT) may access the server 20 (S500).

서버(20)에 접속한 사용자 단말기(UT)는 서버(20)로부터 안전관리를 위한 소정의 앱을 다운받아 설치할 수 있다(S510).The user terminal UT connected to the server 20 may download and install a predetermined app for safety management from the server 20 (S510).

아울러, 사용자 단말기(UT)는 서버(20)에 소정의 사용자 정보를 전송하여 사용자 등록을 수행할 수 있다(S520).In addition, the user terminal UT may perform user registration by transmitting predetermined user information to the server 20 (S520).

사용자 등록을 완료한 사용자 단말기(UT)는 서버(20)를 통해 설정모드를 선택할 수 있다(S530).The user terminal UT that has completed user registration may select a setting mode through the server 20 (S530).

예를 들면, 도 13에 나타나 있는 바와 같이, 사용자 단말기(UT)에는 안전요원 모드를 선택할지 혹은 감독관 모드를 설정할지는 선택하기 위한 메뉴가 표시될 수 있다.For example, as shown in FIG. 13 , a menu for selecting whether to select a safety officer mode or a supervisor mode may be displayed on the user terminal UT.

여기서, 사용자가 사용자 단말기(UT)에서 안전요원 모드를 선택하면, 서버(20)는 해당 사용자 단말기(UT)를 안전요원 단말기(60)로 설정할 수 있다.Here, when the user selects the safety officer mode in the user terminal UT, the server 20 may set the corresponding user terminal UT as the safety officer terminal 60 .

반면에, 사용자가 사용자 단말기(UT)에서 감독관 모드를 선택하면, 서버(20)는 해당 사용자 단말기(UT)를 감독관 단말기(70)로 설정할 수 있다.On the other hand, when the user selects the supervisor mode in the user terminal UT, the server 20 may set the corresponding user terminal UT as the supervisor terminal 70 .

이후, 사용자 단말기(UT)에서는 원하는 시간대를 선택할 수 있다(S540).Thereafter, the user terminal UT may select a desired time zone (S540).

예를 들어, 사용자 C가 자신의 단말기를 이용하여 서버(20)에 사용자 등록을 하고, 이후에 안전요원 모드에 대응하여 안전요원으로서 원하는 시간대를 매주 토요일 22시~24시를 설정하고, 아울러, 감독관 모드에 대응하여 감독관으로서 원하는 시간대를 매주 금요일 22시~24시라를 설정하는 것을 가정하여 보자.For example, user C registers as a user in the server 20 using his terminal, and then sets the desired time zone as a safety officer to 22:00 to 24:00 every Saturday in response to the safety officer mode, and in addition, Let's assume that in response to the supervisor mode, as a supervisor, you set the desired time zone every Friday between 22:00 and 24:00.

이러한 경우, 서버(20)는 사용자 C의 단말기를 매주 금요일 22시~24시 동안에는 감독관 단말기(70)로 설정하고, 매주 토요일 22시~24시 동안에는 안전요원 단말기(60)로 설정하는 것이 가능하다.In this case, the server 20 can set the terminal of user C as the supervisor's terminal 70 every Friday from 22:00 to 24:00 and set it as a safety officer's terminal 60 from 22:00 to 24:00 every Saturday. .

이에 따라, 사용자 C는 자신의 단말기를 이용하여 매주 금요일 22시~24시 동안에는 감독관으로서 활동하고, 매주 토요일 22시~24시 동안에는 안전요원으로서 활동할 수 있다.Accordingly, the user C can use his terminal to act as a supervisor every Friday from 22:00 to 24:00, and to act as a safety agent from 22:00 to 24:00 every Saturday.

이처럼, 서버(20)에 등록된 사용자가 스스로 안전요원 또는 감독관 역할을 선택하도록 하는 경우에는 사용자의 자발적 참여를 촉진하는 것이 가능하다.In this way, when the user registered in the server 20 is allowed to select the role of a safety officer or supervisor, it is possible to promote voluntary participation of the user.

한편, 카메라 모듈(10)을 포함하는 스마트 폴(SP)은 위험상황에 대응하는 위치, 즉 위험상황이 발생한 위치를 포인팅(Pointing)하기 위한 포인팅 수단을 포함할 수 있다. 이에 대해 첨부된 도면을 참조하여 살펴보면 아래와 같다.On the other hand, the smart pole (SP) including the camera module 10 may include a pointing means for pointing to a location corresponding to a dangerous situation, that is, a location where a dangerous situation occurs. In this regard, referring to the accompanying drawings, it will be described as follows.

도 14를 살펴보면, 서버(20)가 관련영상 및 위치정보를 저장(S270)한 이후에 포인팅 제어신호를 스마트 폴(SP)로 전송할 수 있다(S600).Referring to FIG. 14 , after the server 20 stores related images and location information (S270), a pointing control signal may be transmitted to the smart pole (SP) (S600).

여기서, 포인팅 제어신호는 위험상황에 대응되는 위치를 포인팅하기 위한 제어신호일 수 있다.Here, the pointing control signal may be a control signal for pointing to a location corresponding to a dangerous situation.

그러면, 포인팅 제어신호를 수신한 스마트 폴(SP)은 포인팅부(Pointing Part)를 활성화시킬 수 있다(S610).Then, the smart pole (SP) receiving the pointing control signal can activate the pointing part (S610).

이후, 스마트 폴(SP)에서는 활성화된 포인팅부를 이용하여 위험상황에 대응되는 위치를 포인팅할 수 있다(S620).Thereafter, the smart pole (SP) can point to a location corresponding to a dangerous situation using an activated pointing unit (S620).

아울러, 서버(20)는 알림 제어신호를 스마트 폴(SP)로 전송할 수 있다(S630).In addition, the server 20 may transmit a notification control signal to the smart pole (SP) (S630).

알림 제어신호는 위험상황에 대응하는 감시영상을 촬영한 카메라 모듈(10)을 포함하는 스마트 폴(SP)을 알리기 위한 제어신호일 수 있다.The notification control signal may be a control signal for notifying the smart pole (SP) including the camera module 10 that has taken a monitoring image corresponding to a dangerous situation.

그러면, 알림 제어신호를 수신한 스마트 폴(SP)은 알림부(Warning Part)를 활성화시키고, 활성화된 알림부는 알림을 출력할 수 있다(S640).Then, the smart pole (SP) receiving the notification control signal activates a warning part, and the activated notification unit may output a notification (S640).

이를 위해, 도 15에 나타나 있는 바와 같이, 스마트 폴(SP)은 기둥부(50)에 배치되는 카메라 모듈(10), 알림부(80) 및 포인팅부(81)를 포함할 수 있다.To this end, as shown in FIG. 15 , the smart pole (SP) may include a camera module 10, a notification unit 80, and a pointing unit 81 disposed on the pillar portion 50.

알림부(80)는 소정의 광을 발산하기 위한 경광등(Warning Light)을 포함할 수 있다.The notification unit 80 may include a warning light for emitting predetermined light.

서버(20)로부터 스마트 폴(SP)로 알림 제어신호가 전송되면, 스마트 폴(SP)은 알림부(80)를 제어하여 소정의 광을 발산하도록 할 수 있다.When a notification control signal is transmitted from the server 20 to the smart pole SP, the smart pole SP can control the notification unit 80 to emit a predetermined light.

그러면, 안전요원 등 위험상황을 처리하고자 하는 사람들에게 위험상황이 발생한 위치를 보다 용이하고 신속하게 알릴 수 있다.Then, it is possible to more easily and promptly notify the location of the dangerous situation to people who want to handle the dangerous situation, such as safety personnel.

포인팅부(81)는 레이저 등의 광을 이용하여 포인팅을 할 수 있는 레이저 포인터 등의 포인팅 수단을 포함할 수 있다.The pointing unit 81 may include a pointing means such as a laser pointer capable of pointing using light such as a laser.

서버(20)로부터 스마트 폴(SP)로 포인팅 제어신호가 전송되면, 스마트 폴(SP)은 포인팅부(81)를 제어하여 포인팅부(81)가 위험상황에 대응되는 위치(OP)를 소정의 광으로 포인팅하도록 할 수 있다.When a pointing control signal is transmitted from the server 20 to the smart pole SP, the smart pole SP controls the pointing unit 81 so that the pointing unit 81 moves the position OP corresponding to the dangerous situation to a predetermined level. It can be made to point with light.

이를 위해, 포인팅 제어신호는 위험상황에 대응되는 위치에 대한 정보를 포함할 수 있다.To this end, the pointing control signal may include information about a location corresponding to a dangerous situation.

다른 관점에서 보면, 서버(20)는 포인팅부(81)를 포함하는 스마트 폴(SP)로 위험상황에 대응하는 위치정보, 즉 위험상황이 발생한 장소에 대한 위치정보를 전송하는 것이 가능하다.From another point of view, the server 20 can transmit location information corresponding to a dangerous situation, that is, location information about a place where a dangerous situation occurs, to a smart pole (SP) including a pointing unit 81 .

여기서, 서버(20)는 감시영상을 분석하여 감시영상 내에서 위험상황이 발생한 장소의 위치를 판별하고, 판별한 위치정보를 포인팅부(81)로 전송하는 것으로 볼 수 있다.Here, the server 20 can be seen as analyzing the surveillance image to determine the location of a place where a dangerous situation occurs in the surveillance image, and transmitting the determined location information to the pointing unit 81 .

한편, 스마트 폴(SP)의 카메라 모듈(10)은 복수의 카메라부(Camera Part)를 포함하고, 복수의 카메라부를 이용하여 넓은 영역의 영상(설정영상, 감시영상 등)을 획득하는 것이 가능하다.On the other hand, the camera module 10 of the smart pole (SP) includes a plurality of camera parts, and it is possible to acquire a wide area image (setting image, surveillance image, etc.) using a plurality of camera parts .

도 16 내지 도 17을 살펴보면, 기둥부(50)는 수직방향(Vertical Direction, DRV)으로 길게 연장되는 형태를 갖는 수직부(51) 및 수직부(51)로부터 수평방향(Horizontal Direction, DRH)으로 연장되는 수평부(52)를 포함할 수 있다.16 and 17, the pillar portion 50 has a vertical portion 51 having a form extending long in the vertical direction (DRV) and from the vertical portion 51 to the horizontal direction (Horizontal Direction, DRH). It may include an extending horizontal portion 52 .

아울러, 수평부(52)의 하부에 카메라 모듈(10)이 설치될 수 있다.In addition, the camera module 10 may be installed below the horizontal portion 52 .

여기서는, 알림부(80) 및 포인팅부(81)의 도시는 생략하기로 한다.Here, illustration of the notification unit 80 and the pointing unit 81 will be omitted.

카메라 모듈(10)은 제 1 대상영역의 영상을 촬영하기 위한 제 1 카메라부(First Camera Part, 11) 및 제 2 대상영역의 영상을 촬영하기 위한 제 2 카메라부(Second Camera Part, 12)를 포함할 수 있다.The camera module 10 includes a first camera part (11) for capturing an image of a first target region and a second camera part (12) for capturing an image of a second target region. can include

아울러, 포인팅부(81)는 제 1 카메라부(11)에 대응하는 제 1 포인팅부(81a) 및 제 2 카메라부(12)에 대응하는 제 2 포인팅부(81b)를 포함할 수 있다.In addition, the pointing unit 81 may include a first pointing unit 81a corresponding to the first camera unit 11 and a second pointing unit 81b corresponding to the second camera unit 12 .

카메라 모듈(10)은 수평부(52)의 하부의 하면에 배치되고, 제 1 포인팅부(81a)는 수평부(52)의 제 1 카메라부(11)에 대응되는 측면에 배치될 수 있다. 예를 들면, 제 1 포인팅부(81a)는 수평부(52)의 제 1 측면에 배치될 수 있다.The camera module 10 may be disposed on a lower surface of the lower portion of the horizontal portion 52 , and the first pointing unit 81a may be disposed on a side surface of the horizontal portion 52 corresponding to the first camera unit 11 . For example, the first pointing portion 81a may be disposed on a first side surface of the horizontal portion 52 .

아울러, 제 2 포인팅부(81b)는 제 2 카메라부(12)에 대응되는 수평부(52)의 측면에 배치될 수 있다. 예를 들면, 제 2 포인팅부(81b)는 수평부(52)의 제 2 측면에 배치될 수 있다.In addition, the second pointing unit 81b may be disposed on the side of the horizontal unit 52 corresponding to the second camera unit 12 . For example, the second pointing portion 81b may be disposed on the second side surface of the horizontal portion 52 .

이러한 경우, 제 1 포인팅부(81a)는 제 1 카메라부(11)가 촬영한 감시영상으로부터 감지되는 위험상황에 대응하는 위치를 포인팅할 수 있다.In this case, the first pointing unit 81a may point to a location corresponding to a dangerous situation detected from a monitoring image captured by the first camera unit 11 .

아울러, 제 2 포인팅부(81b)는 제 2 카메라부(12)가 촬영한 감시영상으로부터 감지되는 위험상황에 대응하는 위치를 포인팅할 수 있다.In addition, the second pointing unit 81b may point to a location corresponding to a dangerous situation detected from a monitoring image captured by the second camera unit 12 .

도 18 내지 도 35는 카메라 모듈에 대해 설명하기 위한 도면이다. 이하에서는 이상에서 상세히 설명한 부분에 대한 설명은 생략될 수 있다.18 to 35 are diagrams for explaining a camera module. Hereinafter, description of the parts described in detail above may be omitted.

이하에서 제 1 방향(First Direction, DR1)은 제 2 방향(Second Direction, DR2) 및 제 3 방향(Third Direction, DR3)과 교차(수직)하고, 제 2 방향(DR2)은 제 3 방향(DR3)과 교차(수직)할 수 있다.Hereinafter, the first direction (DR1) intersects (perpendicularly) with the second direction (DR2) and the third direction (DR3), and the second direction (DR2) is the third direction (DR3). ) and can intersect (perpendicularly).

여기서, 제 1 방향(DR1), 제 2 방향(DR2) 및 제 3 방향(DR3)은 카메라 모듈(10)의 설명을 용이하게 위해 임의로 설정한 것으로서, 본 발명이 이에 한정되는 것은 아닐 수 있다.Here, the first direction DR1, the second direction DR2, and the third direction DR3 are arbitrarily set for easy description of the camera module 10, and the present invention may not be limited thereto.

도 18을 살펴보면, 본 발명에 따른 카메라 모듈(10)은 케이스부(Case Part, 30), 프레임부(Frame Part, 40) 및 카메라부(Camera Part, 11, 12)를 포함할 수 있다.Referring to FIG. 18 , the camera module 10 according to the present invention may include a case part 30 , a frame part 40 and camera parts 11 and 12 .

케이스부(30)는 카메라 모듈(10)의 외관을 이룰 수 있다.The case portion 30 may form the exterior of the camera module 10 .

프레임부(40)는 케이스부(30)의 내부에 배치될 수 있다.The frame part 40 may be disposed inside the case part 30 .

이러한 프레임부(40)는 카메라부(11, 12) 등의 다른 부품이 배치될 수 있는 지지기반을 마련할 수 있다.The frame unit 40 may provide a support base on which other components such as the camera units 11 and 12 may be placed.

카메라부(11, 12)는 케이스부(30) 내에서 프레임부(40)에 배치되며 주변 영상을 촬영할 수 있다.The camera units 11 and 12 are disposed on the frame unit 40 within the case unit 30 and can capture surrounding images.

이러한 카메라부(11, 12)는 제 1 카메라부(11) 및 제 2 카메라부(12)를 포함할 수 있다.These camera units 11 and 12 may include a first camera unit 11 and a second camera unit 12 .

제 1 카메라부(11)는 제 1 촬영영역, 즉 제 1 대상영역에 대응될 수 있다.The first camera unit 11 may correspond to a first capturing area, that is, a first target area.

제 2 카메라부(12)는 제 2 촬영영역 ,즉 제 2 대상영역에 대응될 수 있다.The second camera unit 12 may correspond to the second capturing area, that is, the second target area.

예를 들어, 카메라부(11, 12)가 스마트 폴(SP)의 기둥부(50)에 배치되는 경우, 제 1 카메라부(11)는 기둥부(50)의 좌측 영역에 대응되고, 제 2 카메라부(12)는 기둥부(50)의 우측 영역에 대응될 수 있다.For example, when the camera units 11 and 12 are disposed on the pillar part 50 of the smart pole SP, the first camera part 11 corresponds to the left area of the pillar part 50, and the second The camera unit 12 may correspond to the right area of the pillar unit 50 .

다른 관점에서 보면, 제 1 카메라부(11)는 기둥부(50)의 좌측 영역을 촬영하고, 제 2 카메라부(12)는 기둥부(50)의 우측 영역을 촬영할 수 있다.From another point of view, the first camera unit 11 may capture a left area of the pillar unit 50 and the second camera unit 12 may capture a right area of the pillar unit 50 .

아울러, 도시하지는 않았지만, 본 발명에 따른 카메라 모듈(10)은 카메라 구동부(Camera Driver, 미도시)를 더 포함할 수 있다.In addition, although not shown, the camera module 10 according to the present invention may further include a camera driver (not shown).

도 19를 살펴보면, 케이스부(30)는 바닥부(Bottom Part, 300), 중간부(Middle Part, 310) 및 덮개부(Cover Part, 320)를 포함할 수 있다.Referring to FIG. 19 , the case part 30 may include a bottom part 300, a middle part 310, and a cover part 320.

바닥부(300)는 수평방향(제 1 방향(DR1) 또는 제 2 방향(DR2)으로 연장되는 부분을 포함하는 플레이트(Plate) 형태를 갖는 것이 가능하다.The bottom portion 300 may have a plate shape including a portion extending in the horizontal direction (first direction DR1 or second direction DR2).

중간부(310)는 바닥부(300)에 배치되며, 수직방향(제 3 방향(DR3))으로 연장되는 부분을 포함할 수 있다.The middle portion 310 may include a portion disposed on the bottom portion 300 and extending in a vertical direction (third direction DR3 ).

중간부(310)는 도시하지는 않았지만 카메라 구동부(미도시) 등의 다른 부품이 배치될 수 있는 공간을 마련할 수 있다.Although not shown, the middle part 310 may provide a space in which other components such as a camera driving unit (not shown) may be disposed.

이러한 중간부(310)는 양측이 개방된 관(Pipe) 형태를 갖는 것이 가능하다.The intermediate portion 310 may have a pipe shape with both sides open.

덮개부(320)는 중간부(310)의 상부에 연결될 수 있다.The cover part 320 may be connected to the upper part of the middle part 310 .

덮개부(320)와 바닥부(300)의 사이에 마련된 공간에 프레임부(40), 카메라부(11, 12) 및 카메라 구동부(미도시)가 배치될 수 있다.The frame unit 40 , the camera units 11 and 12 , and a camera driving unit (not shown) may be disposed in a space provided between the cover unit 320 and the bottom unit 300 .

아울러, 카메라부(11, 12)가 원활하게 촬영하기 위해 덮개부(320)는 광투과성 재질을 포함하며 돔(Dome) 형태를 갖는 것이 가능하다.In addition, in order for the cameras 11 and 12 to take pictures smoothly, the cover 320 may include a light-transmitting material and have a dome shape.

덮개부(320)는 어느 정도 투명할 수 있다.The cover part 320 may be transparent to some extent.

도 20을 살펴보면, 제 1 카메라부(11)는 제 1 렌즈부(First Lens Part, 11b) 및 제 1 렌즈 기판부(First Lens Substrate Part, 11a)를 포함할 수 있다.Referring to FIG. 20 , the first camera unit 11 may include a first lens part 11b and a first lens substrate part 11a.

제 1 렌즈부(11b)는 제 1 렌즈 기판부(11a)에 배치될 수 있다.The first lens unit 11b may be disposed on the first lens substrate unit 11a.

제 1 렌즈 기판부(11a)에는 제 1 커넥터부(First Connector Part, 11c)가 배치될 수 있다.A first connector part 11c may be disposed on the first lens substrate 11a.

제 1 커넥터부(11c)는 제 1 렌즈부(11b)에 의해 촬영된 영상 데이터를 카메라 구동부(Camera Driver, 190)로 전송하기 위한 제 1 케이블부(First Cable Part, 193)와 전기적으로 연결될 수 있다.The first connector part 11c may be electrically connected to a first cable part 193 for transmitting image data photographed by the first lens part 11b to the camera driver 190. there is.

제 2 카메라부(12)는 제 2 렌즈부(Second Lens Part, 12b) 및 제 2 렌즈 기판부(Second Lens Substrate Part, 12a)를 포함할 수 있다.The second camera unit 12 may include a second lens part 12b and a second lens substrate part 12a.

제 2 렌즈부(12b)는 제 2 렌즈 기판부(12a)에 배치될 수 있다.The second lens unit 12b may be disposed on the second lens substrate unit 12a.

제 2 렌즈 기판부(12a)에는 제 2 커넥터부(Second Connector Part, 12c)가 배치될 수 있다.A second connector part 12c may be disposed on the second lens substrate 12a.

제 2 커넥터부(12c)는 제 2 렌즈부(12b)에 의해 촬영된 영상 데이터를 카메라 구동부(190)로 전송하기 위한 제 2 케이블부(Second Cable Part, 194)와 전기적으로 연결될 수 있다.The second connector part 12c may be electrically connected to a second cable part 194 for transmitting image data photographed by the second lens part 12b to the camera driving part 190 .

카메라 구동부(190)는 제 1 렌즈부(11b) 및/또는 제 2 렌즈부(12b)가 촬영한 영상 데이터를 수신할 수 있다.The camera driving unit 190 may receive image data captured by the first lens unit 11b and/or the second lens unit 12b.

이를 위해, 카메라 구동부(190)는 제 3 커넥터부(Third Connector Part, 191) 및 제 4 커넥터부(Fourth Connector Part, 192)를 포함할 수 있다.To this end, the camera driving unit 190 may include a third connector part 191 and a fourth connector part 192 .

제 3 커넥터부(191)은 제 1 케이블부(193)와 전기적으로 연결되고, 제 4 커넥터부(192)은 제 2 케이블부(194)와 전기적으로 연결될 수 있다.The third connector unit 191 may be electrically connected to the first cable unit 193 and the fourth connector unit 192 may be electrically connected to the second cable unit 194 .

카메라 구동부(190)는 제 1 렌즈부(11b) 및/또는 제 2 렌즈부(12b)로부터 수신한 영상 데이터를 처리하여 영상 이미지를 생성할 수 있다.The camera driving unit 190 may generate a video image by processing the video data received from the first lens unit 11b and/or the second lens unit 12b.

카메라 구동부(190)는 생성한 영상 이미지를 서버로 전송하는 것이 가능하다.The camera driving unit 190 may transmit the generated video image to the server.

이를 위해, 도시하지는 않았지만, 카메라 구동부(190)는 제 1 통신부를 포함할 수 있다.To this end, although not shown, the camera driving unit 190 may include a first communication unit.

도 21 내지 도 22를 살펴보면, 프레임부(40)는 베이스부(Base Part, 400), 제 1 지지부(First Supporting Part, 410) 및 제 2 지지부(Second Supporting Part, 420)를 포함할 수 있다.Referring to FIGS. 21 and 22 , the frame part 40 may include a base part 400 , a first supporting part 410 and a second supporting part 420 .

베이스부(400)는 제 1 지지부(410) 및 제 2 지지부(420)을 위한 지지기반을 마련할 수 있다.The base part 400 may provide a support base for the first support part 410 and the second support part 420 .

제 1 지지부(410)는 제 1 렌즈 기판부(11a)에 대응되며 베이스부(400)에 배치될 수 있다.The first support part 410 corresponds to the first lens substrate part 11a and may be disposed on the base part 400 .

제 2 지지부(420)는 제 2 렌즈 기판부(12a)에 대응되며 베이스부(400)에 배치될 수 있다.The second support part 420 corresponds to the second lens substrate part 12a and may be disposed on the base part 400 .

도 22에 나타나 있는 바와 같이, 베이스부(400)는 제 1 경사면부(First Slope Part, 404) 및 제 2 경사면부(Second Slope Part, 405)를 포함할 수 있다.As shown in FIG. 22 , the base part 400 may include a first slope part 404 and a second slope part 405 .

제 1 경사면부(404)는 제 1 지지부(410)에 대응될 수 있다. 즉, 제 1 지지부(410)는 제 1 경사면부(404)에 배치될 수 있다.The first inclined surface portion 404 may correspond to the first support portion 410 . That is, the first support part 410 may be disposed on the first inclined surface part 404 .

제 2 경사면부(405)는 제 2 지지부(420)에 대응될 수 있다. 즉, 제 2 지지부(420)는 제 2 경사면부(405)에 배치될 수 있다.The second inclined surface portion 405 may correspond to the second support portion 420 . That is, the second support part 420 may be disposed on the second inclined surface part 405 .

베이스부(400)에 대해 보다 상세히 살펴보면 아래와 같다.Looking at the base part 400 in more detail as follows.

베이스부(400)는 수평부분(Horizontal Part, 401), 제 1 수직부분(First Vertical Part, 402), 제 2 수직부분(Second Vertical Part, 403), 제 1 경사면부(404) 및 제 2 경사면부(405)를 포함할 수 있다.The base part 400 includes a horizontal part (401), a first vertical part (402), a second vertical part (403), a first inclined surface part (404) and a second inclined surface. may include section 405 .

수평부분(401)은 수평방향(제 1 방향(DR1) 또는 제 2 방향(DR2))으로 연장되는 부분을 포함할 수 있다.The horizontal portion 401 may include a portion extending in a horizontal direction (first direction DR1 or second direction DR2).

수평부분(401)은 도시하지는 않았지만 케이스부(30)에 연결될 수 있다. 예를 들면, 수평부분(401)은 바닥부(300) 및/또는 중간부(310)에 연결될 수 있다.Although not shown, the horizontal part 401 may be connected to the case part 30 . For example, the horizontal portion 401 may be connected to the bottom portion 300 and/or the middle portion 310 .

제 1 수직부분(402)은 수평부분(401)의 일측 끝단에서 제 3 방향(DR3)으로 연장될 수 있다.The first vertical portion 402 may extend in the third direction DR3 from one end of the horizontal portion 401 .

제 2 수직부분(403)은 수평부분(401)의 타측 끝단에서 제 3 방향(DR3)으로 연장될 수 있다.The second vertical portion 403 may extend in the third direction DR3 from the other end of the horizontal portion 401 .

제 1 경사면부(404)는 제 1 수직부분(402)의 끝단에서 사선방향으로 연장될 수 있다.The first inclined surface portion 404 may extend in an oblique direction from an end of the first vertical portion 402 .

제 2 경사면부(405)는 제 2 수직부분(403)의 끝단에서 사선방향으로 연장될 수 있다.The second inclined surface portion 405 may extend in an oblique direction from an end of the second vertical portion 403 .

제 1 경사면부(404)와 제 2 경사면부(405)의 끝단은 서로 연결될 수 있다.Ends of the first inclined surface portion 404 and the second inclined surface portion 405 may be connected to each other.

제 1 경사면부(404)에는 제 1 지지부(410)가 배치될 수 있다.A first support part 410 may be disposed on the first inclined surface part 404 .

제 2 경사면부(405)에는 제 2 지지부(420)가 배치될 수 있다.A second support part 420 may be disposed on the second inclined surface part 405 .

이러한 구성의 프레임부(40)는 케이스부(30)의 바닥부(300) 및 중간부(310) 중 적어도 하나에 연결될 수 있다.The frame part 40 having this configuration may be connected to at least one of the bottom part 300 and the middle part 310 of the case part 30 .

예를 들면, 프레임부(40)의 베이스부(400)의 수평부분(401)은 케이스부(30)의 바닥부(300) 및 중간부(310) 중 적어도 하나에 연결될 수 있다.For example, the horizontal portion 401 of the base portion 400 of the frame portion 40 may be connected to at least one of the bottom portion 300 and the middle portion 310 of the case portion 30 .

도 23을 살펴보면, 프레임부(40)의 베이스부(400)는 개구부(Opening, OP)를 포함할 수 있다.Referring to FIG. 23 , the base portion 400 of the frame portion 40 may include an opening (OP).

개구부(OP)는 베이스부(400)의 제 1 경사면부(404)와 제 2 경사면부(405)의 사이에 위치할 수 있다.The opening OP may be positioned between the first inclined surface portion 404 and the second inclined surface portion 405 of the base portion 400 .

이러한 개구부(OP)는 제 1 케이블부(193) 및/또는 제 2 케이블부(194)가 지나는 통로가 될 수 있다.The opening OP may be a passage through which the first cable unit 193 and/or the second cable unit 194 pass.

도 24를 살펴보면, 프레임부(40)의 베이스부(400)는 제 1 베이스부(400a)와 제 2 베이스부(400b)로 분할될 수 있다.Referring to FIG. 24 , the base portion 400 of the frame portion 40 may be divided into a first base portion 400a and a second base portion 400b.

제 1 베이스부(400a)와 제 2 베이스부(400b)는 형태가 동일하거나 충분히 유사할 수 있다.The shape of the first base part 400a and the second base part 400b may be the same or sufficiently similar.

제 1 베이스부(400a)는 제 1 수평부분(401a), 제 1-1 수직부분(402a), 제 2-1 수직부분(403a), 제 1-1 경사면부(404a) 및 제 2-1 경사면부(405a)를 포함할 수 있다.The first base part 400a includes a first horizontal part 401a, a 1-1 vertical part 402a, a 2-1 vertical part 403a, a 1-1 inclined surface part 404a, and a 2-1 An inclined surface portion 405a may be included.

제 2 베이스부(400b)는 제 2 수평부분(401b), 제 1-2 수직부분(402b), 제 2-2 수직부분(403b), 제 1-2 경사면부(404b) 및 제 2-2 경사면부(405b)를 포함할 수 있다.The second base portion 400b includes a second horizontal portion 401b, a 1-2nd vertical portion 402b, a 2-2nd vertical portion 403b, a 1-2nd inclined surface portion 404b, and a 2-2nd vertical portion 403b. An inclined surface portion 405b may be included.

도 24와 도 22를 비교하면, 각 부분의 사이즈는 다를 수 있으나, 단면의 형태는 동일하거나 충분히 유사할 수 있다.Comparing FIG. 24 with FIG. 22, the size of each part may be different, but the shape of the cross section may be the same or sufficiently similar.

도 25를 살펴보면, 제 1 베이스부(400a)의 제 1-1 경사면부(404a)와 제 2 베이스부(400b)의 제 2-1 경사면부(404b)에 제 1 지지부(410)가 배치될 수 있다.Referring to FIG. 25, the first support part 410 is disposed on the 1-1 inclined surface part 404a of the first base part 400a and the 2-1 inclined surface part 404b of the second base part 400b. can

아울러, 제 1 베이스부(400a)의 제 1-2 경사면부(405a)와 제 2 베이스부(400b)의 제 2-2 경사면부(405b)에 제 2 지지부(420)가 배치될 수 있다.In addition, the second support part 420 may be disposed on the 1-2 inclined surface part 405a of the first base part 400a and the 2-2 inclined surface part 405b of the second base part 400b.

이러한 경우에는, 도 26에 나타나 있는 바와 같이, 분할된 제 1 베이스부(400a)와 제 2 베이스부(400b)의 사이에 개구부(OP)가 마련되고, 개구부(OP)를 통해 제 1 케이블부(193) 및/또는 제 2 케이블부(194)가 지날 수 있다.In this case, as shown in FIG. 26, an opening OP is provided between the divided first base part 400a and the second base part 400b, and the first cable part is opened through the opening OP. 193 and/or the second cable section 194 may pass through.

도 26을 살펴보면, 제 1 경사면부(404)(제 1-1 경사면부(404a) 및/또는 제 1-2 경사면부(404b))의 폭(W2)은 제 1 지지부(410)의 폭(W1)보다 더 클 수 있다.Referring to FIG. 26, the width W2 of the first inclined surface portion 404 (the 1-1 inclined surface portion 404a and/or the 1-2 inclined surface portion 404b) is the width of the first support portion 410 ( W1) may be greater.

아울러, 제 2 경사면부(405)(제 2-1 경사면부(405a) 및/또는 제 2-2 경사면부(405b))의 폭은 제 2 지지부(420)의 폭보다 더 클 수 있다.In addition, the width of the second inclined surface portion 405 (the 2-1 inclined surface portion 405a and/or the 2-2 inclined surface portion 405b) may be greater than that of the second support portion 420 .

이러한 경우, 제 1 케이블부(193) 및/또는 제 2 케이블부(194)가 개구부(OP)를 보다 용이하게 통과할 수 있다.In this case, the first cable unit 193 and/or the second cable unit 194 may more easily pass through the opening OP.

아울러, 제 1 케이블부(193) 및/또는 제 2 케이블부(194)의 연결 작업을 위한 공간을 충분히 확보할 수 있어서 작업이 용이할 수 있다.In addition, a sufficient space for connecting the first cable unit 193 and/or the second cable unit 194 can be secured, so that the operation can be facilitated.

도 27을 살펴보면, 제 1 경사면부(404)(제 1-1 경사면부(404a) 및/또는 제 1-2 경사면부(404b)) 상에서 제 1 지지부(410)는 제 2 지지부(420)와 충분히 멀리 떨어지도록 배치될 수 있다.Referring to FIG. 27, the first support part 410 on the first inclined surface part 404 (the 1-1 inclined surface part 404a and/or the 1-2 inclined surface part 404b) is connected to the second support part 420. They can be placed far enough apart.

자세하게는, 제 1 지지부(410)는 제 1 경사면부(404)(제 1-1 경사면부(404a) 및/또는 제 1-2 경사면부(404b))와 제 1 수직부분(402)(제 1-1 수직부분(402a) 및/또는 제 1-2 수직부분(402b))의 연결 부분에 인접하게 위치할 수 있다.In detail, the first support portion 410 includes the first inclined surface portion 404 (the 1-1 inclined surface portion 404a and/or the 1-2-th inclined surface portion 404b) and the first vertical portion 402 (the 1st inclined surface portion 404a). It may be located adjacent to the connecting portion of the 1-1 vertical portion 402a and/or the 1-2 vertical portion 402b.

이에 따라, 제 1 경사면부(404)(제 1-1 경사면부(404a) 및/또는 제 1-2 경사면부(404b)) 상에서, 제 1 지지부(410)와 제 1 수직부분(402)(제 1-1 수직부분(402a) 및/또는 제 1-2 수직부분(402b)) 사이의 간격(W3)은 제 1 지지부(410)와 제 2 경사면부(405)(제 2-1 경사면부(405a) 및/또는 제 2-2 경사면부(405b)) 사이의 간격(W4)보다 더 작을 수 있다.Accordingly, on the first inclined surface portion 404 (the 1-1 inclined surface portion 404a and/or the 1-2-th inclined surface portion 404b), the first support portion 410 and the first vertical portion 402 ( The distance W3 between the 1-1 vertical portion 402a and/or the 1-2 vertical portion 402 b is between the first support portion 410 and the second inclined surface portion 405 (the 2-1 inclined surface portion). (405a) and/or the 2-2 inclined surface portion (405b) may be smaller than the interval (W4).

여기서, W3은 실질적으로 0이 되는 경우도 가능할 수 있다.Here, W3 may be substantially zero.

이러한 구성은 제 2 지지부(420)에도 동일하거나 충분히 유사하게 적용될 수 있다.This configuration may be applied to the second support part 420 in the same or sufficiently similar manner.

이러한 경우, 제 1 지지부(410)와 제 2 지지부(420) 사이에 충분한 공간을 확보할 수 있다.In this case, a sufficient space may be secured between the first support part 410 and the second support part 420 .

도 28을 살펴보면, 제 1 지지부(410)에는 제 1 렌즈부(11b)는 제 1 렌즈 기판부(11a)를 포함하는 제 1 카메라부(11)가 배치될 수 있다.Referring to FIG. 28 , the first camera unit 11 including the first lens unit 11b and the first lens substrate unit 11a may be disposed on the first support unit 410 .

아울러, 제 2 지지부(420)에는 제 2 렌즈부(12b)는 제 2 렌즈 기판부(12a)를 포함하는 제 2 카메라부(12)가 배치될 수 있다.In addition, the second camera unit 12 including the second lens unit 12b and the second lens substrate unit 12a may be disposed on the second support unit 420 .

이처럼, 제 1, 2 지지부(410, 420)에 제 1, 2 카메라부(11, 12)를 설치하는 경우에는 제 1, 2 카메라부(11, 12)를 보다 용이하게 설치할 수 있다.In this way, when the first and second camera units 11 and 12 are installed on the first and second support units 410 and 420, the first and second camera units 11 and 12 can be more easily installed.

도 29를 살펴보면, 제 1 지지부(410)는 측면의 일부가 함몰되어 형성된 제 1 함몰부(HW1)를 포함할 수 있다.Referring to FIG. 29 , the first support part 410 may include a first recessed part HW1 formed by recessing a part of the side surface.

제 1 지지부(410)에서 제 1 함몰부(HW1)는 제 2 지지부(420)에 인접한 측면에 형성될 수 있다.In the first support part 410 , the first recessed part HW1 may be formed on a side surface adjacent to the second support part 420 .

아울러, 제 2 지지부(420)는 측면의 일부가 함몰되어 형성된 제 2 함몰부(HW2)를 포함할 수 있다.In addition, the second support part 420 may include a second recessed part HW2 formed by recessing a part of the side surface.

제 2 지지부(420)에서 제 2 함몰부(HW2)는 제 1 지지부(410)에 인접한 측면에 형성될 수 있다.In the second support part 420 , the second recessed part HW2 may be formed on a side surface adjacent to the first support part 410 .

이에 따라, 제 1 함몰부(HW1)와 제 2 함몰부(HW2)는 서로 마주보는 것이 가능하다.Accordingly, it is possible for the first recessed part HW1 and the second recessed part HW2 to face each other.

도 30을 살펴보면, 제 1 지지부(410)는 전면(Front Surface, FS)의 일부가 함몰되어 형성된 제 1 안착부(DeP1)를 포함할 수 있다.Referring to FIG. 30 , the first support part 410 may include a first seating part DeP1 formed by recessing a part of the front surface (FS).

이러한 제 1 안착부(DeP1)는 제 1 함몰부(HW1)와 연결될 수 있다.The first seating portion DeP1 may be connected to the first recessed portion HW1.

제 2 지지부(420)는 전면(FS)의 일부가 함몰되어 형성된 제 2 안착부(DeP2)를 포함할 수 있다.The second support part 420 may include a second seating part DeP2 formed by recessing a part of the front surface FS.

이러한 제 2 안착부(DeP2)는 제 2 함몰부(HW2)와 연결될 수 있다.The second seating part DeP2 may be connected to the second recessed part HW2.

도 31을 살펴보면, 제 1 카메라부(11)는 제 1 지지부(410)의 제 1 안착부(DeP1)에 배치될 수 있다.Referring to FIG. 31 , the first camera unit 11 may be disposed on the first seating part DeP1 of the first support part 410 .

예를 들면, 제 1 카메라부(11)의 제 1 렌즈 기판부(11a)는 제 1 지지부(410)의 제 1 안착부(DeP1)에 배치되고, 스크류 등의 소정의 체결수단(미도시)에 의해 고정되는 것이 가능하다.For example, the first lens substrate 11a of the first camera unit 11 is disposed on the first seating part DeP1 of the first support part 410, and a predetermined fastening means such as a screw (not shown) It is possible to be fixed by

제 2 카메라부(12)는 제 2 지지부(420)의 제 2 안착부(DeP2)에 배치될 수 있다.The second camera unit 12 may be disposed on the second seating part DeP2 of the second support part 420 .

예를 들면, 제 2 카메라부(12)의 제 2 렌즈 기판부(12a)는 제 2 지지부(420)의 제 2 안착부(DeP2)에 배치되고, 스크류 등의 소정의 체결수단(미도시)에 의해 고정되는 것이 가능하다.For example, the second lens substrate 12a of the second camera unit 12 is disposed on the second seating part DeP2 of the second support part 420, and a predetermined fastening means such as a screw (not shown) It is possible to be fixed by

도 32를 살펴보면, 제 1 지지부(410)의 제 1 안착부(DeP1)에 제 1 카메라부(11)가 배치된 상태에서, 제 1 렌즈부(11b)는 제 1 지지부(410)보다 W5만큼 더 돌출될 수 있다.Referring to FIG. 32 , in a state in which the first camera unit 11 is disposed on the first seating part DeP1 of the first support part 410, the first lens part 11b is larger than the first support part 410 by W5. may protrude further.

아울러, 제 2 지지부(420)의 제 2 안착부(DeP2)에 제 2 카메라부(12)가 배치된 상태에서, 제 2 렌즈부(12b)는 제 2 지지부(420)보다 더 돌출될 수 있다.In addition, in a state where the second camera unit 12 is disposed on the second seating part DeP2 of the second support part 420, the second lens part 12b may protrude more than the second support part 420. .

이러한 경우에는, 제 1, 2 카메라부(11, 12)를 충분히 안정적으로 배치할 수 있을 뿐만 아니라, 제 1, 2 렌즈부(11a, 11b)가 보다 용이하게 주변의 영상을 촬영할 수 있다.In this case, not only can the first and second camera units 11 and 12 be sufficiently stably disposed, but also the first and second lens units 11a and 11b can capture images of the surroundings more easily.

도 33을 살펴보면, 베이스부(400)는 제 1 베이스부(400a)와 제 2 베이스부(400b)를 포함하고, 베이스부(400)의 제 1, 2 경사면부(404, 405)에 제 1, 2 지지부(410, 420)가 배치되는 경우의 일례가 나타나 있다.Referring to FIG. 33, the base portion 400 includes a first base portion 400a and a second base portion 400b, and the first and second inclined surface portions 404 and 405 of the base portion 400 have a first , An example of a case in which two supporters 410 and 420 are disposed is shown.

여기서, 제 1, 2 지지부(410, 420)는 제 1, 2 함몰부(HW1, HW2)와 제 1, 2 안착부(DeP1, DeP2)를 포함할 수 있다.Here, the first and second support parts 410 and 420 may include first and second recessed parts HW1 and HW2 and first and second seating parts DeP1 and DeP2.

이러한 상태에서 제 1 케이블부(193)와 제 2 케이블부(194)가 연결되는 경우의 일례가 도 34에 나타나 있다.An example of a case where the first cable unit 193 and the second cable unit 194 are connected in this state is shown in FIG. 34 .

도 34를 살펴보면, 제 1 케이블부(193)는 카메라 구동부(190)의 제 3 커넥터부(191)와 제 1 카메라부(11)를 전기적으로 연결할 수 있다.Referring to FIG. 34 , the first cable unit 193 may electrically connect the third connector unit 191 of the camera driving unit 190 and the first camera unit 11 .

아울러, 제 2 케이블부(194)는 카메라 구동부(190)의 제 4 커넥터부(192)와 제 2 카메라부(12)를 전기적으로 연결할 수 있다.In addition, the second cable unit 194 may electrically connect the fourth connector unit 192 of the camera driving unit 190 and the second camera unit 12 .

베이스부(400)의 수평부분(401)의 상부에 카메라 구동부(190)가 배치될 수 있다.A camera driving unit 190 may be disposed above the horizontal portion 401 of the base unit 400 .

또는, 프레임부(40)의 베이스부(400)가 제 1 수평부분(401a)과 제 2 수평부분(401b)으로 분할되는 경우에는, 카메라 구동부(190)는 제 1 수평부분(401a)과 제 2 수평부분(401b)에 걸쳐 배치될 수 있다.Alternatively, when the base part 400 of the frame part 40 is divided into a first horizontal part 401a and a second horizontal part 401b, the camera driving unit 190 is divided into the first horizontal part 401a and the second horizontal part 401a. 2 may be arranged over the horizontal portion (401b).

제 1 경사면부(404)와 제 2 경사면부(405)의 사이 각도(θ1)는 제 1 카메라부(11)와 제 2 카메라부(12)의 촬영 영역의 중첩(Overlap)과 연관될 수 있다.An angle θ1 between the first inclined surface portion 404 and the second inclined surface portion 405 may be associated with an overlap of photographing areas of the first camera unit 11 and the second camera unit 12. .

자세하게는, 제 1 경사면부(404)와 제 2 경사면부(405)의 사이 각도(θ1)에 따라 제 1 카메라부(11)의 제 1 렌즈부(11b)가 향하는 방향과 제 2 카메라부(12)의 제 2 렌즈부(12b)가 향하는 방향은 서로 다를 수 있다.Specifically, the direction the first lens unit 11b of the first camera unit 11 faces and the second camera unit ( Directions of the second lens unit 12b of 12) may be different from each other.

여기서, 제 1 경사면부(404)와 제 2 경사면부(405)의 사이 각도(θ1)는 180°(도)보다 더 작을 수 있다. 예를 들면, 제 1 경사면부(404)와 제 2 경사면부(405)의 사이 각도(θ1)는 45°(도) 이상 135°(도)이하일 수 있다.Here, the angle θ1 between the first inclined surface portion 404 and the second inclined surface portion 405 may be smaller than 180° (degrees). For example, the angle θ1 between the first inclined surface portion 404 and the second inclined surface portion 405 may be greater than or equal to 45° (degrees) and less than or equal to 135° (degrees).

도 35에는 본 발명에 따른 카메라 모듈(10)의 단면의 형태의 일례가 나타나 있다.35 shows an example of a shape of a cross section of the camera module 10 according to the present invention.

도 35를 살펴보면, 프레임부(40)의 제 1 경사면부(404)와 제 2 경사면부(405)는 수직방향(제 3 방향(DR3))으로 중간부(310)보다 더 돌출될 수 있다.Referring to FIG. 35 , the first inclined surface portion 404 and the second inclined surface portion 405 of the frame portion 40 may protrude more than the intermediate portion 310 in a vertical direction (third direction DR3).

이를 위해, 프레임부(40)의 제 1 수직부분(402) 및 제 2 수직부분(403)은 수직방향(제 3 방향(DR3))으로 중간부(310)보다 더 연장되는 부분을 포함할 수 있다.To this end, the first vertical portion 402 and the second vertical portion 403 of the frame portion 40 may include a portion extending further than the middle portion 310 in the vertical direction (third direction DR3). there is.

이에 따라, 프레임부(40)의 제 1 경사면부(404)와 제 2 경사면부(405)는 중간부(310)에 의해 가려지지 않을 수 있다.Accordingly, the first inclined surface portion 404 and the second inclined surface portion 405 of the frame portion 40 may not be covered by the intermediate portion 310 .

이로 인해, 제 1 카메라부(11) 및 제 2 카메라부(12)도 중간부(310)보다 수직방향(제 3 방향(DR3))으로 더 돌출될 수 있다. 이러한 경우, 제 1 카메라부(11) 및 제 2 카메라부(12)의 효과적인 영상 촬영이 가능할 수 있다.Because of this, the first camera unit 11 and the second camera unit 12 may also protrude more in the vertical direction (third direction DR3) than the middle unit 310 . In this case, it is possible to effectively capture images of the first camera unit 11 and the second camera unit 12 .

이상에서 상세히 설명한 카메라 모듈(10)을 스마트 폴(SP)에 적용하면 넓은 영역의 영상을 획득할 수 있다.When the camera module 10 described in detail above is applied to the smart pole (SP), a wide area image can be obtained.

아울러, 하나의 스마트 폴(SP)에 다수의 카메라를 설치하지 않아도 되기 때문에 스마트 폴(SP)의 구조를 단순화할 수 있다.In addition, since it is not necessary to install a plurality of cameras in one smart pole (SP), the structure of the smart pole (SP) can be simplified.

이와 같이, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, it will be understood that the technical configuration of the present invention described above can be implemented in other specific forms without changing the technical spirit or essential features of the present invention by those skilled in the art to which the present invention pertains.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 전술한 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the embodiments described above should be understood as illustrative and not restrictive in all respects, and the scope of the present invention is indicated by the claims to be described later rather than the foregoing detailed description, and the meaning and scope of the claims And all changes or modified forms derived from the equivalent concept should be construed as being included in the scope of the present invention.

Claims (5)

수직방향(Vertical Direction)으로 연장되는 부분을 포함하는 기둥부(Pilalr Part);
상기 기둥부에 배치되는 카메라 모듈(Camera Module); 및
서버(Server);
를 포함하고,
상기 카메라 모듈은
미리 설정된 대상영역(Target Area)을 촬영하여 감시영상(Monitoring Image)을 생성하고, 생성한 상기 감시영상을 상기 서버로 전송하고,
상기 서버는
상기 카메라 모듈로부터 수신한 상기 감시영상을 분석하여 위험상황을 검출하고, 검출한 상기 위험상황에 관련된 관련영상 및 상기 위험상황에 관련된 위치정보를 연관시켜 저장하는 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.
A pillar part including a part extending in a vertical direction (Vertical Direction);
A camera module disposed on the column part; and
Server;
including,
The camera module
A preset target area is photographed to generate a monitoring image, and the generated monitoring image is transmitted to the server,
The server
Dangerous situation using a smart pole, characterized in that by analyzing the surveillance image received from the camera module to detect a dangerous situation, and to associate and store the detected image related to the dangerous situation and location information related to the dangerous situation. information processor.
제 1 항에 있어서,
상기 카메라 모듈은
케이스부(Case Part);
상기 케이스부 내부에 배치되는 프레임부(Frame Part);
상기 케이스부 내에서 상기 프레임부에 배치되며 상기 대상영역을 촬영하는 카메라부(Camera Part); 및
상기 케이스부 내에 배치되며, 상기 카메라부와 전기적으로 연결되는 카메라 구동부(Camera Driver);
를 포함하고,
상기 카메라부는
제 1 촬영 영역에 대응되는 제 1 카메라부(First Camera Part); 및
제 2 촬영 영역에 대응되는 제 2 카메라부(Second Camera Part);
를 포함하고,
상기 제 1 카메라부는
제 1 렌즈부(First Lens Part); 및
상기 제 1 렌즈부가 배치되는 제 1 렌즈 기판부(First Lens Substrate Part);
를 포함하고,
상기 제 2 카메라부는
제 2 렌즈부(Second Lens Part); 및
상기 제 2 렌즈부가 배치되는 제 2 렌즈 기판부(Second Lens Substrate Part);
를 포함하고,
상기 제 1 렌즈부가 향하는 방향은 상기 제 2 렌즈부가 향하는 방향과 다른 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.
According to claim 1,
The camera module
Case Part;
a frame part disposed inside the case part;
a camera part disposed in the frame part within the case part and photographing the target area; and
a camera driver disposed within the case unit and electrically connected to the camera unit;
including,
the camera part
a first camera part corresponding to the first capturing area; and
a second camera part corresponding to the second capturing area;
including,
The first camera unit
a first lens part; and
a first lens substrate part on which the first lens unit is disposed;
including,
The second camera unit
a second lens part; and
a second lens substrate part on which the second lens unit is disposed;
including,
Danger situation information processing device using a smart pole, characterized in that the direction in which the first lens unit faces is different from the direction in which the second lens unit faces.
제 1 항에 있어서,
상기 카메라 모듈은 설정모드(Setting Mode)에서 상기 대상영역을 촬영하여 설정영상(Setting Image)을 생성하고, 생성한 상기 설정영상을 상기 서버로 전송하고,
상기 서버는 상기 설정영상을 분석하여 상기 대상영역에서 배경을 검출하고, 검출한 상기 배경에서 관심영역 및 위험영역을 설정하고, 상기 감시영상에서 객체(Object)가 상기 위험영역에 위치하는 경우에 상기 위험상황이 발생한 것으로 판단하는 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.
According to claim 1,
The camera module captures the target area in a setting mode to generate a setting image, transmits the generated setting image to the server,
The server analyzes the set image to detect a background in the target area, sets an interest area and a danger area in the detected background, and when an object is located in the danger area in the surveillance image, the server detects the background in the target area. A dangerous situation information processing device using a smart pole, characterized in that it is determined that a dangerous situation has occurred.
제 1 항에 있어서,
상기 서버는 미리 설정된 적어도 하나의 단말기로 상기 위험상황에 대한 정보를 전송하는 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.
According to claim 1,
The server transmits information on the dangerous situation to at least one preset terminal.
제 1 항에 있어서,
상기 위험상황에 관련된 위치를 포인팅(Pointing)하는 포인팅부(Pointing Part)를 더 포함하는 것을 특징으로 하는 스마트 폴을 이용한 위험상황 정보 처리장치.
According to claim 1,
Dangerous situation information processing device using a smart pole, characterized in that it further comprises a pointing part for pointing to a location related to the dangerous situation.
KR1020210175548A 2021-12-09 2021-12-09 Processing apparatus for dangerous situation information using smart pole KR102686900B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210175548A KR102686900B1 (en) 2021-12-09 2021-12-09 Processing apparatus for dangerous situation information using smart pole

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210175548A KR102686900B1 (en) 2021-12-09 2021-12-09 Processing apparatus for dangerous situation information using smart pole

Publications (2)

Publication Number Publication Date
KR20230087008A true KR20230087008A (en) 2023-06-16
KR102686900B1 KR102686900B1 (en) 2024-07-19

Family

ID=86948210

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210175548A KR102686900B1 (en) 2021-12-09 2021-12-09 Processing apparatus for dangerous situation information using smart pole

Country Status (1)

Country Link
KR (1) KR102686900B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102660210B1 (en) 2023-11-02 2024-04-24 주식회사 태정이엔지 Intelligent smart pole having multifunction and control system thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009121053A (en) * 2007-11-12 2009-06-04 Clarion Co Ltd Work safety monitoring system of construction-civil engineering work vehicle
JP2019071578A (en) * 2017-10-11 2019-05-09 パナソニックIpマネジメント株式会社 Object detection device, object detection system, and object detection method
JP2019220939A (en) * 2018-11-08 2019-12-26 パナソニック株式会社 Monitor camera and image arrangement method
KR102126498B1 (en) 2019-11-15 2020-06-25 한국건설기술연구원 Apparatus, system and method for detecting dangerous situation based on image recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009121053A (en) * 2007-11-12 2009-06-04 Clarion Co Ltd Work safety monitoring system of construction-civil engineering work vehicle
JP2019071578A (en) * 2017-10-11 2019-05-09 パナソニックIpマネジメント株式会社 Object detection device, object detection system, and object detection method
JP2019220939A (en) * 2018-11-08 2019-12-26 パナソニック株式会社 Monitor camera and image arrangement method
KR102126498B1 (en) 2019-11-15 2020-06-25 한국건설기술연구원 Apparatus, system and method for detecting dangerous situation based on image recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102660210B1 (en) 2023-11-02 2024-04-24 주식회사 태정이엔지 Intelligent smart pole having multifunction and control system thereof

Also Published As

Publication number Publication date
KR102686900B1 (en) 2024-07-19

Similar Documents

Publication Publication Date Title
AU2020203351B2 (en) Drone-augmented emergency response services
KR102189569B1 (en) Multifunctional smart object recognition accident prevention sign guide plate and accident prevention method using the same
JP6768557B2 (en) Surveillance camera system and surveillance method
KR101644443B1 (en) Warning method and system using prompt situation information data
KR101514696B1 (en) Safety Accident Management System Of Bridge
KR102509570B1 (en) Control device using artificial intelligence learning images and electrical signals and intrusion alert systme including the same
JP2007195130A (en) Video monitoring system
KR102015959B1 (en) INTELLIGENT SECURITY SYSTEM BASED ON DEEP LEARNING USING IoT CAMERA AND METHOD FOR PROCESSING THEREOF
KR20160074208A (en) System and method for providing safety service using beacon signals
CN115019463B (en) Water area supervision system based on artificial intelligence technology
CN112263803A (en) Unmanned vehicle intelligent security system based on real-time scene inspection and automatic detection fire extinguishing and control method
KR101903615B1 (en) Visual observation system and visual observation method using the same
KR20230087008A (en) Processing apparatus for dangerous situation information using smart pole
CN110222216B (en) Multifunctional intelligent defense system
KR101415848B1 (en) Monitering apparatus of school-zone using detection of human body and vehicle
KR20230087656A (en) Processing apparatus and processing method for dangerous situation information using smart pole and artificial intelligence
KR20200104548A (en) Risk alarm system with the safety block
JP7447626B2 (en) Information processing method, information processing device, program and information processing system
KR20160086536A (en) Warning method and system using prompt situation information data
KR20220142227A (en) data collection support system based on delivery motorcycle
KR20220042913A (en) Security light system having a fuction of automatic notifying of emergency situation
KR20230053988A (en) A Control service providing device and an operation method for providing pedestrian safety monitoring and analysis service based on pedestrian safety hazard warning facility device
KR20230053986A (en) A Pedestrian safety hazard warning facility device based on artificial intelligence analysis of pedestrian road image and its operation method
CN118097229A (en) Water area monitoring and emergency response integrated method and system
CN118314668A (en) Security monitoring analysis method based on Internet of things

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant