KR20220000873A - Safety control service system unsing artifical intelligence - Google Patents

Safety control service system unsing artifical intelligence Download PDF

Info

Publication number
KR20220000873A
KR20220000873A KR1020210186311A KR20210186311A KR20220000873A KR 20220000873 A KR20220000873 A KR 20220000873A KR 1020210186311 A KR1020210186311 A KR 1020210186311A KR 20210186311 A KR20210186311 A KR 20210186311A KR 20220000873 A KR20220000873 A KR 20220000873A
Authority
KR
South Korea
Prior art keywords
communication device
image
control server
artificial intelligence
observed
Prior art date
Application number
KR1020210186311A
Other languages
Korean (ko)
Inventor
정종암
Original Assignee
(주)이앤제너텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이앤제너텍 filed Critical (주)이앤제너텍
Priority to KR1020210186311A priority Critical patent/KR20220000873A/en
Publication of KR20220000873A publication Critical patent/KR20220000873A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06K9/00624
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

A control service system according to an embodiment of the present invention includes: a communication device that transmits image data collected through at least one camera; and a control server that receives the image data transmitted from the communication device, performs an artificial intelligence operation for identifying an object to be observed on the image data, extracts characteristic information of the object to be observed, and generates big data based on the characteristic information, wherein the object to be observed includes at least one of a person, a facility, and a vehicle captured in the image data, and determines damage of the facility or problem of the person or vehicle based on the extracted characteristic information. According to the present invention, it is possible to easily check and manage the state of facilities from a communication device such as a wearable communication device or a black box, which is commonplace, and to easily generate big data.

Description

인공 지능을 이용한 관제 서비스 시스템{SAFETY CONTROL SERVICE SYSTEM UNSING ARTIFICAL INTELLIGENCE}Control service system using artificial intelligence {SAFETY CONTROL SERVICE SYSTEM UNSING ARTIFICAL INTELLIGENCE}

본 발명은 관제 시스템에 관한 것으로, 좀 더 구체적으로는 인공 지능을 사용하여 수집된 데이터를 분석하는 관제 서비스 시스템에 관한 것이다.The present invention relates to a control system, and more particularly, to a control service system for analyzing collected data using artificial intelligence.

최근 들어 다양한 분야에서 빅데이터(Big data)의 활용에 대한 요구가 급격히 증가하고 있다. 빅데이터는 기존의 단편적 데이터에 비해 용량이나 처리 속도가 방대하여 기존의 방법으로는 수집, 저장, 그리고 분석이 용이하지 않은 데이터를 의미한다. 빅데이터 플랫폼을 구축하기 위해서는 데이터를 수집하기 위한 인프라가 구축되어야 하고, 분석할 수 있는 솔루션, 그리고 획득된 빅데이터를 효율적으로 활용할 수 있는 데이터 가공 기술이 지원되어야 한다. 하지만, 여전히 빅데이터의 수집과 분석 그리고 활용을 위한 솔루션들에 대한 접근은 용이하지 않은 상태이다. Recently, the demand for the use of big data in various fields is rapidly increasing. Big data refers to data that is not easy to collect, store, and analyze by existing methods because of its huge capacity and processing speed compared to the existing fragmentary data. In order to build a big data platform, an infrastructure for collecting data must be built, a solution that can be analyzed, and data processing technology that can efficiently utilize the acquired big data must be supported. However, it is still not easy to access solutions for the collection, analysis, and utilization of big data.

발명의 목적은 상술한 문제를 해결하기 위한 것으로, 보편적으로 사용되는 이미지 센서를 구비하는 통신 장치들을 활용하여 데이터를 수집하고, 수집된 데이터를 사용하여 고부가가치를 갖는 빅데이터를 생성하기 위한 시설물 관리 시스템을 제공하는 데 있다. An object of the present invention is to solve the above-mentioned problem, collect data by using communication devices having a commonly used image sensor, and manage facilities for generating big data with high added value using the collected data to provide a system.

본 발명의 다른 목적은, 보편화된 통신 장치를 통해서 획득되는 영상 데이터를 활용하여 다양한 이벤트나 사고를 예측하거나, 이미 발생한 사고에 대한 신속한 처리를 가능케하는 시설물 관리 시스템을 제공하는 데 있다.Another object of the present invention is to provide a facility management system that predicts various events or accidents by using image data obtained through a universal communication device, or enables rapid processing of accidents that have already occurred.

상기 목적을 달성하기 위한 본 발명의 실시 예에 따른 관제 서비스 시스템은, 적어도 하나의 카메라를 통해 수집된 영상 데이터를 전송하는 통신 장치, 및 상기 통신 장치로부터 전송된 영상 데이터를 수신하고, 상기 영상 데이터 상에서 관찰 대상체를 식별하기 위해 인공 지능 연산을 수행하고, 상기 관찰 대상체의 특성 정보를 추출하고, 상기 특성 정보를 기반으로 빅데이터를 생성하는 관제 서버를 포함하되, 상기 관찰 대상체는 상기 영상 데이터에 포착된 사람, 시설물, 그리고 차량 중 적어도 하나를 포함하고, 상기 추출된 특성 정보를 기반으로 상기 시설물의 훼손 여부 또는 상기 사람이나 상기 차량의 이상 징후를 판단한다. In order to achieve the above object, a control service system according to an embodiment of the present invention includes a communication device for transmitting image data collected through at least one camera, and receiving the image data transmitted from the communication device, and the image data A control server that performs artificial intelligence operation to identify an object to be observed on the screen, extracts characteristic information of the object to be observed, and generates big data based on the characteristic information, wherein the object is captured in the image data It includes at least one of a person, a facility, and a vehicle, and determines whether the facility is damaged or an abnormality of the person or the vehicle based on the extracted characteristic information.

본 발명의 실시 예에 따르면, 통신 장치들로부터 수집된 이미지 데이터를 인공 지능을 사용하여 분석하고, 분석된 데이터를 사용하여 문제를 해결하거나 또 다른 고부가가치의 빅데이터를 생성할 수 있다. According to an embodiment of the present invention, image data collected from communication devices may be analyzed using artificial intelligence, and a problem may be solved using the analyzed data or other high-value big data may be generated.

본 발명의 실시 예들은 제한적인 방법으로서가 아니라 예로서 도시되었으며, 첨부 도면에서 유사한 참조 번호는 유사한 요소를 참조한다.
도 1은 본 발명의 실시 예에 따른 통신 장치를 이용한 관제 서비스 시스템을 보여주는 블록도이다.
도 2는 도 1에 도시된 통신 장치의 내부 구성을 간략히 보여주는 블록도이다.
도 3은 도 1의 관제 서버의 구성을 예시적으로 보여주는 도면이다.
도 4는 본 발명의 실시 예에 따른 통신 장치를 사용하여 시설물을 관리하는 예를 간략히 보여주는 도면이다.
도 5는 본 발명의 일 실시 예에 따른 관제 서버의 동작 방법을 보여주는 순서도이다.
도 6은 본 발명의 다른 실시 예에 따른 관제 서버의 동작을 보여주는 순서도이다.
도 7은 본 발명의 통신 장치를 사용하여 시설물을 관리하는 다른 예를 간략히 보여주는 도면이다.
도 8은 본 발명의 다른 실시 예에 따른 관제 서버의 동작 방법을 보여주는 순서도이다.
Embodiments of the invention have been shown by way of example and not limitation, and like reference numerals refer to like elements in the accompanying drawings.
1 is a block diagram showing a control service system using a communication device according to an embodiment of the present invention.
FIG. 2 is a block diagram schematically illustrating an internal configuration of the communication device shown in FIG. 1 .
FIG. 3 is a diagram exemplarily showing the configuration of the control server of FIG. 1 .
4 is a diagram schematically illustrating an example of facility management using a communication device according to an embodiment of the present invention.
5 is a flowchart illustrating a method of operating a control server according to an embodiment of the present invention.
6 is a flowchart illustrating an operation of a control server according to another embodiment of the present invention.
7 is a diagram schematically illustrating another example of managing a facility using the communication device of the present invention.
8 is a flowchart illustrating a method of operating a control server according to another embodiment of the present invention.

앞의 일반적인 설명 및 다음의 상세한 설명 모두 예시적이라는 것이 이해되어야 하며, 청구된 발명의 부가적인 설명이 제공되는 것으로 여겨져야 한다. 참조 부호들이 본 발명의 바람직한 실시 예들에 상세히 표시되어 있으며, 그것의 예들이 참조 도면들에 표시되어 있다. 가능한 어떤 경우에도, 동일한 참조 번호들이 동일한 또는 유사한 부분을 참조하기 위해서 설명 및 도면들에 사용된다.It is to be understood that both the foregoing general description and the following detailed description are exemplary, and it is to be considered that an additional description of the claimed invention is provided. Reference signs are indicated in detail in preferred embodiments of the present invention, examples of which are indicated in the reference drawings. Wherever possible, the same reference numbers are used in the description and drawings to refer to the same or like parts.

이하에서는, 이미지 센서가 구비된 통신 장치가 본 발명의 특징 및 기능을 설명하기 위한 예로서 사용될 것이다. 하지만, 이 기술 분야에 정통한 사람은 여기에 기재된 내용에 따라 본 발명의 다른 이점들 및 성능을 쉽게 이해할 수 있을 것이다. 본 발명은 다른 실시 예들을 통해 또한, 구현되거나 적용될 수 있을 것이다. 게다가, 상세한 설명은 본 발명의 범위, 기술적 사상 그리고 다른 목적으로부터 상당히 벗어나지 않고 관점 및 응용에 따라 수정되거나 변경될 수 있다.Hereinafter, a communication device equipped with an image sensor will be used as an example for describing the features and functions of the present invention. However, one skilled in the art will readily appreciate other advantages and capabilities of the present invention in accordance with the teachings herein. The present invention may also be implemented or applied through other embodiments. Moreover, the detailed description may be modified or changed according to the viewpoint and application without departing significantly from the scope, spirit and other objects of the present invention.

도 1은 본 발명의 실시 예에 따른 통신 장치를 이용한 관제 서비스 시스템을 보여주는 블록도이다. 도 1을 참조하면, 관제 서비스 시스템(100)은 통신 장치(110), 네트워크(120) 그리고 관제 서버(130)을 포함한다.1 is a block diagram showing a control service system using a communication device according to an embodiment of the present invention. Referring to FIG. 1 , the control service system 100 includes a communication device 110 , a network 120 , and a control server 130 .

통신 장치(110)는 여러 가지 형태로 구현될 수 있다. 예를 들면, 통신 장치(110)는 사용자가 운동이나 레저 활동 등을 할 때 두 손을 자유롭게 사용할 수 있도록, 목에 거는 넥밴드 형태 또는 머리에 걸치는 머리띠 형태 등 다양한 형태로 구현될 수 있다. 다른 실시 예에서, 통신 장치(110)는 사용자가 사용하는 차량이나 오토바이, 자전거에 장착되어 사용자 주변의 동영상이나 정지 영상, 음성 데이터 등을 촬영하거나 녹취할 수 있다. The communication device 110 may be implemented in various forms. For example, the communication device 110 may be implemented in various forms, such as a neckband type worn around the neck or a headband type worn over the head, so that the user can freely use both hands when performing sports or leisure activities. In another embodiment, the communication device 110 may be mounted on a vehicle, motorcycle, or bicycle used by the user to capture or record a moving image, still image, or voice data around the user.

통신 장치(110)는 사용자의 주변 영상(예를 들면, 전방, 후방, 좌측, 우측 등 모든 방향의 영상)을 촬영하고 이를 압축하여 네트워크(120)를 통해 관제 서버(130)으로 전송할 수 있다. 또한, 통신 장치(110)는 사용자의 각종 상황 정보(예를 들면, 영상 정보, 음향 정보, 위치 정보 등)를 수집하고 이를 관제 서버(130)으로 전송할 수 있다. 이를 위하여, 통신 장치(110)는 이를 구현할 수 있는 하드웨어나 소프트웨어를 구비할 수 있다.The communication device 110 may capture an image (eg, an image in all directions, such as front, rear, left, and right) of the user, compress it, and transmit it to the control server 130 through the network 120 . Also, the communication device 110 may collect various kinds of situation information (eg, image information, sound information, location information, etc.) of the user and transmit it to the control server 130 . To this end, the communication device 110 may include hardware or software capable of implementing the same.

통신 장치(110)는 휴대전화, 위성전화, 무선전화, SIP(Session Initiation Protocol), WLL(Wireless Local Loop) 스테이션, 스마트폰, 태블릿 PC, PDA(Personal Digital Assistant) 등과 같은 모바일 장치 또는 핸드헬드 장치일 수 있다. 통신 장치(110)는 다양한 무선 통신 방식으로 신호나 정보 데이터를 송수신할 수 있다. 예를 들면, 통신 장치(110)는 Wi-Fi, 블루투스(Bluetooth), NFC(Near Field Communication), 비콘(beacon) 등과 같은 근거리 통신이나, LTE와 같은 장거리 통신을 이용하여 데이터를 송수신할 수 있다.The communication device 110 is a mobile device or a handheld device such as a mobile phone, a satellite phone, a wireless phone, a Session Initiation Protocol (SIP), a Wireless Local Loop (WLL) station, a smart phone, a tablet PC, a Personal Digital Assistant (PDA), etc. can be The communication device 110 may transmit/receive signals or information data using various wireless communication methods. For example, the communication device 110 may transmit and receive data using short-distance communication such as Wi-Fi, Bluetooth, NFC (Near Field Communication), beacon, or the like, or long-distance communication such as LTE. .

네트워크(120)는 통신 장치(110)로부터 수집된 다양한 데이터를 관제 서버(130)로 전달한다. 예를 들어, 네트워크(120)는 모바일 장치로 구현된 통신 장치(110)로부터 전송된 영상 데이터를 전달하기 위한 이동 통신망일 수 있다. 특히, 네트워크(120)는 3G LTE망, 4G망, 5G망 등의 차세대 통신망, 그 밖의 IP(Internet Protocol)를 기반으로 한 IP망을 포함할 수 있다.The network 120 transmits various data collected from the communication device 110 to the control server 130 . For example, the network 120 may be a mobile communication network for transmitting image data transmitted from the communication device 110 implemented as a mobile device. In particular, the network 120 may include a next-generation communication network such as 3G LTE network, 4G network, and 5G network, and other IP networks based on Internet Protocol (IP).

관제 서버(130)는 통신 장치(110)로부터 전송된 사용자의 각종 상황 정보를 이용하여 위급 상황을 관리하거나 통제할 수 있다. 특히, 관제 서버(130)는 인공 지능(AI)을 사용하여 통신 장치(110)에서 전송되는 영상 데이터를 분석할 수 있다. 관제 서버(130)는 영상 데이터 상에서 관찰 대상체를 식별하고, 식별된 관찰 대상체를 추적할 수 있다. 관제 서버(130)는 관찰 대상체에 대한 이상 행동 여부를 판단할 수 있다. 관제 서버(130)는 관찰 대상체에 대한 특성 정보를 추출하여 빅데이터로 제공할 수 있다. The control server 130 may manage or control an emergency situation by using various types of situation information of the user transmitted from the communication device 110 . In particular, the control server 130 may analyze the image data transmitted from the communication device 110 using artificial intelligence (AI). The control server 130 may identify an object to be observed on the image data and track the identified object to be observed. The control server 130 may determine whether there is an abnormal behavior with respect to the object to be observed. The control server 130 may extract characteristic information about the object to be observed and provide it as big data.

예를 들면, 사용자가 통신 장치(110)를 소지한 체 공원을 산책중인 경우, 관제 서버(130)는 통신 장치(110)에서 전송되는 영상 데이터로부터 공원의 시설물들의 이상 유무를 판단할 수 있다. 시설물의 이상 여부에 따라 관제 서버(130)는 시설물 관리 기관에 시설물의 고장이나 파손과 같은 상황을 전달할 수 있다. 또는, 관제 서버(130)는 통신 장치(110)에서 전송되는 영상 데이터로부터 빅데이터(Big data)를 생성할 수 있다. 관제 서버(130)는 사용자의 주변에 등장하는 인물들의 의복의 형태나 칼라와 같은 정보를 축적하여 빅데이터 생성을 위한 소스로 제공할 수 있다. For example, when the user is walking in the park carrying the communication device 110 , the control server 130 may determine whether there is an abnormality in the facilities of the park from the image data transmitted from the communication device 110 . Depending on whether the facility is abnormal, the control server 130 may transmit a situation such as a failure or damage of the facility to the facility management organization. Alternatively, the control server 130 may generate big data from the image data transmitted from the communication device 110 . The control server 130 may accumulate information such as the shape or color of clothes of people appearing around the user and provide it as a source for generating big data.

또한, 관제 서버(130)는 사용자가 위급 상황에 처해 있는 경우, 적절한 대응을 할 수 있다. 예를 들면, 사용자나 주변 사람에게 위급 상황이 발생한 경우에, 안전 요원이나 경찰에게 위급 상황을 알리거나, 위치 추적 드론을 보내서 자동으로 추적 촬영을 하도록 제어할 수도 있다.In addition, the control server 130 may take an appropriate response when the user is in an emergency situation. For example, in case of an emergency for the user or people around, it is possible to notify the emergency situation to security personnel or the police, or to send a location tracking drone to automatically track and take pictures.

도 2는 도 1에 도시된 통신 장치의 내부 구성을 간략히 보여주는 블록도이다. 통신 장치(110)는 카메라(111), 영상 처리 회로(112), 통신 회로(113), 저장 장치(114), 그리고 GPS 장치(115)를 포함할 수 있다. 통신 장치(110)의 내부 구성은 생활 방수 및 방진 처리될 수 있다.FIG. 2 is a block diagram schematically illustrating an internal configuration of the communication device shown in FIG. 1 . The communication device 110 may include a camera 111 , an image processing circuit 112 , a communication circuit 113 , a storage device 114 , and a GPS device 115 . The internal configuration of the communication device 110 may be water- and dust-proof.

카메라(111)는 사용자 또는 사용자가 탑승한 차량(Vehicle)의 전, 후, 좌, 우 등의 주변 영상을 촬영하여 영상 처리 회로(112)에 전달한다. 통신 장치(110)에 포함되는 카메라(111)의 수는 다양하게 변경될 수 있다. 예를 들면, 사용자를 중심으로 방향에 따라 카메라(111)를 배치할 수 있다. 또는, 어느 하나의 방향에 대해 높은 초점 속도나 해상도를 제공하기 위해 복수의 카메라(111)들이 장착될 수 있다. 카메라(111)는 촬영된 영상을 영상 처리 회로(112)로 제공할 수 있다. The camera 111 captures images of the user or surrounding images of the front, rear, left, and right sides of the user or the vehicle in which the user rides, and transmits the images to the image processing circuit 112 . The number of cameras 111 included in the communication device 110 may be variously changed. For example, the camera 111 may be disposed according to the direction with the user as the center. Alternatively, a plurality of cameras 111 may be mounted to provide a high focus speed or resolution in any one direction. The camera 111 may provide the captured image to the image processing circuit 112 .

영상 처리 회로(112)는 카메라(111)을 통해 입력된 영상을 전기적 영상 신호로 변환할 수 있다. 영상 처리 회로(112)에서 처리된 영상 신호는 저장 장치(114)에 저장하거나, 통신 회로(113)를 통해서 관제 시스템으로 전송될 수 있다.The image processing circuit 112 may convert an image input through the camera 111 into an electrical image signal. The image signal processed by the image processing circuit 112 may be stored in the storage device 114 or transmitted to the control system through the communication circuit 113 .

영상 처리 회로(112)는 카메라(111)을 통해 제공된 영상 데이터를 다양한 방법으로 영상 처리할 수 있다. 예를 들어, 영상 처리 회로(112)는 영상 데이터의 노이즈를 제거할 수 있다. 카메라(111)을 통해 입력된 영상에는 사용자의 이동이나 떨림에 따른 원하지 않는 노이즈가 포함될 수 있다. 영상 처리 회로(112)는 이러한 떨림을 광학적 안정화 장치(Optical Stabilizer)를 이용하거나, 이미지 센서를 이용하거나, 응용 소프트웨어(예를 들어, Hyperlapse)를 이용하여 보정할 수 있다.The image processing circuit 112 may process image data provided through the camera 111 in various ways. For example, the image processing circuit 112 may remove noise from image data. An image input through the camera 111 may include unwanted noise caused by a user's movement or shaking. The image processing circuit 112 may correct the shaking by using an optical stabilizer, an image sensor, or application software (eg, Hyperlapse).

한편, 영상 처리 회로(112)는 여러 가지 방법으로 사용자나 주변 사람들의 사생활을 보호할 수 있다. 예를 들면, 영상 처리 회로(112)는 제공된 영상 데이터를 암호화할 수 있다. 암호화된 영상 데이터가 저장 장치(114)에 저장되거나 관제 서버(130)으로 제공될 수 있다. 이때 영상 처리 회로(112)는 영상 데이터를 이중 암호화할 수 있다. 영상이 암호화되기 때문에, 사용자는 촬영된 영상을 볼 수 없다.Meanwhile, the image processing circuit 112 may protect the privacy of the user or surrounding people in various ways. For example, the image processing circuit 112 may encrypt the provided image data. The encrypted image data may be stored in the storage device 114 or provided to the control server 130 . In this case, the image processing circuit 112 may double-encrypt the image data. Since the image is encrypted, the user cannot view the captured image.

영상 처리 회로(112)는 화장실이나 샤워실 또는 탈의실 등 사생활 보호 장소에서는 사용자뿐만 아니라 다른 사람들도 영상을 볼 수 없도록, 자동으로 촬영된 영상을 무효화 처리하거나 영상이 전송되는 것을 막을 수 있다. 영상 처리 회로(112)는 GPS 장치(115)로부터 사용자 위치 정보를 입력 받고, 사용자가 사생활 보호 장소로 이동하는지를 알 수 있다. 영상 처리 회로(112)는 사용자 위치 정보를 이용하여 사생활 보호 장소에서 사람들의 사생활을 안전하게 보호할 수 있다.The image processing circuit 112 may automatically invalidate the captured image or prevent the image from being transmitted so that not only the user nor other people can view the image in a privacy protection place such as a toilet, a shower room, or a changing room. The image processing circuit 112 may receive user location information from the GPS device 115 and determine whether the user moves to a privacy protection location. The image processing circuit 112 may safely protect people's privacy in a privacy protection place by using user location information.

또한, 영상 처리 회로(112)는 특정 사람만을 추적하고, 그 외 다른 사람들을 안보이게 할 수도 있다. 영상 처리 회로(112)는 사용자가 지정한 특정 사람만 3D 스캔한 후 그 사람만을 추적할 수 있다. 본 발명의 실시 예에 따른 통신 장치(110)는 특정 사람을 추적 관찰함으로, 주변 사람들의 사생활을 보호할 수도 있다. 이를 통해 본 발명은 영상 데이터의 크기를 줄이고, 데이터 전송량을 줄일 수 있다.In addition, the image processing circuit 112 may track only a specific person and make other people invisible. The image processing circuit 112 may 3D scan only a specific person designated by the user and then track only that person. The communication device 110 according to an embodiment of the present invention may protect the privacy of surrounding people by tracking and observing a specific person. Through this, the present invention can reduce the size of image data and reduce the amount of data transmission.

영상 처리 회로(112)는 영상 데이터를 압축할 수도 있다. 본 발명의 실시 예에 따른 통신 장치(110)는 영상 데이터 압축을 통해 데이터의 크기를 줄일 수 있고, 저장 장치(114)에 저장되는 데이터나 관제 서버(130)으로 제공되는 데이터 전송량을 줄일 수 있다.The image processing circuit 112 may compress image data. The communication device 110 according to an embodiment of the present invention may reduce the size of data through image data compression, and may reduce the amount of data stored in the storage device 114 or data transmitted to the control server 130 . .

영상 처리 회로(112)는 제공된 영상 데이터를 분석하여, 사각 지역이 있는 경우(예를 들어, 사용자의 의류, 모자, 또는 배낭 등에 의해 영상이 일정시간 이상 가려지거나, 잘못된 넥밴드의 착용으로 인해 사각 지역이 발생되는 경우), 사용자에게 경보음이나 진동 등의 방법으로 영상이 제대로 촬영되고 있지 않음을 알려 줄 수 있다. 또한, 영상 처리 회로(112)는 사용자가 실내에 들어가거나 사각 지역에 있는 경우에, 미리 저장된 실내나 사각 지역의 3D 도면에 사용자 위치를 표시할 수 있다. 이를 통해 본 발명은 사용자가 어떤 지역에 있더라도 정확한 위치 정보를 제공할 수 있다.The image processing circuit 112 analyzes the provided image data, and when there is a blind area (eg, the image is covered by the user's clothing, hat, or backpack for a certain period of time or the like, or the blind spot is caused by incorrect wearing of the neckband) area), the user can be informed that the image is not being taken properly by means of an alarm sound or vibration. Also, when the user enters the room or is in the blind area, the image processing circuit 112 may display the user's location on a pre-stored 3D drawing of the room or the blind area. Through this, the present invention can provide accurate location information no matter where the user is located.

통신 회로(113)는 통신 장치(110)가 관제 서버(130)과 통신할 수 있도록 해준다. 통신 장치(110)는 통신 회로(113)를 이용하여, 카메라(111)를 통해 촬영된 영상이나 사용자의 GPS 정보, 사용자 생체 정보 등을 주기적으로 혹은 비주기적으로 관제 서버(130)에 전송할 수 있다. 또한, 통신 장치(110)는 통신 회로(113)를 통해, 관제 서버(130) 또는 다른 통신 기기와 음성 통신할 수 있다. 통신 회로(113)는 3G, 4G, 5G, LTE, Wi-Fi, 블루투스, 비콘 등의 방법으로 통신 기능을 수행할 수 있다. 통신 회로(113)는 이러한 통신 기능을 수행하기 위한 구성들(예를 들면, 송수신 회로, 안테나 등)을 포함할 수 있다.The communication circuit 113 allows the communication device 110 to communicate with the control server 130 . The communication device 110 may periodically or aperiodically transmit an image captured by the camera 111 , GPS information of a user, user biometric information, etc. to the control server 130 by using the communication circuit 113 . . Also, the communication device 110 may perform voice communication with the control server 130 or other communication devices through the communication circuit 113 . The communication circuit 113 may perform a communication function using methods such as 3G, 4G, 5G, LTE, Wi-Fi, Bluetooth, and a beacon. The communication circuit 113 may include components (eg, a transmission/reception circuit, an antenna, etc.) for performing such a communication function.

저장 장치(114)는 카메라(111)에 의해 촬영된 영상이나, 영상 처리된 데이터, 또는 암호화나 압축된 데이터를 저장할 수 있다. 저장 장치(114)는 플래시 메모리와 같은 불휘발성 메모리로 구현되거나, 임시로 데이터를 저장하기 위한 휘발성 메모리로 구현될 수 있다. 저장 장치(114)에는 사용자의 생체 정보나 위치 정보 등도 저장될 수 있다. 또한, 저장 장치(114)에는 사용자에게 비상 상황을 알리기 위한 경보음이나, 사용자가 미리 설정해 놓은 비상 상황 음성 등이 저장될 수 있다.The storage device 114 may store an image captured by the camera 111 , image-processed data, or encrypted or compressed data. The storage device 114 may be implemented as a non-volatile memory such as a flash memory or a volatile memory for temporarily storing data. The storage device 114 may also store the user's biometric information or location information. Also, the storage device 114 may store an alarm sound for notifying the user of an emergency situation, an emergency situation voice preset by the user, and the like.

GPS 장치(115)는 사용자의 위치 정보 (또는 GPS 정보)를 GPS 위성으로부터 실시간으로 수신할 수 있다. 예를 들어, GPS 정보에는 사용자의 위도, 경도, 고도 등의 좌표가 포함될 수 있다. GPS 정보는 통신 회로(113)를 통해 관제 서버(130)에 제공될 수 있다. GPS 정보는 영상에 동기 되어 제공되거나, 관제 서버(130)이 제공된 영상과 GPS 정보를 동기화할 수 있다. 이를 통해, 관제 서버(130)는 비상 상황 발생 시에, 제공된 영상과 사용자의 위치 정보 등을 쉽게 파악할 수 있다.The GPS device 115 may receive the user's location information (or GPS information) from a GPS satellite in real time. For example, the GPS information may include coordinates such as latitude, longitude, and altitude of the user. The GPS information may be provided to the control server 130 through the communication circuit 113 . The GPS information may be provided in synchronization with the image, or the control server 130 may synchronize the provided image and GPS information. Through this, the control server 130 can easily grasp the provided image and the user's location information when an emergency situation occurs.

본 발명의 실시 예에 따른 통신 장치(110)는 상술한 구성들 이외에도 다양한 센서들이 추가적으로 포함될 수 있다. 예를 들면, 사용자의 체온, 땀, 맥박, 또는 심전도 정보 등과 같은 생체 정보를 측정하는 생체 센서, 가속도를 측정하는 가속도 센서, 각속도를 감지할 수 있는 자이로 센서 등이 통신 장치(110)에 포함될 수 있다. 가속도 센서 또는 자이로 센서에 의해 감지된 데이터는 주변의 온도 변화에 의해 변할 수 있다. 통신 장치(110)는 주변 온도에 의해 변화된 값을 보상하기 위한 온도 센서를 더 포함할 수 있다.The communication device 110 according to an embodiment of the present invention may additionally include various sensors in addition to the above-described components. For example, the communication device 110 may include a biosensor that measures biometric information such as body temperature, sweat, pulse, or electrocardiogram information of the user, an acceleration sensor that measures acceleration, and a gyro sensor that can detect angular velocity. have. Data sensed by the accelerometer or gyro sensor may be changed by changes in ambient temperature. The communication device 110 may further include a temperature sensor for compensating for a value changed by the ambient temperature.

가속도 센서 및 각속도 센서들부터 감지된 데이터들은 통신 회로(113)를 통해 관제 서버(130)에 제공될 수 있다. 위치 감지 센서는 동굴이나 깊은 숲 등 GPS 신호가 약한 지역에 사용자가 있는 경우에 효과적으로 사용될 수 있다. 마지막으로 수신된 GPS 정보와 사용자의 가속도, 각속도 등의 정보를 기초로, 관제 서버(130)는 사용자의 위치를 추적할 수 있다. 또는, 관제 서버(130)는 사용자의 가속도와 각속도의 정보에 기초하여 사용자의 갑작스러운 낙상 등의 비상 상황을 파악할 수도 있다.Data sensed from the acceleration sensor and the angular velocity sensor may be provided to the control server 130 through the communication circuit 113 . The location sensor can be effectively used when the user is in an area where the GPS signal is weak, such as a cave or deep forest. Based on the last received GPS information and information such as the user's acceleration and angular velocity, the control server 130 may track the user's location. Alternatively, the control server 130 may determine an emergency situation such as a sudden fall of the user based on the user's acceleration and angular velocity information.

또한, 통신 장치(110)는 음성 인식 센서를 포함할 수 있다. 음성 인식 센서는 특정 단어를 인식할 수 있다. 예를 들면, 음성 인식 센서는 '도와주세요'나 '살려주세요'와 같이 비상 상황을 알리는 특정 음성을 인식하고, 음성 신호가 관제 서버(130)에 제공되도록 할 수 있다. 관제 서버(130)는 제공된 음성 신호를 통해 사용자의 비상 상황 등을 알 수 있고, 비상 상황에 대한 비상 조치를 취하도록 할 수 있다.Also, the communication device 110 may include a voice recognition sensor. The voice recognition sensor may recognize a specific word. For example, the voice recognition sensor may recognize a specific voice notifying an emergency situation, such as 'help me' or 'save me', and provide a voice signal to the control server 130 . The control server 130 may know the user's emergency situation, etc. through the provided voice signal, and may take emergency measures for the emergency situation.

통신 장치(110)는 배터리(미도시)를 내장할 수 있다. 배터리는 외부 전원을 입력 받아 충전할 수 있다. 배터리는 가정용 전압이나 USB 단자 등을 통해 외부 전자 장치로부터 충전용 전압을 공급받을 수 있다. 또한, 배터리는 무선 충전 방식을 이용하여 전선 없이 충전되거나 태양광 등을 이용하여 자체적으로 충전될 수도 있다. 배터리는 통신 장치(110)에 적합하도록 경량화 되어 설계될 수 있다.The communication device 110 may have a built-in battery (not shown). The battery can be charged by receiving an external power input. The battery may receive a charging voltage from an external electronic device through a household voltage or a USB terminal. In addition, the battery may be charged without a wire using a wireless charging method or may be charged by itself using sunlight or the like. The battery may be designed to be lightweight to be suitable for the communication device 110 .

배터리는 통신 장치(110)를 수납할 수 있는 수단에 의해 자동 충전될 수 있다. 예를 들면, 통신 장치(110)는 공원이나 산책로 등을 관리하는 기관에서 대여하여 사용할 수 있고, 일정 시간이 지난 후에 관리 기관에 반납을 할 수 있다. 관리 기관은 무인 수납기를 이용하여 통신 장치(110)를 돌려받을 수 있다. 무인 수납기는 통신 장치(110)의 MAC 주소를 통해 개인 인식을 할 수 있다. 또한, 무인 수납기는 수납 장치 내에 설치된 충전 장치를 이용하여 통신 장치(110)의 배터리를 자동 충전할 수 있다.The battery may be automatically charged by means capable of housing the communication device 110 . For example, the communication device 110 may be borrowed from an institution that manages parks or trails, and may be returned to the management institution after a certain period of time has elapsed. The management organization may receive the communication device 110 back by using the unmanned receiver. The unmanned receiver may perform personal recognition through the MAC address of the communication device 110 . In addition, the unmanned receiver may automatically charge the battery of the communication device 110 using a charging device installed in the storage device.

한편, 배터리는 사용량에 따라 저전력 모드로 진입할 수 있다. 통신 장치(110)는 배터리 전력 모드를 조절함으로, 배터리 사용 시간을 효과적으로 늘릴 수 있다. 예를 들면, 배터리를 사용할 수 있는 양이 전체의 10%에 도달한 경우에, 배터리는 저전력 모드로 진입할 수 있다. 저전력 모드에서는 배터리의 전력 소모를 최소화할 수 있는 필수 동작만을 수행하게 된다. 또한, 본 발명의 실시 예에 따른 통신 장치(110)는 디자인과 무게의 좌우 균형을 위해, 통신 장치(110)의 좌우 한쪽의 전면 내부에는 통신 회로(113)와 카메라(111)이 내장되고, 또 다른 한쪽의 전면 내부에는 배터리가 내장될 수 있다.Meanwhile, the battery may enter a low power mode according to usage. By adjusting the battery power mode, the communication device 110 can effectively increase the battery usage time. For example, when the usable amount of the battery reaches 10% of the total, the battery may enter a low power mode. In the low power mode, only essential operations capable of minimizing power consumption of the battery are performed. In addition, in the communication device 110 according to an embodiment of the present invention, a communication circuit 113 and a camera 111 are built in the front inside of the left and right sides of the communication device 110 for left-right balance of design and weight, A battery may be built-in inside the front side of the other side.

통신 장치(110)는 자체 진단 기능을 포함할 수 있다. 통신 장치(110)가 오작동하는 경우에, 내부적으로 설치된 자체 진단 프로그램을 통해 오작동 원인을 분석하고, 분석 결과를 관제 서버(130)으로 제공할 수 있다. 관제 서버(130)는 상황 대응 시스템(130)으로 오작동 상황을 제공하거나, 관제 서비스 시스템(100)을 운영하는 업체에 기기 고장 정보를 제공할 수 있다.The communication device 110 may include a self-diagnosis function. When the communication device 110 malfunctions, the cause of the malfunction may be analyzed through an internally installed self-diagnostic program, and the analysis result may be provided to the control server 130 . The control server 130 may provide a malfunction situation to the situation response system 130 or may provide device failure information to a company operating the control service system 100 .

이상에서는 본 발명의 통신 장치(110)의 구성이 예시적으로 설명되었다. 하지만, 본 발명의 통신 장치(110)의 구성이나 기능은 도시된 예에만 국한되지 않는다. 예컨대, 통신 장치(110)는 필요에 따라 다양한 프로세서나 인공 지능 연산을 위한 별도의 장치가 추가될 수도 있을 것이다. In the above, the configuration of the communication device 110 of the present invention has been exemplarily described. However, the configuration or function of the communication device 110 of the present invention is not limited to the illustrated example. For example, in the communication device 110 , various processors or a separate device for artificial intelligence operation may be added as needed.

도 3은 도 1의 관제 서버의 구성을 예시적으로 보여주는 도면이다. 도 3을 참조하면, 관제 서버(130)는 통신부(131), 영상 분석부(132), 인공 지능 연산부(133), 관제부(134), 빅데이터 생성부(135) 그리고 빅데이터 저장부(136)를 포함할 수 있다.FIG. 3 is a diagram exemplarily showing the configuration of the control server of FIG. 1 . Referring to FIG. 3 , the control server 130 includes a communication unit 131 , an image analysis unit 132 , an artificial intelligence calculation unit 133 , a control unit 134 , a big data generation unit 135 , and a big data storage unit ( 136) may be included.

통신부(131)는 통신 장치(110)로부터 네트워크(120)를 통해서 전송된 영상 데이터를 비롯한 제반 데이터를 수신한다. 통신부(131)는 네트워크(120)에 접속 가능한 다양한 유선 또는 무선의 송수신 장치를 포함할 것이다.The communication unit 131 receives all data including image data transmitted from the communication device 110 through the network 120 . The communication unit 131 may include various wired or wireless transmission/reception devices connectable to the network 120 .

영상 분석부(132)는 통신 장치(110)에서 전송된 영상 데이터를 제공받는다. 영상 분석부(132)는 수신된 영상 데이터를 사용하여 관찰을 위한 대상체를 식별한다. 예를 들면, 영상 분석부(132)는 동영상으로 전달되는 영상 데이터 내에서 사람이나 차량, 동물, 또는 지정된 특정 시설물을 식별할 수 있다. 영상 분석부(132)는 사람이나 차량, 동물, 또는 지정된 특정 시설물을 식별하기 위한 인공 지능 연산부(133)를 포함할 수 있다. 인공 지능 연산부(133)는, 예를 들면, 컨볼루션 신경망(Convolutional Neural Network: 이하, CNN)이나 딥 러닝(Deep learning)과 같은 머신 러닝 기법을 사용하여 영상 데이터를 분석하고, 관찰 대상체를 식별할 수 있다.The image analyzer 132 receives image data transmitted from the communication device 110 . The image analyzer 132 identifies an object for observation by using the received image data. For example, the image analysis unit 132 may identify a person, a vehicle, an animal, or a specified specific facility within the image data transmitted as a moving image. The image analysis unit 132 may include an artificial intelligence operation unit 133 for identifying a person, a vehicle, an animal, or a specified specific facility. The artificial intelligence operation unit 133, for example, analyzes image data using a machine learning technique such as a convolutional neural network (CNN) or deep learning, and identifies an object to be observed. can

영상 분석부(132)는 식별된 관찰 대상체의 특성 정보를 추출할 수 있다. 관찰 대상체가 사람인 경우, 영상 분석부(132)는 관찰 대상체의 의복, 신발, 또는 모자의 종류나 칼라와 같은 특성 정보를 추출할 수 있다. 식별된 관찰 대상체가 차량인 경우, 영상 분석부(132)는 대상체의 속도나 차선 위반 여부, 난폭운전이나 위협 운전 여부, 차량의 종류 및 차량 번호와 같은 정보를 추출할 수 있다. 식별된 관찰 대상체가 시설물인 경우, 영상 분석부(132)는 관찰 대상체의 정상 동작 여부, 파손이나 훼손 여부, 미화 상태와 같은 정보들을 추출할 수 있다. 영상 분석부(132)는 추출된 대상체의 특성 정보를 관제부(134) 또는 빅데이터 생성부(135)에 전달한다. The image analyzer 132 may extract characteristic information of the identified observation object. When the object to be observed is a human, the image analyzer 132 may extract characteristic information such as a type or color of clothes, shoes, or hats of the object to be observed. When the identified object to be observed is a vehicle, the image analysis unit 132 may extract information such as whether the object is violating a speed or a lane, whether the object is driving recklessly or threateningly, the type of vehicle, and the vehicle number. When the identified object to be observed is a facility, the image analyzer 132 may extract information such as whether the object to be observed operates normally, whether the object is damaged or damaged, and a beautification state. The image analyzer 132 transmits the extracted characteristic information of the object to the controller 134 or the big data generator 135 .

인공 지능 연산부(133)는 영상 데이터를 바탕으로 관찰 대상체의 식별하거나 식별된 관찰 대상체로부터 특성 정보를 생성할 수 있다. 예를 들면, 인공 지능 연산부(133)는 딥 러닝(Deep learning) 기법과 같은 머신 러닝 기반의 인식 알고리즘을 사용하여 수신된 영상을 분석할 수 있다. 인공 지능 연산부(133)는 수신된 영상에서 미리 설정된 사람, 동물, 차량, 시설물들을 식별해 낸다. 그리고 인공 지능 연산부(133)는 식별된 관찰 대상체들의 특성 정보를 추출한다. 예를 들면, 인공 지능 연산부(133)는 식별된 대상체가 사람인 경우, 영상 내에서 나타난 사람의 연령, 착용한 의복의 종류 및 칼라, 사람의 표정, 소지품을 구분해 낼 수 있다. 인공 지능 연산부(133)는 사람이 소지한 물체가 총기나 흉기인 경우, 영상 데이터 상에 나타난 총기나 흉기의 패턴을 인식하여 관제부(134)에 알람을 전달할 수 있다. 인공 지능 연산부(133)는 사람의 얼굴을 인식하여 지명 수배자나 실종 신고자인지 판단할 수도 있다. 또는, 인공 지능 연산부(133)는 사람의 표정을 식별하여, 범죄나 자살 징후를 판단하여 관제부(134)에 전달할 수 있다. 여기서, 인공 지능 연산부(133)는, 예를 들면, 특정 알고리즘으로 구현되는 소프트웨어 형태로 제공될 수 있다. 또는, 인공 지능 연산부(133)는 인공 지능 연산을 수행하기 위한 별도의 프로세서(예를 들면, Network Processor Unit)나 시스템으로 구현될 수도 있을 것이다.The artificial intelligence calculating unit 133 may identify an object to be observed based on the image data or generate characteristic information from the identified object to be observed. For example, the artificial intelligence operation unit 133 may analyze the received image using a machine learning-based recognition algorithm such as a deep learning technique. The artificial intelligence calculating unit 133 identifies preset people, animals, vehicles, and facilities from the received image. And the artificial intelligence calculation unit 133 extracts characteristic information of the identified observation objects. For example, when the identified object is a human, the artificial intelligence calculating unit 133 may distinguish the age of the person shown in the image, the type and color of the clothes worn, the person's expression, and the belongings. When the object possessed by the person is a firearm or a weapon, the artificial intelligence calculating unit 133 may recognize a pattern of the firearm or weapon displayed on the image data and transmit an alarm to the control unit 134 . The artificial intelligence calculation unit 133 may recognize a person's face and determine whether the person is a wanted person or a missing person. Alternatively, the artificial intelligence calculation unit 133 may identify a person's expression, determine a crime or suicide sign, and transmit it to the control unit 134 . Here, the artificial intelligence operation unit 133 may be provided in the form of software implemented with a specific algorithm, for example. Alternatively, the artificial intelligence operation unit 133 may be implemented as a separate processor (eg, a network processor unit) or a system for performing an artificial intelligence operation.

관제부(134)는 영상 분석부(132)로부터 제공되는 대상체의 특성 정보를 바탕으로 위급 상황이나 이상 상황에서 준비된 대응 방안을 수행할 수 있다. 예를 들면, 영상 분석부(132)로부터 영상에 나타난 사람이 심장마비와 같은 위급 상황으로 판단되는 경우, 관제부(134)는 해당 사건이 발생한 시간, 위치 정보와 함께 이러한 위급 상황을 소방서나 유관 기관에 신고할 수 있다. 또는, 관제부(134)는 시설물의 고장, 파손과 같은 상황에는 시설물 관리 기관에 이러한 상황을 캡쳐된 영상과 함께 시간 및 위치 정보를 제공할 수 있을 것이다.The control unit 134 may perform a prepared response plan in an emergency or abnormal situation based on the characteristic information of the object provided from the image analysis unit 132 . For example, when it is determined by the image analysis unit 132 that the person appearing in the image is an emergency such as a heart attack, the control unit 134 reports such an emergency to a fire station or a related party along with time and location information of the event. You can report it to the agency. Alternatively, the control unit 134 may provide time and location information along with an image captured in such a situation to a facility management organization in a situation such as a failure or damage of a facility.

빅데이터 생성부(135)는 영상 분석부(132)로부터 제공되는 특성 정보로부터 빅데이터(Big data)를 생성한다. 예를 들면, 빅데이터 생성부(135)는 특정 위치 및 특정 시간에서의 사람들의 의복의 특징을 빅데이터로 생성할 수 있다. 예를 들면, 영상 데이터가 산책로에 해당하는 경우, 빅데이터 생성부(135)는 사람들의 성별 및 연령별 의복이나 신발의 칼라, 액세서리의 종류 등을 분석하여 빅데이터로 생성할 수 있다. 예컨대, 빅데이터 생성부(135)는 5월 2째 주에는 영상이 촬영된 등산로에서는40대 여자들은 분홍색 상의, 검은색 하의의 등산복을 착용하는 배율이 60%임을 빅데이터로 생성할 수 있다. 또는, 빅데이터 생성부(135)는 기온 및 시간에 따라 사람들이 착용하는 액세서리의 종류나 칼라와 같은 특징을 시기별로 분석하여 빅데이터로 생성할 수 있다. 빅데이터 생성부(135)는 생성된 빅데이터를 빅데이터 저장부(136)에 저장할 것이다.The big data generating unit 135 generates big data from the characteristic information provided from the image analyzing unit 132 . For example, the big data generating unit 135 may generate the characteristics of people's clothes at a specific location and at a specific time as big data. For example, when the image data corresponds to a walking trail, the big data generating unit 135 may generate big data by analyzing the color of clothes or shoes, types of accessories, etc. by gender and age of people. For example, the big data generating unit 135 may generate big data with a magnification of 60% for women in their 40s to wear pink tops and black bottoms mountaineering clothes on a hiking trail where an image was taken in the second week of May. Alternatively, the big data generating unit 135 may generate big data by analyzing characteristics such as types and colors of accessories worn by people according to temperature and time by period. The big data generator 135 will store the generated big data in the big data storage 136 .

빅데이터 저장부(136)에는 빅데이터 생성부(135)에서 생성된 제반 빅데이터가 저장된다. 빅데이터 저장부(136)에 저장된 빅데이터는 특성 정보에 대한 수요처에 판매될 수 있다. 예를 들면, 특정 장소에서의 시기별, 연령별 의복의 종류, 칼라, 액세서리에 대한 정보는 의류 회사에 빅데이터로 판매될 수 있을 것이다. 또는, 특정 시설물의 훼손이나 고장 여부는 시설물을 관리하는 유관 기관에 판매될 수도 있다. The big data storage unit 136 stores general big data generated by the big data generation unit 135 . The big data stored in the big data storage unit 136 may be sold to a demanding place for characteristic information. For example, information on types, colors, and accessories of clothes by time and age in a specific place may be sold as big data to a clothing company. Alternatively, the damage or breakdown of a specific facility may be sold to a related organization that manages the facility.

이상에서는 본 발명의 관제 서버(130)의 구성이 예시적으로 설명되었다. 하지만, 본 발명의 관제 서버(130)의 구성이나 기능은 도시된 예에만 국한되지 않는다. 예컨대, 인공 지능 연산부(133)는 영상 분석부(132)의 외부에 인공 지능 연산을 위한 별도의 장치로 제공될 수도 있을 것이다. 또한, 빅데이터 저장부(136)는 네트워크(120)로 연결된 스토리지로 구성될 수도 있을 것이다.In the above, the configuration of the control server 130 of the present invention has been exemplarily described. However, the configuration or function of the control server 130 of the present invention is not limited to the illustrated example. For example, the artificial intelligence operation unit 133 may be provided as a separate device for artificial intelligence operation outside the image analysis unit 132 . In addition, the big data storage unit 136 may be configured as a storage connected to the network 120 .

도 4는 본 발명의 실시 예에 따른 통신 장치를 사용하여 시설물을 관리하는 예를 간략히 보여주는 도면이다. 도 4를 참조하면, 웨어러블 장치로 구현된 통신 장치(110)를 착용 또는 소지한 사용자(170)가 산책로(140)를 지나는 형태가 도시되어 있다.4 is a diagram schematically illustrating an example of facility management using a communication device according to an embodiment of the present invention. Referring to FIG. 4 , a form in which a user 170 wearing or possessing a communication device 110 implemented as a wearable device passes through a walking path 140 is illustrated.

사용자(170)가 착용한 통신 장치(110)의 카메라, 마이크, 또는 다양한 센서들이 센싱한 데이터는 네트워크(120)를 통해서 실시간으로 관제 서버(130, 도 1 및 3 참조)로 전송된다. 예를 들면, 사용자(170)가 산책로(140)를 이동하는 중에 카메라를 통해서 센싱된 영상 데이터가 관제 서버(130)에 전송될 수 있다. 관제 서버(130)는 인공 지능 연산부(133)를 통해서 영상 데이터 상에서 관찰 대상체를 식별하고, 식별된 관찰 대상체에 대한 특성 정보를 추출할 것이다. Data sensed by the camera, microphone, or various sensors of the communication device 110 worn by the user 170 is transmitted to the control server 130 (refer to FIGS. 1 and 3 ) in real time through the network 120 . For example, image data sensed through the camera may be transmitted to the control server 130 while the user 170 is moving the walking path 140 . The control server 130 will identify the object to be observed on the image data through the artificial intelligence operation unit 133 and extract characteristic information about the identified object to be observed.

예를 들면, 전송된 영상 내에서 산책로(140)가 등장하는 경우, 인공 지능 연산부(133)는 해당 관찰 대상체를 산책로 또는 시설물로 식별할 수 있다. 인공 지능 연산부(133)는 산책로(140)를 구성하는 시설물들의 상태를 식별할 수 있다. 즉, 인공 지능 연산부(133)는 산책로 내의 가로등(152, 154), 벤치(156)의 관리 상태나 쓰레기(160) 투기 여부와 같은 미화 상태, 또는 계단이나 산책로 자체의 파손 여부 등을 판단할 수 있다. 전송된 영상에 가로등(152, 154)이 등장하는 경우, 인공 지능 연산부(133)는 해당 관찰 대상체를 가로등으로 식별할 수 있다. 그리고 인공 지능 연산부(133)는 식별된 가로등의 특성 정보를 추출한다. 예를 들면, 인공 지능 연산부(133)는 가로등의 훼손 상태, 점멸 상태 등을 식별하여 고장 여부도 판단할 수 있다. For example, when the trail 140 appears in the transmitted image, the artificial intelligence calculating unit 133 may identify the object to be observed as a trail or a facility. The artificial intelligence operation unit 133 may identify the state of the facilities constituting the trail 140 . That is, the artificial intelligence calculation unit 133 can determine whether the street lights 152 and 154 and the bench 156 in the walkway are managed or the beautification state such as whether the garbage 160 is dumped, or the stairs or the walkway itself is damaged. have. When the street lamps 152 and 154 appear in the transmitted image, the artificial intelligence calculating unit 133 may identify the object to be observed as the street lamp. And the artificial intelligence calculation unit 133 extracts the characteristic information of the identified street light. For example, the artificial intelligence calculating unit 133 may also determine whether a street lamp is broken by identifying a damaged state, a blinking state, and the like.

전송된 영상 내에 사람(180)이 등장하는 경우, 인공 지능 연산부(133)는 관찰 대상체를 사람(180)으로 식별한다. 그리고 인공 지능 연산부(133)는 식별된 사람(180)으로부터 특성 정보를 추출한다. 예를 들면, 인공 지능 연산부(133)는 사람(180의 성별 및 연령, 착용한 의복이나 신발의 칼라, 착용한 액세서리의 등을 분석하여 빅데이터 구성을 위한 소스 데이터로 제공할 수 있다.When the person 180 appears in the transmitted image, the artificial intelligence calculating unit 133 identifies the object to be observed as the person 180 . And the artificial intelligence calculating unit 133 extracts characteristic information from the identified person 180 . For example, the artificial intelligence calculating unit 133 may analyze a person (the gender and age of 180, the color of clothes or shoes worn, accessories worn, etc.) and provide it as source data for big data configuration.

도 5는 본 발명의 일 실시 예에 따른 관제 서버의 동작 방법을 보여주는 순서도이다. 도 4 및 도 5를 참조하면, 관제 서버(130, 도 3 참조)는 인공 지능 연산을 사용하여 관찰 대상체의 영상 데이터를 분석하고, 관찰 대상체의 상태나 상황에 대한 식별을 고도화시킬 수 있다.5 is a flowchart illustrating a method of operating a control server according to an embodiment of the present invention. Referring to FIGS. 4 and 5 , the control server 130 (refer to FIG. 3 ) may analyze image data of an observation object using artificial intelligence operation, and may enhance identification of the state or situation of the object to be observed.

S110 단계에서, 관제 서버(130)는 네트워크(120)를 통해서 전송되는 영상 정보를 수신한다. 사용자(170)가 장착한 통신 장치(110)로부터 정보가 실시간으로 수집되어 주기적으로 또는 비주기적으로 관제 서버(130)에 전송될 수 있다. 여기에서, 통신 장치(110)가 전송하는 정보에는 통신 장치(110)에 구비된 전방 카메라나 후방 카메라에 의해 촬영된 영상, 마이크를 통해서 샘플링된 음향 데이터, GPS 정보 등이 포함될 수 있다.In step S110 , the control server 130 receives image information transmitted through the network 120 . Information may be collected in real time from the communication device 110 mounted by the user 170 and transmitted to the control server 130 periodically or aperiodically. Here, the information transmitted by the communication device 110 may include an image captured by a front camera or a rear camera provided in the communication device 110 , sound data sampled through a microphone, GPS information, and the like.

S120 단계에서, 관제 서버(130)는 통신 장치(110)에서 전송된 정보로부터 사람이나 동물, 또는 시설물을 인식한다. 좀더 구체적으로, 영상 분석부(132)는 수신된 영상 데이터를 사용하여 관찰 대상체를 식별한다. 예를 들면, 영상 분석부(132)는 영상 데이터 내에서 사람이나 차량, 동물, 또는 지정된 특정 시설물을 식별할 수 있다. 영상 분석부(132)는 사람이나 차량, 동물, 또는 지정된 특정 시설물을 식별하기 위해 인공 지능 연산부(133)를 사용한다. In step S120 , the control server 130 recognizes a person, an animal, or a facility from the information transmitted from the communication device 110 . More specifically, the image analyzer 132 identifies the object to be observed by using the received image data. For example, the image analyzer 132 may identify a person, a vehicle, an animal, or a specified specific facility in the image data. The image analysis unit 132 uses the artificial intelligence operation unit 133 to identify a person, a vehicle, an animal, or a specified specific facility.

S130 단계에서, 관제 서버(130)는 영상 분석부(132)에 의해서 식별된 관찰 대상체의 특성 정보를 바탕으로 이상 징후를 판단할 수 있다. 또는, 관제 서버(130)는 사용자(170)가 통신 장치(110)의 비상 버튼을 누르거나 음향 정보를 분석하여 이상 상황을 감지할 수 있다. 또는, 영상 분석부(132)에 의해서 시설물이 훼손되거나, 쓰레기 무산 투기 상태가 감지되는 경우, 관제 서버(130)는 이상 징후가 존재하는 것으로 판단할 것이다. 이상 징후가 존재하는 것으로 판단되면, 절차는 S140 단계로 진행된다. 반면, 이상 징후가 감지되지 못한 경우, 관제를 위한 제반 절차는 종료될 것이다.In step S130 , the control server 130 may determine an abnormality based on the characteristic information of the object to be observed identified by the image analysis unit 132 . Alternatively, the control server 130 may detect an abnormal situation by the user 170 pressing the emergency button of the communication device 110 or analyzing sound information. Alternatively, when a facility is damaged by the image analysis unit 132 or a garbage disposal state is detected, the control server 130 will determine that an abnormal symptom exists. If it is determined that an abnormal symptom exists, the procedure proceeds to step S140. On the other hand, if no abnormality is detected, all procedures for control will be terminated.

S140 단계에서, 관제 서버(130)의 관제부(134, 도 3 참조)는 비상 상황이 발생했음을 유관 기관이나 관계자들에게 알린다. 관제 서버(130)는 통신 장치(110)로부터 전송된 정보를 이용하여 위급 상황을 관리할 수 있다. 관제 서버(130)는 비상 상황에 처해 있는 사용자(170)나 그 주변 사람들을 보호하기 위해 경찰이나 소방서와 같은 유관 기관에 분석된 정보를 제공할 수 있다. 또는, 관제 서버(130)는 고장이나 훼손된 시설물의 상태를 시설물 관리 기관에 전달할 수 있을 것이다. In step S140 , the control unit 134 (refer to FIG. 3 ) of the control server 130 notifies related organizations or persons concerned that an emergency situation has occurred. The control server 130 may manage an emergency situation by using information transmitted from the communication device 110 . The control server 130 may provide the analyzed information to a related organization, such as a police or fire department, in order to protect the user 170 or people around him in an emergency situation. Alternatively, the control server 130 may deliver the state of a broken or damaged facility to a facility management organization.

이상에서는 관제 서버(130)가 비상 상황을 인식하고 대처하는 실시 예가 간략히 설명되었다. 관제 서버(130)는 인공 지능(AI)을 사용하여 다양한 관찰 대상체를 인식하고, 인식된 관찰 대상체의 구체적인 상태까지 파악할 수 있다. 웨어러블 기기로 구현된 통신 장치(110)로부터 실시간으로 수집된 정보로부터 정확한 위급 상황이나 관리 상태 정보를 추출할 수 있다. 따라서, 본 발명의 관제 서비스 시스템(100)을 사용하면 사용자(170)나 시설물들의 상태를 신속히 파악하고 대처할 수 있을 것으로 기대된다. 도시되지는 않았지만, 관제 서버(130)는 사용자(170)가 소지한 통신 장치(110)에서 전송되는 정보를 지속적으로 수신하고 S110 단계 내지 S140 단계를 반복할 수 있다. In the above, an embodiment in which the control server 130 recognizes and responds to an emergency situation has been briefly described. The control server 130 may recognize various observation objects using artificial intelligence (AI), and may also grasp a specific state of the recognized object to be observed. It is possible to extract accurate emergency situation or management status information from information collected in real time from the communication device 110 implemented as a wearable device. Therefore, using the control service system 100 of the present invention, it is expected that the user 170 or the state of the facilities can be quickly identified and dealt with. Although not shown, the control server 130 may continuously receive information transmitted from the communication device 110 possessed by the user 170 and repeat steps S110 to S140.

도 6은 본 발명의 다른 실시 예에 따른 관제 서버의 동작을 보여주는 순서도이다. 도 4 및 도 6을 참조하면, 관제 서버(130, 도 3 참조)는 인공 지능 연산을 사용하여 관찰 대상체의 영상 데이터를 분석하고, 분석 결과를 빅데이터로 생성할 수 있다. 6 is a flowchart illustrating an operation of a control server according to another embodiment of the present invention. Referring to FIGS. 4 and 6 , the control server 130 (refer to FIG. 3 ) may analyze image data of an observation object using an artificial intelligence operation, and may generate the analysis result as big data.

S210 단계에서, 관제 서버(130)는 네트워크(120)를 통해서 전송되는 정보를 수신한다. 사용자(170)가 장착한 통신 장치(110)로부터 정보가 실시간으로 수집되어 주기적으로 또는 비주기적으로 관제 서버(130)에 전송될 수 있다. 여기에서, 통신 장치(110)가 전송하는 정보에는 통신 장치(110)에 구비된 전방 카메라나 후방 카메라에 의해 촬영된 영상, 마이크를 통해서 샘플링된 음향 데이터, GPS 정보 등이 포함될 수 있다.In step S210 , the control server 130 receives information transmitted through the network 120 . Information may be collected in real time from the communication device 110 mounted by the user 170 and transmitted to the control server 130 periodically or aperiodically. Here, the information transmitted by the communication device 110 may include an image captured by a front camera or a rear camera provided in the communication device 110 , sound data sampled through a microphone, GPS information, and the like.

S220 단계에서, 관제 서버(130)는 통신 장치(110)에서 전송된 정보로부터 관찰 대상체를 식별할 수 있다. 예를 들면, 인공 지능 연산부(133)는 영상 데이터를 바탕으로 관찰 대상체의 식별 및 추적할 수 있다. 예를 들면, 인공 지능 연산부(133)는 딥 러닝(Deep learning) 기법과 같은 머신 러닝 기반의 인식 알고리즘을 사용하여 입력되는 영상을 분석할 수 있다. 인공 지능 연산부(133)는 입력되는 영상에서 미리 설정된 사람, 동물, 차량, 시설물들을 식별해 낸다. In step S220 , the control server 130 may identify the object to be observed from the information transmitted from the communication device 110 . For example, the artificial intelligence calculating unit 133 may identify and track the object to be observed based on the image data. For example, the artificial intelligence operation unit 133 may analyze an input image using a machine learning-based recognition algorithm such as a deep learning technique. The artificial intelligence calculating unit 133 identifies preset people, animals, vehicles, and facilities from the input image.

S230 단계에서, 관제 서버(130)는 S220 단계에서 식별된 관찰 대상체들의 특성 정보를 추출한다. 예를 들면, 인공 지능 연산부(133)는 식별된 관찰 대상체가 사람인 경우, 영상 내에서 나타난 사람의 연령, 착용한 의복의 종류 및 칼라, 사람의 표정, 소지품을 구분해 낼 수 있다. 인공 지능 연산부(133)는 사람이 소지한 물체가 총기나 흉기인 경우, 영상 데이터 상에 나타난 총기나 흉기의 패턴을 인식할 수 있다. 인공 지능 연산부(133)는 사람의 얼굴을 인식하여 지명 수배자나 실종 신고자인지 판단할 수 있다. 위급 상황으로 판단되는 경우, 관제부(134)는 위급 상황 매뉴얼에 따라 신고 절차를 진행할 수도 있을 것이다. In step S230, the control server 130 extracts characteristic information of the observation objects identified in step S220. For example, when the identified object to be observed is a human, the artificial intelligence calculating unit 133 may distinguish the age of the person appearing in the image, the type and color of the clothes worn, the person's expression, and the belongings. When the object possessed by the person is a firearm or a weapon, the artificial intelligence calculating unit 133 may recognize a pattern of the firearm or weapon displayed on the image data. The artificial intelligence calculation unit 133 may recognize a person's face and determine whether the person is a wanted person or a missing person. When it is determined as an emergency, the control unit 134 may proceed with a report procedure according to the emergency manual.

S240 단계에서, 관제 서버(130)는 식별된 관찰 대상체로부터 추출된 특성 정보를 이용하여 빅데이터를 생성할 수 있다. 예를 들면, 빅데이터 생성부(135)는 특정 위치 및 특정 시간 대에서의 사람들의 의복의 특징을 빅데이터로 생성할 수 있다. 위치 정보가 산책로에 해당하는 경우, 빅데이터 생성부(135)는 사람들의 성별 및 연령별 의복이나 신발의 칼라, 액세서리의 종류 등을 분석하여 빅데이터로 생성할 수 있다. 또는, 빅데이터 생성부(135)는 기온 및 시간에 따라 사람들이 착용하는 액세서리의 종류나 칼라와 같은 특징을 시기별로 분석하여 빅데이터로 생성할 수 있다. In step S240 , the control server 130 may generate big data using characteristic information extracted from the identified observation object. For example, the big data generating unit 135 may generate the characteristics of people's clothes at a specific location and at a specific time as big data. When the location information corresponds to a walking trail, the big data generator 135 may generate big data by analyzing the color of people's clothes or shoes by gender and age, the types of accessories, and the like. Alternatively, the big data generating unit 135 may generate big data by analyzing characteristics such as types and colors of accessories worn by people according to temperature and time by period.

S250 단계에서, 빅데이터 생성부(135)에서 생성된 빅데이터는 빅데이터 저장부(136)에 저장된다. 빅데이터 저장부(136)에 저장된 빅데이터는 실시간 또는 추후에 해당 빅데이터를 요구하는 개인이나 업체에 판매될 수 있을 것이다.In step S250 , the big data generated by the big data generation unit 135 is stored in the big data storage unit 136 . The big data stored in the big data storage unit 136 may be sold in real time or later to individuals or companies that request the corresponding big data.

이상에서는 관제 서버(130)가 빅데이터를 생성 및 저장하는 실시 예가 간략히 설명되었다. 관제 서버(130)는 인공 지능(AI)을 사용하여 다양한 관찰 대상체를 인식하고, 인식된 관찰 대상체의 특성 정보로부터 빅데이터를 생성할 수 있다. An embodiment in which the control server 130 generates and stores big data has been briefly described above. The control server 130 may recognize various observation objects using artificial intelligence (AI) and generate big data from characteristic information of the recognized observation objects.

도 7은 본 발명의 통신 장치를 사용하여 시설물을 관리하는 다른 예를 간략히 보여주는 도면이다. 도 7을 참조하면, 통신 장치(110)를 장착한 차량(210)의 움직임에 따라 다양한 정보가 수집될 수 있다.7 is a diagram schematically illustrating another example of managing a facility using the communication device of the present invention. Referring to FIG. 7 , various information may be collected according to the movement of the vehicle 210 in which the communication device 110 is mounted.

차량(210)에 장착된 통신 장치(110)는 카메라, 마이크 또는 다양한 센서들을 포함할 수 있다. 차량(210)이 도로 상에서 이동하는 동안, 통신 장치(110)가 센싱한 데이터는 네트워크(120)를 통해서 실시간으로 관제 서버(130, 도 1 및 3 참조)로 전송된다. 예를 들면, 차량(210)이 고속 도로를 주행중인 경우, 통신 장치(110)의 카메라가 촬영한 영상 데이터가 관제 서버(130)로 전송될 수 있다. 관제 서버(130)는 인공 지능 연산부(133)를 통해서 카메라를 통해서 수집된 영상에서 관찰 대상체를 식별하고, 식별된 관찰 대상체에 대한 특성 정보를 추출할 수 있다. The communication device 110 mounted on the vehicle 210 may include a camera, a microphone, or various sensors. While the vehicle 210 is moving on the road, the data sensed by the communication device 110 is transmitted to the control server 130 (refer to FIGS. 1 and 3 ) in real time through the network 120 . For example, when the vehicle 210 is traveling on a highway, image data captured by the camera of the communication device 110 may be transmitted to the control server 130 . The control server 130 may identify the object to be observed from the image collected through the camera through the artificial intelligence operation unit 133 and extract characteristic information about the identified object to be observed.

예를 들면, 인공 지능 연산부(133)는 전송된 영상 내에서 차량이 주행중인 곳이 고속 도로임을 식별할 수 있다. 그리고 인공 지능 연산부(133)는 고속 도로의 시설물들을 관찰 대상체로 구분하고, 구분된 관찰 대상체들의 상태를 인식할 수 있다. 즉, 인공 지능 연산부(133)는 고속 도로의 중앙 분리대, 차선들의 상태를 파악하여 보수가 필요한지를 판단할 수 있다. 더불어, 인공 지능 연산부(133)는 고속 도로에 형성된 포트 홀과 같은 도로 파손(230)이나 중앙 분리대, 차선들의 상태를 파악하여 보수가 필요한지를 판단할 수 있다. 또한, 인공 지능 연산부(133)는 신호등이나 도로 주변의 가로등(240)의 고장이나 훼손 여부를 판단할 수 있다. 더불어, 인공 지능 연산부(133)는 영상 데이터를 기초로 차량(210)의 앞이나 뒤, 또는 좌우에서 고속 도로를 주행하는 타 차량들을 관찰 대상체로 식별하고 추적할 수 있다. 만일, 관찰 대상체로 식별된 차량(220)이 위협 운전이나 난폭 운전을 하는 것으로 식별되면, 인공 지능 연산부(133)는 해당 차량의 차량 번호와 위법을 증명하는 영상을 관제부(134)를 통해 유관 기관에 신고할 수 있다. For example, the artificial intelligence calculating unit 133 may identify a highway in which the vehicle is traveling in the transmitted image. In addition, the artificial intelligence calculating unit 133 may classify the facilities of the highway as observation objects, and recognize the state of the divided observation objects. That is, the artificial intelligence calculating unit 133 may determine whether repair is necessary by identifying the state of the median zone and lanes of the expressway. In addition, the artificial intelligence calculating unit 133 may determine whether repair is necessary by identifying the state of road damage 230 such as a port hole formed on a highway, a median zone, and lanes. Also, the artificial intelligence calculating unit 133 may determine whether a traffic light or a street light 240 near a road is broken or damaged. In addition, the artificial intelligence calculation unit 133 may identify and track other vehicles traveling on a highway in front, behind, or left and right of the vehicle 210 as an observation object based on the image data. If the vehicle 220 identified as an observation object is identified as threatening driving or reckless driving, the artificial intelligence calculation unit 133 relates the vehicle number of the vehicle and an image proving the illegality through the control unit 134 . You can report it to the agency.

도 8은 본 발명의 다른 실시 예에 따른 관제 서버의 동작 방법을 보여주는 순서도이다. 도 4, 도 7 및 도 8를 참조하면, 관제 서버(130, 도 3 참조)는 인공 지능(AI)을 사용하여 관찰 대상체의 영상 데이터를 분석하고, 관찰 대상체의 상태나 상황에 대한 식별을 고도화시킬 수 있다.8 is a flowchart illustrating a method of operating a control server according to another embodiment of the present invention. 4, 7 and 8 , the control server 130 (refer to FIG. 3 ) analyzes the image data of the object to be observed using artificial intelligence (AI), and advanced identification of the state or situation of the object to be observed. can do it

S310 단계에서, 관제 서버(130)는 네트워크(120)를 통해서 전송되는 차량(210)에 장착된 통신 장치(110)로부터 전송된 영상 정보를 수신한다. 여기서, 영상 정보뿐만 아니라 차량(210)에 장착된 통신 장치(110)로부터 실시간으로 수집된 다양한 정보들이 주기적으로 또는 비주기적으로 관제 서버(130)에 전송될 수 있다. 예컨대, 통신 장치(110)가 전송하는 정보에는 통신 장치(110)에 구비된 전방 카메라나 후방 카메라에 의해 촬영된 영상, 마이크를 통해서 샘플링된 음향 데이터, GPS 정보, 생체 정보 등이 더 포함될 수 있다.In step S310 , the control server 130 receives image information transmitted from the communication device 110 mounted on the vehicle 210 transmitted through the network 120 . Here, various information collected in real time from the communication device 110 mounted on the vehicle 210 as well as image information may be periodically or aperiodically transmitted to the control server 130 . For example, the information transmitted by the communication device 110 may further include an image captured by a front camera or a rear camera provided in the communication device 110, sound data sampled through a microphone, GPS information, biometric information, and the like. .

S320 단계에서, 관제 서버(130)는 통신 장치(110)에서 전송된 정보로부터 시설물이나 관리 대상체들을 인식한다. 좀더 구체적으로, 영상 분석부(132)는 수신된 영상 데이터를 사용하여 관찰 대상체를 식별한다. 영상 분석부(132)는 영상 데이터 내에서 사람이나 차량, 동물, 또는 특정 시설물을 식별할 수 있다. 더불어, 영상 분석부(132)는 식별된 관찰 대상체들을 추적하거나, 관찰 대상체들의 상태를 식별하여 특성 정보를 추출할 수 있다. 영상 분석부(132)는 사람이나 차량, 동물, 또는 지정된 특정 시설물을 식별하기 위해 인공 지능 연산부(133)를 사용할 수 있다. In step S320 , the control server 130 recognizes facilities or management objects from information transmitted from the communication device 110 . More specifically, the image analyzer 132 identifies the object to be observed by using the received image data. The image analyzer 132 may identify a person, a vehicle, an animal, or a specific facility within the image data. In addition, the image analyzer 132 may extract characteristic information by tracking the identified observation objects or identifying states of the objects to be observed. The image analysis unit 132 may use the artificial intelligence calculation unit 133 to identify a person, vehicle, animal, or a specified specific facility.

S330 단계에서, 관제 서버(130)는 영상 분석부(132)에 의해서 추출된 관찰 대상체의 특성 정보를 바탕으로 이상 징후를 판단할 수 있다. 또는, 관제 서버(130)는 사용자(170)가 통신 장치(110)의 비상 버튼을 누르거나 음향 정보를 분석하여 이상 상황을 감지할 수 있다. 또는, 영상 분석부(132)에 의해서 시설물이 훼손되거나, 보수가 필요한 것으로 판단되면, 관제 서버(130)는 이상 징후가 존재하는 것으로 판단할 것이다. 이상 징후가 존재하는 것으로 판단되면, 절차는 S340 단계로 진행된다. 반면, 이상 징후가 감지되지 못한 경우, 수신된 특정 단위의 영상에 대한 처리 절차는 종료될 것이다. In step S330 , the control server 130 may determine an abnormality based on the characteristic information of the object to be observed extracted by the image analysis unit 132 . Alternatively, the control server 130 may detect an abnormal situation by the user 170 pressing the emergency button of the communication device 110 or analyzing sound information. Alternatively, if the image analysis unit 132 determines that the facility is damaged or needs repair, the control server 130 will determine that there is an abnormality. If it is determined that an abnormal symptom exists, the procedure proceeds to step S340. On the other hand, if no abnormality is detected, the processing procedure for the received image of a specific unit will be terminated.

S140 단계에서, 관제 서버(130)의 관제부(134, 도 3 참조)는 비상 상황이 발생했음을 유관 기관이나 관계자들에게 알람을 전송하거나 신고한다. 관제 서버(130)는 통신 장치(110)로부터 전송된 정보를 이용하여 위급 상황을 관리할 수 있다. 관제 서버(130)는 비상 상황에 처해 있는 차량(210)을 구호하기 위해 경찰이나 소방서와 같은 유관 기관에 분석된 정보를 제공할 수 있다. 또는, 관제 서버(130)는 고장이나 훼손된 시설물의 상태를 시설물 관리 기관에 전달할 수 있을 것이다. 더불어, 관제 서버(130)는 시설물들의 상태를 빅데이터 저장부(136)에 저장할 수도 있다. 도시되지는 않았지만, 관제 서버(130)는 차량(210)에 장착된 통신 장치(110)에서 전송되는 정보를 지속적으로 수신하고 S310 단계 내지 S340 단계를 반복할 수 있다. In step S140 , the control unit 134 (refer to FIG. 3 ) of the control server 130 transmits or reports an alarm to related organizations or persons concerned that an emergency situation has occurred. The control server 130 may manage an emergency situation by using information transmitted from the communication device 110 . The control server 130 may provide the analyzed information to a related organization, such as a police station or a fire station, in order to rescue the vehicle 210 in an emergency situation. Alternatively, the control server 130 may deliver the state of a broken or damaged facility to a facility management organization. In addition, the control server 130 may store the state of the facilities in the big data storage unit 136 . Although not shown, the control server 130 may continuously receive information transmitted from the communication device 110 mounted on the vehicle 210 and repeat steps S310 to S340 .

이상에서는 관제 서버(130)가 차량(210)에 장착된 통신 장치(110)로부터 전송되는 영상 정보를 기반으로 차량의 주행 상황이나 주변 시설물들의 이상 여부를 식별하는 실시 예가 간략히 설명되었다. 관제 서버(130)는 인공 지능(AI)을 사용하여 다양한 관찰 대상체를 인식하고, 인식된 관찰 대상체의 구체적인 상태까지 파악할 수 있다. In the above, an embodiment in which the control server 130 identifies abnormalities in the driving condition of the vehicle or surrounding facilities based on image information transmitted from the communication device 110 mounted on the vehicle 210 has been briefly described. The control server 130 may recognize various observation objects using artificial intelligence (AI), and may also grasp a specific state of the recognized object to be observed.

이상에서와 같이 도면과 명세서에서 최적 실시 예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and the specification. Although specific terms have been used herein, they are only used for the purpose of describing the present invention and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.

100 : 관제 서비스 시스템
110 : 통신 장치
111 : 카메라
112 : 영상 처리 회로
113 : 통신 회로
114 : 저장 장치
115 : GPS 장치
120 : 네트워크
130 : 관제 서버
131 : 통신부
132 : 영상 분석부
133 : 인공 지능 연산부
134 : 관제부
135 : 빅데이터 생성부
136 : 빅데이터 저장부
100: control service system
110: communication device
111 : camera
112: image processing circuit
113: communication circuit
114: storage device
115: GPS device
120: network
130: control server
131: communication department
132: image analysis unit
133: artificial intelligence computation unit
134: control unit
135: big data generation unit
136: big data storage unit

Claims (5)

적어도 하나의 카메라를 통해 수집된 영상 데이터를 전송하는 통신 장치; 및
상기 통신 장치로부터 전송된 영상 데이터를 수신하고, 상기 영상 데이터 상에서 관찰 대상체를 식별하기 위해 인공 지능 연산을 수행하고, 상기 관찰 대상체의 특성 정보를 추출하고, 상기 특성 정보를 기반으로 빅데이터를 생성하는 관제 서버를 포함하되,
상기 관찰 대상체는 상기 영상 데이터에 포착된 사람, 시설물, 그리고 차량 중 적어도 하나를 포함하고, 상기 추출된 특성 정보를 기반으로 상기 시설물의 훼손 여부 또는 사람이나 상기 차량의 이상 징후를 판단하는 관제 서비스 시스템.
a communication device for transmitting image data collected through at least one camera; and
Receiving the image data transmitted from the communication device, performing an artificial intelligence operation to identify an object to be observed on the image data, extracting characteristic information of the object to be observed, and generating big data based on the characteristic information including the control server,
The observation object includes at least one of a person, a facility, and a vehicle captured in the image data, and a control service system for determining whether the facility is damaged or an abnormality of the person or the vehicle based on the extracted characteristic information .
제 1 항에 있어서,
상기 통신 장치는, 상기 통신 장치의 위치를 지시하는 GPS(Global Positioning System) 정보를 제공하는 GPS 장치를 포함하는 관제 서비스 시스템.
The method of claim 1,
The communication device includes a GPS device that provides Global Positioning System (GPS) information indicating a location of the communication device.
제 1 항에 있어서,
상기 관제 서버는:
상기 영상 데이터로부터 상기 관찰 대상체를 식별하고, 상기 관찰 대상체의 특성 정보를 추출하는 영상 분석부; 및
상기 관찰 대상체의 특성 정보로부터 상기 빅데이터를 생성하는 빅데이터 생성부를 포함하는 관제 서비스 시스템.
The method of claim 1,
The control server is:
an image analysis unit for identifying the object to be observed from the image data and extracting characteristic information of the object to be observed; and
and a big data generator for generating the big data from the characteristic information of the observation object.
제 3 항에 있어서,
상기 영상 분석부는 상기 관찰 대상체를 식별하거나 상기 관찰 대상체의 특성 정보를 추출하기 위한 인공 지능 연산을 수행하는 인공 지능 연산부를 포함하는 관제 서비스 시스템.
4. The method of claim 3,
The image analysis unit control service system including an artificial intelligence operation unit for performing an artificial intelligence operation for identifying the observation object or extracting characteristic information of the observation object.
제 1 항에 있어서,
상기 인공 지능 연산부는 상기 관찰 대상체를 식별하기 위한 딥 러닝 또는 신경망 연산을 수행하는 관제 서비스 시스템.
The method of claim 1,
The artificial intelligence operation unit is a control service system for performing deep learning or neural network operation for identifying the object to be observed.
KR1020210186311A 2019-09-11 2021-12-23 Safety control service system unsing artifical intelligence KR20220000873A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210186311A KR20220000873A (en) 2019-09-11 2021-12-23 Safety control service system unsing artifical intelligence

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190113167A KR102344435B1 (en) 2019-09-11 2019-09-11 Safety control service system unsing artifical intelligence
KR1020210186311A KR20220000873A (en) 2019-09-11 2021-12-23 Safety control service system unsing artifical intelligence

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190113167A Division KR102344435B1 (en) 2019-09-11 2019-09-11 Safety control service system unsing artifical intelligence

Publications (1)

Publication Number Publication Date
KR20220000873A true KR20220000873A (en) 2022-01-04

Family

ID=75261946

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190113167A KR102344435B1 (en) 2019-09-11 2019-09-11 Safety control service system unsing artifical intelligence
KR1020210186311A KR20220000873A (en) 2019-09-11 2021-12-23 Safety control service system unsing artifical intelligence

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190113167A KR102344435B1 (en) 2019-09-11 2019-09-11 Safety control service system unsing artifical intelligence

Country Status (1)

Country Link
KR (2) KR102344435B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132596A1 (en) 2022-01-04 2023-07-13 주식회사 엘지에너지솔루션 Electrode assembly comprising anode with extension part

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102614784B1 (en) * 2021-06-02 2023-12-14 이영준 System and method for managing of bus stop facilities
KR102452234B1 (en) * 2022-01-24 2022-10-14 주식회사 백향우드 IoT-based deck road management method that determines deck road damage by deep learning-based inference model

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040043341A (en) * 2002-11-18 2004-05-24 엘지전자 주식회사 portable video terminal having a camera operation enforcing control function and controlling method therefore
KR101949525B1 (en) * 2017-11-16 2019-03-18 주식회사 아이오티봇 Safety management system using unmanned detector
KR101941994B1 (en) 2018-08-24 2019-01-24 전북대학교산학협력단 System for pedestrian detection and attribute extraction based on a joint deep network
KR101963308B1 (en) * 2018-11-08 2019-03-28 한국건설기술연구원 System for monitoring moving object and incident in image using deep learning under adverse environments and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132596A1 (en) 2022-01-04 2023-07-13 주식회사 엘지에너지솔루션 Electrode assembly comprising anode with extension part

Also Published As

Publication number Publication date
KR20210031334A (en) 2021-03-19
KR102344435B1 (en) 2021-12-29

Similar Documents

Publication Publication Date Title
KR20220000873A (en) Safety control service system unsing artifical intelligence
US11375161B2 (en) Wearable camera, wearable camera system, and information processing apparatus for detecting an action in captured video
KR101644443B1 (en) Warning method and system using prompt situation information data
JP5894807B2 (en) Surveillance device, surveillance camera system, and video transmission method
CN109684989A (en) Safety custody method, apparatus, terminal and computer readable storage medium
KR20120052637A (en) Object tracking apparatus and method of camera and secret management system
KR101481051B1 (en) Private black box apparatus and driviing method thereof
JP7052305B2 (en) Relief systems and methods, as well as the servers and programs used for them.
CN106529401A (en) Vehicle anti-tracking method, vehicle anti-tracking device and vehicle anti-tracking system
US11074804B2 (en) Wearable personal security devices and systems
KR20160074208A (en) System and method for providing safety service using beacon signals
CN107672625A (en) High-speed railway circumference intrusion alarm system
JP2018061213A (en) Monitor video analysis system and monitor video analysis method
US20220279119A1 (en) Method and system for activity detection with obfuscation
Chang et al. Video surveillance for hazardous conditions using sensor networks
KR101844382B1 (en) Wearable communication device
KR102480424B1 (en) Personal mobility having local monitogring function
JP2017167800A (en) Monitoring system, information processor, monitoring method, and monitoring program
JP5669302B2 (en) Behavior information collection system
CN209803819U (en) Face recognition recorder
KR101473971B1 (en) The multi-functional anti-crime camera system
JP2021036646A (en) Information collection system, camera terminal device, information collection method and information collection program
KR20020082476A (en) Surveillance method, system and module
CN108416953B (en) Intelligent optical fiber perimeter alarm system
KR20210068368A (en) System of safety control service using wearable communication device

Legal Events

Date Code Title Description
A107 Divisional application of patent