KR102297766B1 - Ai camera device and edge device for generating and processing image data in edge computing system - Google Patents

Ai camera device and edge device for generating and processing image data in edge computing system Download PDF

Info

Publication number
KR102297766B1
KR102297766B1 KR1020200075302A KR20200075302A KR102297766B1 KR 102297766 B1 KR102297766 B1 KR 102297766B1 KR 1020200075302 A KR1020200075302 A KR 1020200075302A KR 20200075302 A KR20200075302 A KR 20200075302A KR 102297766 B1 KR102297766 B1 KR 102297766B1
Authority
KR
South Korea
Prior art keywords
information
camera device
camera
edge
event
Prior art date
Application number
KR1020200075302A
Other languages
Korean (ko)
Inventor
권진만
Original Assignee
주식회사 크레스프리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 크레스프리 filed Critical 주식회사 크레스프리
Priority to KR1020200075302A priority Critical patent/KR102297766B1/en
Application granted granted Critical
Publication of KR102297766B1 publication Critical patent/KR102297766B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
    • G08B27/006Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations with transmission via telephone network
    • H04N5/23206
    • H04N5/23299

Abstract

Provided are an artificial intelligence (AI) camera device for processing image data in an edge computing system and an edge device thereof. According to an embodiment of the present invention, the AI camera device comprises: a photographing module generating image data; a global positioning system (GPS) module providing camera location information of the AI camera device; a sensor module providing tilt information of the AI camera device; a processor determining a photographing target position of the image data on the basis of the camera position and tilt information of the AI camera device, and detecting an event occurring at the photographing target position from the image data; and a communication module transmitting information about the event and the photographing target position to an Internet of Things (IoT) server. Accordingly, when an event such as a dangerous situation or emergency occurs during monitoring, corresponding event information and photographing target position information are transmitted together, thereby quickly making response actions.

Description

엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 AI 카메라 장치 및 엣지 디바이스{AI CAMERA DEVICE AND EDGE DEVICE FOR GENERATING AND PROCESSING IMAGE DATA IN EDGE COMPUTING SYSTEM}AI CAMERA DEVICE AND EDGE DEVICE FOR GENERATING AND PROCESSING IMAGE DATA IN EDGE COMPUTING SYSTEM

본 발명은 엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 AI 카메라 장치 및 엣지 디바이스에 관한 것으로, 보다 구체적으로 촬영된 영상 데이터를 분석하여 위험 상황 또는 응급 상황을 감지하기 위한 AI 카메라 장치 및 엣지 디바이스에 관한 것이다.The present invention relates to an AI camera device and an edge device that process image data in an edge computing system, and more particularly, to an AI camera device and an edge device for detecting a dangerous situation or emergency by analyzing captured image data .

클라이언트가 어떤 작업을 수행하기 위하여 요구하는 데이터를 인터넷 망을 통해 제공하는 클라우드 컴퓨팅 시스템이 널리 사용되고 있다. 일반적인 클라우드 컴퓨팅 시스템은 서비스 제공자의 중앙 서버에 데이터를 보관하고, 필요에 따라 데이터를 처리하여 제공한다. 다만, 클라우드 컴퓨팅의 수요가 증가하고, IoT(internet of things), 5G 통신, AI(artificial intelligence) 시스템이 도입됨에 따라 중앙 서버에서 처리하고 저장해야할 데이터 량이 기하 급수적으로 증가하게 되어, 데이터 처리의 지연과 저장 공간 부족 그리고 보안 이슈가 증가하고 있다. A cloud computing system that provides data requested by a client to perform a certain task through an Internet network is widely used. A typical cloud computing system stores data in a central server of a service provider, and processes and provides data as needed. However, as the demand for cloud computing increases and IoT (internet of things), 5G communication, and AI (artificial intelligence) systems are introduced, the amount of data to be processed and stored in the central server increases exponentially, resulting in delay in data processing and lack of storage space, and security issues are increasing.

그리하여, 상술한 클라우드 컴퓨팅 시스템을 보완하기 위한 방안으로서, 모든 데이터를 중앙 서버에서 수집하여 처리하는 대신 중앙 서버와 클라이언트 장치 사이에서 데이터를 분산 처리하는 엣지 컴퓨팅 시스템이 대두되고 있다. 엣지 컴퓨팅 시스템이 도입됨으로써, 중앙 서버에서 모든 데이터를 수집하여 처리하는 것이 아니라, 클라이언트 장치에서 실시간으로 데이터를 수집 및 처리 후 중앙 서버에 필요한 데이터만을 전송하게 된다. 그리하여, 클라이언트 장치에서 실시간으로 데이터가 처리될 수 있고, 중앙 서버의 데이터 부하량이 감소하며, 데이터의 분산 처리로 인하여 보안 이슈로 인한 리스크를 감소시킬 수 있다.Therefore, as a method to supplement the above-described cloud computing system, an edge computing system that distributes data between a central server and a client device instead of collecting and processing all data from a central server is emerging. With the introduction of the edge computing system, instead of collecting and processing all data from the central server, the client device collects and processes data in real time and then transmits only the necessary data to the central server. Thus, data can be processed in real time in the client device, the data load of the central server can be reduced, and risks due to security issues can be reduced due to distributed processing of data.

엣지 컴퓨팅 시스템은 스마트 팩토리, 스마트 시티, 스마트 팜 등 다양한 분야에 적용될 수 있다. 특히, 신속한 데이터 분석 및 처리가 필요한 상황(위험 상황, 응급 상황)에서 엣지 컴퓨팅 시스템이 효과적으로 적용될 수 있다. 그리하여, 위험 상황 또는 응급 상황을 감지하고, 해당 상황에 대한 조치를 수행하기 위한 엣지 컴퓨팅 시스템이 요구되고 있다.The edge computing system can be applied to various fields such as smart factories, smart cities, and smart farms. In particular, the edge computing system can be effectively applied in situations that require rapid data analysis and processing (risk situations, emergency situations). Therefore, there is a demand for an edge computing system for detecting a dangerous situation or an emergency situation and performing an action for the corresponding situation.

그리하여, 본 발명은 위험 상황 또는 응급 상황을 감지하기 위한 AI 카메라 장치 및 엣지 디바이스, 그리고 엣지 컴퓨팅 시스템을 제공한다. Thus, the present invention provides an AI camera apparatus and an edge device for detecting a dangerous situation or an emergency situation, and an edge computing system.

또한, 본 발명은 위험 상황 또는 응급 상황에 따른 적절한 대응을 수행하기 위한 AI 카메라 장치 및 엣지 디바이스, 그리고 엣지 컴퓨팅 시스템을 제공한다. In addition, the present invention provides an AI camera device and an edge device for performing an appropriate response according to a dangerous situation or an emergency situation, and an edge computing system.

또한, 본 발명은 효과적으로 프로그램을 작성 및 배포하기 위한 AI 카메라 장치 및 엣지 디바이스, 그리고 엣지 컴퓨팅 시스템을 제공한다.In addition, the present invention provides an AI camera device and an edge device for effectively writing and distributing a program, and an edge computing system.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확히 이해될 수 있을 것이다. The problems to be solved of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 실시예는 엣지 컴퓨팅 시스템에서 AI 카메라 장치 및 엣지 디바이스를 제공한다. 본 발명의 실시예에 따른 AI 카메라 장치는 영상 데이터를 생성하는 촬영 모듈과, 상기 AI 카메라 장치의 카메라 위치 정보를 제공하는 GPS 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈과, 상기 AI 카메라 장치의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는 프로세서와, 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT(internet of things) 서버로 전송하는 통신 모듈을 포함할 수 있다.An embodiment of the present invention provides an AI camera device and an edge device in an edge computing system. An AI camera device according to an embodiment of the present invention includes a photographing module generating image data, a GPS module providing camera location information of the AI camera device, and a sensor module providing tilt information of the AI camera device; a processor for determining a shooting target position of the image data based on camera position information and tilt information of the AI camera device, and detecting an event occurring at the shooting target position from the image data; It may include a communication module for transmitting information to an Internet of things (IoT) server.

일 실시예에서, 상기 기울기 정보는 상기 AI 카메라 장치의 상하각(elevation angle) 및 방위각(azimuth angle)을 포함할 수 있다.In an embodiment, the tilt information may include an elevation angle and an azimuth angle of the AI camera device.

일 실시예에서, 상기 센서 모듈은 상기 AI 카메라 장치의 자세 정보를 제공하는 가속도 센서와, 상기 AI 카메라 장치의 방향 정보를 제공하는 지자기 센서를 포함하고, 상기 프로세서는 상기 자세 정보 또는 상기 방향 정보에 기반하여 AI 카메라 장치의 상하각 또는 방위각 중 적어도 하나를 계산할 수 있다.In an embodiment, the sensor module includes an acceleration sensor providing posture information of the AI camera device and a geomagnetic sensor providing direction information of the AI camera device, and the processor is configured to respond to the posture information or the direction information. Based on it, at least one of an up-down angle or an azimuth angle of the AI camera device may be calculated.

일 실시예에서, 상기 프로세서는 상기 AI 카메라 장치의 높이 정보를 확인하고, 상기 AI 카메라 장치의 상하각 및 방위각을 결정하고, 상기 높이 정보, 상하각, 및 방위각에 기반하여 상기 메모리에 저장된 지도 상에서 상기 촬영 대상 위치를 맵핑할 수 있다. 여기서 상기 높이 정보는 메모리에 저장되거나, 거리 센서에 의해 측정되거나, 또는 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.In one embodiment, the processor checks the height information of the AI camera device, determines the vertical angle and the azimuth of the AI camera device, and based on the height information, the vertical angle, and the azimuth on the map stored in the memory The photographing target location may be mapped. Here, the height information may be stored in a memory, measured by a distance sensor, or calculated from barometric pressure information obtained from a barometric pressure sensor.

일 실시예에서, 상기 프로세서는 상기 영상 데이터로부터 객체를 추출하고, 상기 객체의 행동을 분석하고, 상기 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 상기 객체의 행동이 기-정의된 이벤트와 매칭되면, 상기 객체의 행동에 대응하는 이벤트 및 상기 촬영 대상 위치에 대한 정보를 상기 IoT 서버로 전송하도록 상기 통신 모듈을 제어할 수 있다.In an embodiment, the processor extracts an object from the image data, analyzes a behavior of the object, determines whether the behavior of the object matches a predefined event, and determines whether the behavior of the object is a predefined event. If the event is matched, the communication module may be controlled to transmit an event corresponding to the action of the object and information on the location to be photographed to the IoT server.

일 실시예에서, 상기 통신 모듈은 메시지 브로커 서버로부터 프로그램 배포 정보를 수신하고, 상기 프로그램 배포 정보로부터 획득된 프로그램 정보 및 상기 AI 카메라 장치의 인증 정보를 포함하는 프로그램 요청 메시지를 엣지 서버로 전송하고, 상기 엣지 서버로부터 상기 프로그램의 데이터를 다운로드하고, 상기 프로세서는 상기 프로그램의 포맷에 따라 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 생성할 수 있다. In one embodiment, the communication module receives the program distribution information from the message broker server, and transmits a program request message including the program information obtained from the program distribution information and the authentication information of the AI camera device to the edge server, The data of the program may be downloaded from the edge server, and the processor may generate information about the event and the location to be photographed according to the format of the program.

본 발명의 다른 실시예에 따른 엣지 디바이스는, 유선 또는 무선 신호를 송수신하는 통신 모듈과. 상기 통신 모듈과 연결되어, 영상 데이터를 처리하는 프로세서와, 상기 프로세서와 연결되어, 상기 영상 데이터를 저장하는 메모리를 포함한다. 여기서, 상기 프로세서는 상기 통신 모듈을 통해 상기 카메라의 카메라 위치 정보 및 기울기 정보를 수신하고, 상기 통신 모듈을 통해 상기 카메라로부터 영상 데이터를 수신하고, 상기 카메라의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하고, 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT(internet of things) 서버로 전송하도록 상기 통신 모듈을 제어한다.Edge device according to another embodiment of the present invention, and a communication module for transmitting and receiving wired or wireless signals. and a processor connected to the communication module to process image data, and a memory connected to the processor to store the image data. Here, the processor receives the camera location information and tilt information of the camera through the communication module, receives image data from the camera through the communication module, and based on the camera location information and tilt information of the camera, the The communication module is configured to determine a shooting target position of image data, detect an event occurring in the shooting target position from the image data, and transmit information about the event and the shooting target position to an IoT (internet of things) server Control.

일 실시예에서, 상기 기울기 정보는 상기 카메라의 상하각(elevation angle) 및 방위각(azimuth angle)을 포함할 수 있다.In an embodiment, the tilt information may include an elevation angle and an azimuth angle of the camera.

일 실시예에서, 상기 프로세서는 상기 카메라로부터 상기 카메라의 자세 정보 또는 상기 카메라의 방향 정보를 획득하고, 상기 자세 정보 또는 상기 방향 정보에 기반하여 상기 카메라의 상하각 또는 방위각 중 적어도 하나를 계산할 수 있다.In an embodiment, the processor may obtain the attitude information of the camera or the direction information of the camera from the camera, and calculate at least one of a vertical angle or an azimuth angle of the camera based on the attitude information or the direction information .

일 실시예에서, 상기 프로세서는 상기 카메라의 높이 정보를 확인하고, 상기 카메라의 상하각 및 방위각을 결정하고, 상기 높이 정보, 상하각, 및 방위각에 기반하여 상기 메모리에 저장된 지도 상에서 상기 촬영 대상 위치를 맵핑할 수 있다. 여기서 상기 높이 정보는 상기 메모리에 저장되거나, 상기 카메라의 거리 센서에 의해 측정되거나, 또는 상기 카메라의 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.In one embodiment, the processor checks the height information of the camera, determines the vertical angle and the azimuth of the camera, and the photographing target position on the map stored in the memory based on the height information, the vertical angle, and the azimuth angle can be mapped. Here, the height information may be stored in the memory, measured by a distance sensor of the camera, or calculated from barometric pressure information obtained from a barometric pressure sensor of the camera.

일 실시예에서, 상기 프로세서는, 상기 영상 데이터로부터 객체를 추출하고, 상기 객체의 행동을 분석하고, 상기 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 상기 객체의 행동이 상기 기 정의된 이벤트와 매칭되면, 상기 객체의 행동에 대응하는 이벤트 및 상기 촬영 대상 위치에 대한 정보를 상기 IoT 서버로 전송하도록 상기 통신 모듈을 제어할 수 있다.In an embodiment, the processor extracts an object from the image data, analyzes the behavior of the object, determines whether the behavior of the object matches a predefined event, and determines whether the behavior of the object matches the predetermined event. If the defined event is matched, the communication module may be controlled to transmit an event corresponding to the action of the object and information on the location to be photographed to the IoT server.

일 실시예에서, 상기 통신 모듈은 메시지 브로커 서버로부터 프로그램 배포 정보를 수신하고, 상기 프로그램 배포 정보로부터 획득된 프로그램 정보 및 상기 엣지 디바이스의 인증 정보를 포함하는 프로그램 요청 메시지를 엣지 서버로 전송하고, 상기 엣지 서버로부터 상기 프로그램의 데이터를 다운로드하고, 상기 프로세서는 상기 프로그램의 포맷에 따라 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 생성할 수 있다.In an embodiment, the communication module receives program distribution information from a message broker server, and transmits a program request message including program information obtained from the program distribution information and authentication information of the edge device to the edge server, and the The data of the program is downloaded from the edge server, and the processor may generate information about the event and the location of the photographing target according to the format of the program.

본 발명의 실시예에 따른 엣지 컴퓨팅 시스템은, AI 카메라 장치로서, 영상 데이터를 생성하고, 상기 AI 카메라 장치의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는, 상기 AI 카메라 장치와, 상기 AI 카메라 장치로부터 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 수신하고, 상기 정보로부터 경고 메시지를 생성하는 IoT(internet of things) 서버와, 상기 IoT 서버로부터 상기 경고 메시지를 수신하고, 상기 경고 메시지에 대응하는 경고 신호를 출력하는 출력 장치를 포함한다.The edge computing system according to an embodiment of the present invention is an AI camera device, which generates image data, determines a photographing target position of the image data based on camera position information and tilt information of the AI camera device, and determines the image The AI camera device, which detects an event occurring at the location of the photographing target from data, and the Internet of Things (IoT) that receives information about the event and the location of the photographing target from the AI camera device, and generates a warning message from the information things) a server, and an output device for receiving the warning message from the IoT server and outputting a warning signal corresponding to the warning message.

일 실시예에서, 상기 AI 카메라 장치는, 상기 영상 데이터를 생성하는 촬영 모듈과, 상기 카메라 위치 정보를 제공하는 GPS(global positioning system) 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈과, 상기 AI 카메라 장치의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 이벤트를 검출하는 프로세서와, 상기 이벤트에 대한 정보를 상기 IoT 서버로 전송하는 통신 모듈을 포함할 수 있다. In an embodiment, the AI camera device includes a photographing module for generating the image data, a global positioning system (GPS) module for providing the camera location information, and a sensor module for providing tilt information of the AI camera device; , a processor for determining a target position of the image data based on camera position information and tilt information of the AI camera device, and detecting the event from the image data, and transmitting information about the event to the IoT server It may include a communication module.

일 실시예에서, 상기 AI 카메라 장치는, 상기 영상 데이터를 생성하는 촬영 모듈과, 상기 카메라 위치 정보를 제공하는 GPS(global positioning system) 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈을 포함하는 카메라와, 상기 카메라로부터 상기 영상 데이터, 상기 카메라 위치 정보, 및 상기 기울기 정보를 수신하고, 상기 영상 데이터로부터 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT 서버로 전송하는 엣지 디바이스를 포함할 수 있다.In one embodiment, the AI camera device includes a photographing module that generates the image data, a global positioning system (GPS) module that provides the camera location information, and a sensor module that provides tilt information of the AI camera device. A camera including a camera, and an edge device that receives the image data, the camera position information, and the tilt information from the camera, and transmits information about the event and the photographing target position from the image data to an IoT server can

일 실시예에서, 상기 AI 카메라 장치는, 상기 AI 카메라 장치의 높이 정보를 확인하고, 상기 기울기 정보에 기반하여 상기 AI 카메라 장치의 상하각 및 방위각을 결정하고, 상기 높이 정보, 상하각, 및 방위각에 기반하여 지도 상에서 상기 촬영 대상 위치를 맵핑할 수 있다. 여기서 상기 높이 정보는 상기 AI 카메라 장치의 메모리에 저장되거나 상기 AI 카메라 장치의 거리 센서에 의해 측정되거나, 또는 AI 카메라 장치의 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.In one embodiment, the AI camera device checks the height information of the AI camera device, determines an upper and lower angle and an azimuth of the AI camera device based on the inclination information, and the height information, the vertical angle, and the azimuth angle Based on the , the location of the photographing target may be mapped on the map. Here, the height information may be stored in a memory of the AI camera device, measured by a distance sensor of the AI camera device, or calculated from barometric pressure information obtained from a barometric pressure sensor of the AI camera device.

일 실시예에서, 상기 AI 카메라 장치는 상기 영상 데이터로부터 객체를 추출하고, 상기 객체의 행동을 분석하고, 상기 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 상기 객체의 행동이 상기 기 정의된 이벤트와 매칭되면, 상기 객체의 행동에 대응하는 이벤트 및 상기 촬영 대상 위치에 대한 정보를 상기 IoT 서버로 전송할 수 있다.In an embodiment, the AI camera device extracts an object from the image data, analyzes the behavior of the object, determines whether the behavior of the object matches a predefined event, and determines whether the behavior of the object matches the When a predefined event is matched, an event corresponding to the action of the object and information on the location to be photographed may be transmitted to the IoT server.

일 실시예에서, 상기 출력 장치는 음성 신호를 출력하는 스피커(speaker), 영상 신호를 출력하는 디스플레이(display), 광 신호를 출력하는 발광 장치, 무선 통신을 사용하여 모바일 장치로 경고 메시지를 전송하는 무선 송신기 중 적어도 하나에 해당하고, 상기 경고 메시지에 대응하는 경고 신호를 상기 음성 신호, 상기 영상 신호, 상기 광 신호, 또는 상기 경고 메시지 중 적어도 하나로 변환하여 출력할 수 있다.In one embodiment, the output device transmits a warning message to a mobile device using a speaker for outputting an audio signal, a display for outputting an image signal, a light emitting device for outputting an optical signal, and wireless communication. A warning signal corresponding to at least one of the wireless transmitters and corresponding to the warning message may be converted into at least one of the audio signal, the video signal, the optical signal, and the warning message and output.

일 실시예에서, 상기 엣지 컴퓨팅 시스템은 상기 IoT 서버로부터 상기 이벤트에 대한 분석 정보를 수신하는 서비스 관리 장치를 더 포함하고, 상기 분석 정보는 상기 이벤트의 발생 시간 및 위치 별 통계 정보를 포함할 수 있다.In an embodiment, the edge computing system may further include a service management device for receiving analysis information on the event from the IoT server, and the analysis information may include statistical information for each occurrence time and location of the event. .

일 실시예에서, 상기 엣지 컴퓨팅 시스템은 상기 AI 카메라 장치를 관리하는 엣지 서버와. 상기 AI 카메라 장치를 위한 프로그램을 작성하는 엣지 빌더(edge builder)와, 상기 AI 카메라 장치와 상기 엣지 서버 사이를 중계하는 메시지 브로커 서버를 더 포함할 수 있다. 상기 엣지 서버는 상기 AI 카메라 장치를 관리 디바이스 리스트에 등록하고, 상기 엣지 빌더 서버는 상기 작성된 프로그램에 대한 정보 및 프로그램 배포 정보를 상기 엣지 서버로 전송하고, 상기 프로그램 배포 정보를 상기 메시지 브로커 서버로 전송하며, 여기서 상기 프로그램 배포 정보는 상기 AI 카메라 장치를 포함하여 상기 프로그램이 허용된 엣지 디바이스에 대한 정보를 포함하고, 상기 메시지 브로커 서버는 상기 AI 카메라 장치로 상기 프로그램 배포 정보를 전송할 수 있다. 상기 AI 카메라 장치는 상기 프로그램 배포 정보로부터 획득된 프로그램 정보 및 상기 AI 카메라 장치의 인증 정보를 포함하는 프로그램 요청 메시지를 엣지 서버로 전송하고, 상기 엣지 서버로부터 상기 프로그램의 데이터를 다운로드하고, 상기 프로그램의 포맷에 따라 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 생성할 수 있다.In one embodiment, the edge computing system and an edge server that manages the AI camera device. It may further include an edge builder that writes a program for the AI camera device, and a message broker server that relays between the AI camera device and the edge server. The edge server registers the AI camera device in the management device list, the edge builder server transmits information about the written program and program distribution information to the edge server, and transmits the program distribution information to the message broker server wherein the program distribution information includes information on edge devices to which the program is permitted, including the AI camera device, and the message broker server may transmit the program distribution information to the AI camera device. The AI camera device transmits a program request message including program information obtained from the program distribution information and authentication information of the AI camera device to an edge server, downloads data of the program from the edge server, and According to the format, information on the event and the location of the photographing target may be generated.

본 발명의 실시예에 따르면, 촬영된 영상의 분석 및 카메라의 GPS 모듈 및 센서 모듈을 통해 발생 위치를 신속하게 결정함으로써, 위험 상황 또는 응급 상황을 신속하게 감지할 수 있다. According to an embodiment of the present invention, a dangerous situation or an emergency situation can be quickly detected by analyzing the captured image and quickly determining the location of the occurrence through the GPS module and the sensor module of the camera.

또한, 본 발명의 실시예에 따르면, 위험 상황 및 발생 위치에 따라 적절한 출력 신호를 출력함으로써, 위험 상황 또는 응급 상황에 따른 적절한 대응을 수행할 수 있다. In addition, according to the embodiment of the present invention, by outputting an appropriate output signal according to the dangerous situation and the occurrence location, it is possible to perform an appropriate response according to the dangerous situation or the emergency situation.

또한, 본 발명의 실시예에 따르면, 엣지 빌더 서버 및 메시지 브로커 서버를 사용하여 효과적으로 프로그램을 작성 및 배포할 수 있다.In addition, according to an embodiment of the present invention, it is possible to effectively write and distribute a program using the edge builder server and the message broker server.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 산업 IoT(Internet of Things) 플랫폼으로서 적용된 엣지 컴퓨팅 시스템의 예를 도시한다.
도 2는 엣지 컴퓨팅 시스템 내 각 개체 별 요소 기술의 예를 도시한다.
도 3은 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템의 예를 도시한다.
도 4는 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템에서 AI 카메라 장치의 예를 도시한다.
도 5는 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템에서 카메라 및 엣지 디바이스의 예를 도시한다.
도 6은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 AI 카메라 장치의 동작을 나타내는 흐름도이다.
도 7은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 이벤트의 검출 및 상황 정보를 전송하는 경우의 예를 도시한다.
도 8은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 이벤트의 검출 및 대응 조치를 수행하는 과정의 예를 도시한다.
도 9는 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 프로그램을 배포하기 위한 과정의 예를 도시한다.
1 shows an example of an edge computing system applied as an industrial Internet of Things (IoT) platform.
2 shows an example of element description for each entity in the edge computing system.
3 shows an example of an edge computing system according to an embodiment of the present invention.
4 shows an example of an AI camera device in an edge computing system according to an embodiment of the present invention.
5 shows an example of a camera and an edge device in an edge computing system according to an embodiment of the present invention.
6 is a flowchart illustrating an operation of an AI camera device in an edge computing system according to an embodiment of the present specification.
7 illustrates an example of detecting an event and transmitting context information in the edge computing system according to an embodiment of the present specification.
8 illustrates an example of a process of detecting an event and performing a corresponding action in the edge computing system according to an embodiment of the present specification.
9 illustrates an example of a process for distributing a program in an edge computing system according to an embodiment of the present specification.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly explain the present invention, parts irrelevant to the description are omitted, and the same reference numerals are given to the same or similar elements throughout the specification.

또한, 여러 실시예들에 있어서, 동일한 구성을 가지는 구성요소에 대해서는 동일한 부호를 사용하여 대표적인 실시예에서만 설명하고, 그 외의 다른 실시예에서는 대표적인 실시예와 다른 구성에 대해서만 설명하기로 한다.In addition, in various embodiments, components having the same configuration will be described using the same reference numerals only in the representative embodiment, and only configurations different from the representative embodiment will be described in other embodiments.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(또는 결합)"되어 있다고 할 때, 이는 "직접적으로 연결(또는 결합)"되어 있는 경우뿐만 아니라, 다른 부재를 사이에 두고 "간접적으로 연결(또는 결합)"된 것도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is “connected (or coupled)” with another part, it is not only “directly connected (or coupled)” but also “indirectly connected (or connected)” with another member therebetween. combined)" is also included. In addition, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

도 1은 산업 IoT(Internet of Things) 플랫폼으로서 적용된 엣지 컴퓨팅 시스템의 예를 도시한다. 도 1을 참고하면, 엣지 컴퓨팅 시스템은 IoT 디바이스(110), 엣지 디바이스(또는 엣지 컴퓨팅 디바이스)(130), IoT 서버(또는 엣지 컴퓨팅 서버)(150), 그리고 관리 장치(170)를 포함한다. IoT 디바이스(110)는 하나 또는 그 이상의 센서들로 구성되어, 공장 내 장비 또는 환경에 대한 측정 데이터를 생성하여 엣지 디바이스(130)로 전달한다. 엣지 디바이스(130)는 수집된 측정 데이터에 대한 분석 및 처리를 수행함으로써 가공된 분석 데이터를 생성하고, 중앙 서버에 저장이 필요한 데이터를 IoT 서버(150)로 전송한다. IoT 서버(150)는 엣지 디바이스(130)로부터 데이터를 수집하고, 수집된 데이터에 대한 분석을 수행하고, 관리자에 필요한 데이터를 저장한다. 한편, 관리 장치(170)는 IoT 서버(150)로부터 필요한 데이터를 요청하고 공장 내 장비 또는 환경에 대하여 수집된 데이터를 시각적으로 출력할 수 있다.1 shows an example of an edge computing system applied as an industrial Internet of Things (IoT) platform. Referring to FIG. 1 , the edge computing system includes an IoT device 110 , an edge device (or edge computing device) 130 , an IoT server (or edge computing server) 150 , and a management device 170 . The IoT device 110 is composed of one or more sensors, generates measurement data for equipment or environment in a factory, and transmits it to the edge device 130 . The edge device 130 generates processed analysis data by performing analysis and processing on the collected measurement data, and transmits the data that needs to be stored in the central server to the IoT server 150 . The IoT server 150 collects data from the edge device 130 , performs analysis on the collected data, and stores data necessary for the manager. Meanwhile, the management device 170 may request necessary data from the IoT server 150 and visually output the collected data for equipment or environment in the factory.

도 2는 엣지 컴퓨팅 시스템 내 각 개체 별 요소 기술의 예를 도시한다. 도 2를 참조하면, 엣지 컴퓨팅 디바이스(또는 엣지 디바이스)는 IoT 디바이스로부터 수집된 데이터를 대량으로 수집하고 처리할 수 있는 엣지 컴퓨팅 미들웨어(Edge Computing Middleware), 엣지 컴퓨팅 엔진(Edge Computing Engine), 그리고 IoT 미들웨어(IoT Middleware)를 포함할 수 있다. 여기서, 엣지 컴퓨팅 미들웨어는 엣지 컴퓨팅 디바이스와 엣지 컴퓨팅 서버 간의 연동 관리를 수행하기 위한 기술이고, 엣지 컴퓨팅 엔진은 고속으로 데이터 처리를 수행하기 위한 기술이고, IoT 미들웨어는 IoT 디바이스와 엣지 컴퓨팅 디바이스 간의 연동 관리를 수행하기 위한 기술이다.2 shows an example of element description for each entity in the edge computing system. Referring to FIG. 2 , an edge computing device (or edge device) includes an edge computing middleware, an edge computing engine, and IoT that can collect and process a large amount of data collected from an IoT device. It may include middleware (IoT Middleware). Here, the edge computing middleware is a technology for performing interworking management between the edge computing device and the edge computing server, the edge computing engine is a technology for performing data processing at high speed, and the IoT middleware is interworking management between the IoT device and the edge computing device. technology to perform

또한, 엣지 컴퓨팅 서버(또는 IoT 서버)는 엣지 컴퓨팅 디바이스와의 연동을 위한 엣지 컴퓨팅 미들웨어(Edge Computing Middleware)와 IoT 디바이스를 관리하기 위한 IoT 플랫폼(IoT Platform)을 포함할 수 있다. 또한, 엣지 컴퓨팅 디바이스와 엣지 컴퓨팅 서버 간의 통합된 데이터 처리 프로세스를 제작할 수 있는 툴(워크 플로우 디자이너)을 포함할 수 있다. 그리하여, 엣지 컴퓨팅 서버는 시간 별 데이터 분석(Time Series Data Analysis), 빅 데이터 분석(Big Data Analytics), AI/ML(Artificial Intelligence/Machine Learning)을 수행할 수 있다. 이러한 분석을 통해, 방문자 분석(Visitor Analysis), 예지 정비(Predictive Maintenance)와 같은 시각적 데이터 또는 예측 데이터를 제공할 수 있다. In addition, the edge computing server (or IoT server) may include an edge computing middleware for interworking with the edge computing device and an IoT platform for managing the IoT device. In addition, it may include a tool (workflow designer) capable of creating an integrated data processing process between the edge computing device and the edge computing server. Thus, the edge computing server may perform time series data analysis, big data analysis, and artificial intelligence/machine learning (AI/ML). Through this analysis, it is possible to provide visual data or predictive data such as visitor analysis and predictive maintenance.

한편, 위험 상황 또는 응급 상황과 같은 이벤트를 신속히 검출하고 적절한 대응을 제공하기 위하여 엣지 컴퓨팅 시스템이 적용될 수 있다. 특히 교통 사고가 발생할 수 있는 횡단보도나 산업 안전 사고가 발생할 수 있는 공장에서 신속한 이벤트 검출 및 대응 조치를 제공하기 위한 AI 카메라 장치 및 엣지 디바이스가 제공된다. 이하 설명되는 실시예는 횡단보도에서 위험 상황 또는 응급 상황이 발생하는 경우를 중심으로 설명하나, 본 명세서의 실시예는 이에 한정되는 것이 아니며 스마트 팩토리와 같은 다양한 분야에 적용될 수 있다.Meanwhile, an edge computing system may be applied to quickly detect an event such as a dangerous situation or an emergency situation and provide an appropriate response. In particular, AI camera devices and edge devices are provided to provide rapid event detection and response actions at crosswalks where traffic accidents may occur or factories where industrial safety accidents may occur. The embodiments described below are mainly described when a dangerous situation or an emergency situation occurs at a crosswalk, but the embodiment of the present specification is not limited thereto and may be applied to various fields such as a smart factory.

도 3은 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템의 예를 도시한다. 도 3을 참조하면, 엣지 컴퓨팅 시스템은 AI 카메라 장치(300), IoT 서버(330), 출력 장치(340)를 포함한다. 추가적으로, 엣지 컴퓨팅 시스템은 서비스 관리 장치(350)를 더 포함할 수 있다. 일 실시예에서, AI 카메라 장치(300)는 하나의 장치로서 구성될 수 있다. 다른 실시예에서, AI 카메라 장치(300)는 카메라(310) 및 엣지 디바이스(320)를 포함할 수 있다. 3 shows an example of an edge computing system according to an embodiment of the present invention. Referring to FIG. 3 , the edge computing system includes an AI camera device 300 , an IoT server 330 , and an output device 340 . Additionally, the edge computing system may further include a service management device 350 . In one embodiment, the AI camera device 300 may be configured as one device. In another embodiment, the AI camera apparatus 300 may include a camera 310 and an edge device 320 .

AI 카메라 장치(300)는 촬영을 통해 생성된 영상 데이터를 분석하여 위험 상황이나 응급 상황과 같은 이벤트가 발생하는지 여부를 판단하고, 이벤트가 발생한 경우 IoT 서버(330)로 이벤트 및 발생 위치(촬영 대상 위치)에 대한 정보를 전송한다. AI 카메라 장치(300)의 세부 구성 및 동작은 도 4 내지 도 6을 참고하여 설명한다.The AI camera device 300 analyzes the image data generated through shooting to determine whether an event such as a dangerous situation or an emergency situation occurs, and when the event occurs, the event and the occurrence location (shooting target) to the IoT server 330 location) is transmitted. A detailed configuration and operation of the AI camera device 300 will be described with reference to FIGS. 4 to 6 .

IoT 서버(330)는 AI 카메라 장치(300)와 유선 또는 무선 네트워크를 통해 연결된 장치로서, AI 카메라 장치(300)로부터 수신된 이벤트 및 발생 위치에 대한 정보를 분석하여 적합한 대응 조치를 포함하는 경고 메시지를 출력 장치(340)로 전송한다. IoT 서버(330)로부터 경고 메시지를 수신한 출력 장치(340)는 경고 메시지에 대응하는 경고 신호를 출력한다. 예를 들어, 출력 장치(340)는 음성 신호를 출력하는 스피커(speaker), 영상 신호를 출력하는 디스플레이(display), 광 신호를 출력하는 발광 장치, 무선 통신을 사용하여 모바일 장치로 경고 메시지를 전송하는 무선 송신기 중 적어도 하나에 해당할 수 있다. 출력 장치(340)는 경고 메시지에 대응하는 경고 신호를 음성 신호, 영상 신호, 광 신호, 또는 경고 메시지 중 적어도 하나로 변환하여 출력할 수 있다. 또한, 서비스 관리 장치(350)는 IoT 서버(330)로부터 이벤트에 대한 분석 정보를 수신하고, 분석 정보를 시각적 데이터로서 제공할 수 있다. 여기서 분석 정보는 이벤트의 발생 시간 및 위치 별 통계 정보를 포함할 수 있다. 서비스 관리 장치(350)는 도 3의 엣지 컴퓨팅 시스템에서 생략될 수도 있다.The IoT server 330 is a device connected to the AI camera device 300 through a wired or wireless network, and analyzes information about the event and the location of the event received from the AI camera device 300, and a warning message including appropriate countermeasures. is transmitted to the output device 340 . The output device 340 receiving the warning message from the IoT server 330 outputs a warning signal corresponding to the warning message. For example, the output device 340 transmits a warning message to a mobile device using a speaker for outputting an audio signal, a display for outputting an image signal, a light emitting device for outputting an optical signal, and wireless communication. It may correspond to at least one of the wireless transmitters. The output device 340 may convert and output a warning signal corresponding to the warning message into at least one of an audio signal, an image signal, an optical signal, and a warning message. Also, the service management device 350 may receive analysis information on an event from the IoT server 330 and provide the analysis information as visual data. Here, the analysis information may include statistical information for each event occurrence time and location. The service management device 350 may be omitted from the edge computing system of FIG. 3 .

도 4는 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템에서 AI 카메라 장치의 예를 도시한다. 도 4는 AI 카메라 장치(300)가 하나의 장치로서 구현된 경우의 예를 도시한다. 즉, 도 4는 카메라에 엣지 디바이스가 내장된 AI 카메라 장치(300)의 예를 나타낸다.4 shows an example of an AI camera device in an edge computing system according to an embodiment of the present invention. 4 shows an example in which the AI camera device 300 is implemented as one device. That is, FIG. 4 shows an example of an AI camera apparatus 300 in which an edge device is embedded in a camera.

도 4를 참조하면, AI 카메라 장치(300)는 영상 데이터를 생성하는 촬영 모듈(312)과, AI 카메라 장치(300)의 카메라 위치 정보를 제공하는 GPS 모듈(314)과, AI 카메라 장치(300)의 기울기 정보를 제공하는 센서 모듈(315)과, AI 카메라 장치(300)의 카메라 위치 및 기울기 정보에 기반하여 영상 데이터의 촬영 대상 위치를 결정하고, 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는 프로세서(324)와, 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송하는 통신 모듈을 포함한다. 여기서, 센서 모듈(315)은 AI 카메라 장치(300)의 자세 정보를 제공하는 가속도 센서와, AI 카메라 장치(300)의 방향 정보를 제공하는 지자기 센서를 포함할 수 있다. 본 문서에서, 촬영 대상 위치는 AI 카메라 장치(300)에 의해 촬영된 공간 및 객체의 위치를 지칭한다. 또한, AI 카메라 장치(300)의 위치는 카메라 위치 또는 카메라 위치 정보로 지칭된다.Referring to FIG. 4 , the AI camera device 300 includes a photographing module 312 for generating image data, a GPS module 314 for providing camera location information of the AI camera device 300 , and an AI camera device 300 . ), the sensor module 315 for providing tilt information, and the AI camera device 300 based on the camera position and tilt information to determine the target position of the image data, and from the image data, the event occurring at the shooting target position It includes a processor 324 that detects, and a communication module that transmits information about an event and a location to be photographed to the IoT server 330 . Here, the sensor module 315 may include an acceleration sensor that provides posture information of the AI camera device 300 and a geomagnetic sensor that provides direction information of the AI camera device 300 . In this document, a location to be photographed refers to a location of a space and an object photographed by the AI camera device 300 . Also, the location of the AI camera device 300 is referred to as a camera location or camera location information.

보다 구체적으로, 촬영 모듈(312)은 렌즈와 같은 광학 모듈과 입력된 광으로부터 영상 신호를 생성하는 CCD(charge-coupled device) 또는 CMOS(complementary metal-oxide semiconductor)를 포함할 수 있다. GPS 모듈은 AI 카메라 장치(300)의 카메라 위치 정보를 인공 위성 또는 주변의 통신 망으로부터 수신하여 프로세서(324)로 전달할 수 있다. More specifically, the imaging module 312 may include an optical module such as a lens and a charge-coupled device (CCD) or complementary metal-oxide semiconductor (CMOS) that generates an image signal from input light. The GPS module may receive camera location information of the AI camera device 300 from an artificial satellite or a communication network nearby and transmit it to the processor 324 .

센서 모듈(315)은 가속도 센서(316) 및/또는 지자기 센서(318)를 포함할 수 있으며, 프로세서(324)로 AI 카메라 장치(300)의 자세(기울기)와 관련된 정보를 제공한다. 가속도 센서(316)는 지구의 중력 가속도 방향을 기준으로 AI 카메라 장치(300)의 기울기를 측정할 수 있다. 즉, 가속도 센서(316)는 수평면을 기준으로 AI 카메라 장치(300)의 상하 방향 기울기(상하각, elevation angle)를 측정할 수 있다. 뿐만 아니라, 가속도 센서(316)는 AI 카메라 장치(300)의 좌우 방향 기울기(방위각, azimuth angle)도 측정할 수 있으며, 자이로스코프(gyroscope)로 구현될 수도 있다. 지자기 센서(318)는 자북(magnetic north)를 기준으로 AI 카메라 장치(300)의 방향 정보를 제공할 수 있다. 즉, 지자기 센서(318)는 자북의 방향을 기준으로 AI 카메라 장치(300)의 좌우 방향 각도(방위각)를 출력할 수 있다. 또한, 지자기 센서(318)는 자북의 방향을 기준으로 AI 카메라 장치(300)의 상하 방향 각도(상하각)를 출력할 수 있다. 즉, 본 발명의 실시예에 따른 상기 센서 모듈은 AI 카메라 장치(300)의 자세 정보를 제공하는 가속도 센서(316)와 AI 카메라 장치(300)의 방향 정보를 제공하는 지자기 센서(318)를 포함하고, 프로세서(324)는 가속도 센서(316)로부터 제공된 자세 정보 또는 지자기 센서(318)로부터 제공된 방향 정보에 기반하여 상기 카메라의 상하각 또는 방위각 중 적어도 하나를 계산할 수 있다.The sensor module 315 may include an acceleration sensor 316 and/or a geomagnetic sensor 318 , and provides information related to the posture (tilt) of the AI camera device 300 to the processor 324 . The acceleration sensor 316 may measure the inclination of the AI camera device 300 based on the direction of the gravitational acceleration of the Earth. That is, the acceleration sensor 316 may measure the vertical inclination (elevation angle) of the AI camera device 300 with respect to the horizontal plane. In addition, the acceleration sensor 316 may also measure the left and right inclination (azimuth angle) of the AI camera device 300, and may be implemented as a gyroscope. The geomagnetic sensor 318 may provide direction information of the AI camera device 300 based on magnetic north. That is, the geomagnetic sensor 318 may output the left-right angle (azimuth) of the AI camera device 300 based on the direction of magnetic north. In addition, the geomagnetic sensor 318 may output the vertical angle (vertical angle) of the AI camera device 300 based on the direction of magnetic north. That is, the sensor module according to an embodiment of the present invention includes an acceleration sensor 316 that provides posture information of the AI camera device 300 and a geomagnetic sensor 318 that provides direction information of the AI camera device 300 . In addition, the processor 324 may calculate at least one of an up-down angle or an azimuth angle of the camera based on the attitude information provided from the acceleration sensor 316 or the direction information provided from the geomagnetic sensor 318 .

프로세서(324)는 AI 카메라 장치(300)의 각 모듈을 제어하고 모듈로부터 제공된 데이터에 대한 처리를 수행할 수 있다. 프로세서(324)는 하나 또는 그 이상의 프로세서 또는 마이크로프로세서로 구성될 수 있으며, 예를 들어, 프로세서(324)는 AI 카메라 장치(300)를 제어하기 위한 컨트롤러, 촬영 모듈(312)로부터 제공된 영상 신호를 처리(인코딩/디코딩)하는 비디오 코덱, GPS 모듈(314) 및 센서 모듈(315)로부터 제공된 신호 및 영상 데이터를 처리하는 프로세서를 포함할 수 있다.The processor 324 may control each module of the AI camera device 300 and process data provided from the module. The processor 324 may be composed of one or more processors or microprocessors, for example, the processor 324 is a controller for controlling the AI camera device 300, the image signal provided from the photographing module 312 It may include a processor for processing (encoding/decoding) a video codec, a signal and image data provided from a GPS module 314 and a sensor module 315 .

통신 모듈(322)은 유선 또는 무선 네트워크를 통해 신호를 수신하거나 전송한다. 통신 모듈(322)은 AI 카메라 장치(300)와 외부 기기를 연결하기 위한 I/O(input/output) 인터페이스와 유/무선 네트워크와의 접속을 위한 장치를 포함할 수 있다. 예를 들어, 통신 모듈(322)은 신호의 송신 및 수신을 위한 안테나, RF(radio frequency) 프론트 엔드 처리 모듈, 베이스밴드 처리 모듈, 및 디지털 처리 모듈을 포함할 수 있다. 통신 모듈(322)은 LTE(Long-Term Evolution), 5G NR(5th Generation New Radio), Wi-Fi(Wireless Fidelity), 블루투스(Bluetooth)와 같은 통신 규격에 따라 통신을 수행할 수 있다.The communication module 322 receives or transmits a signal through a wired or wireless network. The communication module 322 may include an input/output (I/O) interface for connecting the AI camera device 300 and an external device and a device for connecting to a wired/wireless network. For example, the communication module 322 may include an antenna for transmitting and receiving signals, a radio frequency (RF) front-end processing module, a baseband processing module, and a digital processing module. The communication module 322 may perform communication according to a communication standard such as Long-Term Evolution (LTE), 5th Generation New Radio (5G NR), Wireless Fidelity (Wi-Fi), and Bluetooth.

메모리(326)는 프로세서(324)에 의해 제공된 데이터를 저장하고, 프로세서(324)로 저장된 데이터를 저장할 수 있다. 메모리(326)는 AI 카메라 장치(300)의 동작을 위한 명령어들 및 AI 카메라 장치(300)의 동작을 위해 필요한 데이터를 저장할 수 있다. 메모리(326)는 휘발성(volatile) 또는 비휘발성(non-volatile) 메모리를 포함할 수 있다.The memory 326 may store data provided by the processor 324 , and may store data stored by the processor 324 . The memory 326 may store commands for the operation of the AI camera device 300 and data necessary for the operation of the AI camera device 300 . The memory 326 may include volatile or non-volatile memory.

본 발명의 실시예에 따르면, 프로세서(324)는 촬영 모듈(312)에 의해 생성된 영상을 분석하여 위험 상황 또는 응급 상황과 같은 이벤트가 발생하였는지 검출하고, 해당 이벤트에 대한 정보(이벤트 종류, 발생 위치)를 IoT 서버(330)로 전송할 수 있다. 보다 구체적으로, 프로세서(324)는 AI 카메라 장치(300)의 자세 정보와 AI 카메라 장치(300)의 카메라 위치 정보를 사용하여 현재 촬영된 영상의 위치(촬영 대상 위치)를 특정할 수 있다. 예를 들어, 프로세서(324)는 지도 상에서 AI 카메라 장치(300)의 현재 카메라 위치로부터 AI 카메라 장치(300)가 촬영중인 상하 범위(상하 각도)와 좌우 범위(좌우 각도)에 맵핑되는 위치를 결정할 수 있다. AI 카메라 장치(300)의 현재 카메라 위치와 높이 정보를 알고 있는 경우, AI 카메라 장치(300)의 기준 방향으로부터 상하 각도(기준 방향: 중력 방향, 가속도 센서(316)에 의해 측정됨)와 좌우 각도(기준 방향, 자북 방향, 지자기 센서(318)에 의해 측정됨)에 의해 지시되는 위치가 촬영 대상 위치로서 결정될 수 있다. 여기서, 높이 정보는 AI 카메라 장치(300)가 최초로 설치될 때 입력에 의해 메모리(326)에 저장되거나, AI 카메라 장치(300)가 상하 구동 가능한 경우 최초 입력된 높이로부터 이동 거리만큼의 오프셋이 더해짐으로써 도출될 수 있다. 또한, 높이 정보는 AI 카메라 장치(300)에 설치된 거리 센서(예: 레이저를 사용한 거리 센서) 또는 기압 센서를 사용하여 측정될 수 있다. 보다 구체적으로, 레이저를 사용한 거리 센서의 경우 레이저가 AI 카메라 장치(300)로부터 지면으로 반사되어 입사된 시간을 측정함으로써 지면으로부터 AI 카메라 장치(300)의 높이가 측정될 수 있다. 기압 센서의 경우 AI 카메라 장치(300)가 위치한 장소의 지면의 기압과 기압 센서를 통해 측정된 기압의 차이를 비교하고, 고도와 기압차의 관계를 사용하여 현재 AI 카메라 장치(300)의 높이가 측정될 수 있다. 즉, 프로세서(324)는 메모리(326)에 저장된 AI 카메라 장치(300)의 높이 정보를 확인하고, AI 카메라 장치(300)의 상하각 및 방위각을 결정하고, 높이 정보, 상하각, 및 방위각에 기반하여 메모리(326)에 저장된 지도 상에서 촬영 대상 위치를 맵핑할 수 있다.According to an embodiment of the present invention, the processor 324 analyzes the image generated by the photographing module 312 to detect whether an event such as a dangerous situation or an emergency situation has occurred, and information about the corresponding event (event type, occurrence location) may be transmitted to the IoT server 330 . More specifically, the processor 324 may specify the position of the currently captured image (the position to be photographed) by using the posture information of the AI camera device 300 and the camera position information of the AI camera device 300 . For example, the processor 324 determines a position mapped to the upper and lower ranges (up and down angles) and left and right ranges (left and right angles) of the AI camera apparatus 300 being photographed from the current camera position of the AI camera apparatus 300 on the map. can When the current camera position and height information of the AI camera device 300 are known, the vertical angle (reference direction: gravity direction, measured by the acceleration sensor 316) and the left and right angles from the reference direction of the AI camera device 300 A position indicated by (a reference direction, a magnetic north direction, measured by the geomagnetic sensor 318) may be determined as a photographing target position. Here, the height information is stored in the memory 326 by input when the AI camera device 300 is first installed, or when the AI camera device 300 can be driven up and down, an offset equal to the movement distance is added from the initially input height can be derived by In addition, the height information may be measured using a distance sensor (eg, a distance sensor using a laser) or an air pressure sensor installed in the AI camera device 300 . More specifically, in the case of a distance sensor using a laser, the height of the AI camera device 300 from the ground may be measured by measuring the time when the laser is reflected and incident on the ground from the AI camera device 300 . In the case of the barometric pressure sensor, the difference between the atmospheric pressure on the ground of the place where the AI camera device 300 is located and the air pressure measured through the barometric pressure sensor is compared, and the current height of the AI camera device 300 is determined using the relationship between the altitude and the barometric pressure difference. can be measured. That is, the processor 324 checks the height information of the AI camera device 300 stored in the memory 326 , determines the vertical angle and the azimuth of the AI camera device 300 , and includes the height information, the vertical angle, and the azimuth. Based on the map stored in the memory 326, a location to be photographed may be mapped.

본 발명의 실시예에 따르면, 프로세서(324)는 촬영 모듈(312)로부터 제공된 영상 데이터를 분석함으로써 위험 상황이나 응급 상황과 같은 이벤트를 검출할 수 있다. 본 발명의 실시예에 따르면, 메모리(326)는 이벤트의 타입(예: 위험 상황 - 무단 횡단, 신호 위반/응급 상황 - 교통 사고, 환자 발생) 및 타입 별 패턴에 대한 데이터를 저장할 수 있다. 프로세서(324)는 촬영된 영상에서 배경과 객체(예: 사람, 자동차)를 분리하고, 각 객체의 행동이 특정 이벤트(위험 상황 또는 긴급 상황)와 매칭되는지 여부를 결정할 수 있다. 객체의 행동에 대한 분석은 머신 러닝(machine learning) 또는 딥 러닝(deep learning)에 기반하여 훈련된 데이터에 의해 수행될 수 있다. 영상 내 객체의 행동이 기-정의된 이벤트와 매칭되는 경우, 해당 이벤트에 대한 정보(이벤트 타입, 발생 위치)를 일정한 포맷에 맞게 코딩하여 IoT 서버(330)로 전송할 수 있다. 즉, 프로세서(324)는 영상 데이터로부터 객체를 추출하고, 추출된 객체의 행동을 분석하고, 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 객체의 행동이 기-정의된 이벤트와 매칭되면, 객체의 행동에 대응하는 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송하도록 통신 모듈(322)을 제어할 수 있다. 여기서, 이벤트 및 촬영 대상 위치에 대한 정보가 전송되는 포맷은 다수 개의 엣지 디바이스를 관리하는 엣지 서버에 의해 배포될 수 있으며, 이에 대하여 이후 도 9를 참조하여 설명한다.According to an embodiment of the present invention, the processor 324 may detect an event such as a dangerous situation or an emergency situation by analyzing the image data provided from the photographing module 312 . According to an embodiment of the present invention, the memory 326 may store data about the type of event (eg, dangerous situation - jaywalking, signal violation/emergency situation - traffic accident, patient occurrence) and a pattern for each type. The processor 324 may separate a background and an object (eg, a person, a car) from the captured image, and determine whether an action of each object matches a specific event (dangerous situation or emergency situation). The analysis of the behavior of the object may be performed by data trained based on machine learning or deep learning. When the behavior of the object in the image matches a pre-defined event, information about the corresponding event (event type, occurrence location) may be coded according to a predetermined format and transmitted to the IoT server 330 . That is, the processor 324 extracts the object from the image data, analyzes the behavior of the extracted object, determines whether the behavior of the object matches a predefined event, and determines whether the behavior of the object matches the predefined event. When matching, the communication module 322 may be controlled to transmit an event corresponding to the behavior of the object and information on the location to be photographed to the IoT server 330 . Here, a format in which information about an event and a location to be photographed is transmitted may be distributed by an edge server that manages a plurality of edge devices, which will be described later with reference to FIG. 9 .

도 5는 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템에서 카메라(310) 및 엣지 디바이스(320)의 예를 도시한다. 상술한 바와 같이, 도 5는 AI 카메라 장치(300)가 2개의 장치로서 구현된 경우의 예를 도시한다. 카메라(310)와 엣지 디바이스(320)는 유선 또는 무선 네트워크를 통해 연결될 수 있다. 5 shows an example of a camera 310 and an edge device 320 in an edge computing system according to an embodiment of the present invention. As described above, FIG. 5 shows an example in which the AI camera device 300 is implemented as two devices. The camera 310 and the edge device 320 may be connected through a wired or wireless network.

본 발명의 실시예에 따르면, 카메라(310)는 영상 데이터를 생성하는 촬영 모듈(312), 카메라(310)의 카메라 위치 정보를 제공하는 GPS 모듈(314)과, 카메라(310)의 기울기 정보를 제공하는 센서 모듈(315)을 포함할 수 있다. 여기서, 센서 모듈(315)은 카메라(310)의 자세 정보를 제공하는 가속도 센서(316)와, 카메라(310)의 방향 정보를 제공하는 지자기 센서(318)를 포함할 수 있다. 본 발명의 실시예에 따른 엣지 디바이스(320)는 유선 또는 무선 신호를 송수신하는 통신 모듈(322), 영상 데이터를 처리하는 프로세서(324), 그리고 영상 데이터를 저장하는 메모리(326)를 포함한다. 도 5의 촬영 모듈(312), GPS 모듈(314), 센서 모듈(315), 통신 모듈(322), 프로세서(324), 메모리(326)의 기능 및 세부 구성은 도 4를 참조하여 설명된 사항과 실질적으로 동일하므로 생략한다.According to an embodiment of the present invention, the camera 310 includes a photographing module 312 that generates image data, a GPS module 314 that provides camera location information of the camera 310, and tilt information of the camera 310 . It may include a sensor module 315 to provide. Here, the sensor module 315 may include an acceleration sensor 316 that provides posture information of the camera 310 and a geomagnetic sensor 318 that provides direction information of the camera 310 . The edge device 320 according to an embodiment of the present invention includes a communication module 322 for transmitting and receiving wired or wireless signals, a processor 324 for processing image data, and a memory 326 for storing image data. Functions and detailed configurations of the photographing module 312 , the GPS module 314 , the sensor module 315 , the communication module 322 , the processor 324 , and the memory 326 of FIG. 5 have been described with reference to FIG. 4 . It is substantially the same as , so it is omitted.

본 발명의 실시예에 따르면, 엣지 디바이스(320)의 프로세서(324)는 통신 모듈(322)을 통해 카메라(310)의 카메라 위치 정보 및 기울기 정보를 수신하고, 통신 모듈(322)을 통해 카메라(310)로부터 영상 데이터를 수신하고, 카메라(310)의 카메라 위치 정보 및 기울기 정보에 기반하여 영상 데이터의 촬영 대상 위치를 결정하고, 영상 데이터로부터 촬영 대상 위치에서 발생한 이벤트를 검출하고, 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송하도록 통신 모듈(322)을 제어한다.According to an embodiment of the present invention, the processor 324 of the edge device 320 receives the camera position information and tilt information of the camera 310 through the communication module 322, and the camera ( 310), determines a shooting target position of the image data based on the camera position information and tilt information of the camera 310, detects an event occurring at the shooting target position from the image data, and the event and the shooting The communication module 322 is controlled to transmit information on the target location to the IoT server 330 .

일 실시예에서, 프로세서(324)는 카메라(310)로부터 카메라(310)의 자세 정보 또는 카메라(310)의 방향 정보를 획득하고, 카메라(310)의 자세 정보 또는 방향 정보에 기반하여 카메라(310)의 상하각 또는 방위각 중 적어도 하나를 계산할 수 있다. In an embodiment, the processor 324 obtains posture information or direction information of the camera 310 from the camera 310 , and based on the posture information or direction information of the camera 310 , the camera 310 ) can be calculated at least one of the vertical angle or the azimuth angle.

일 실시예에서, 프로세서(324)는 카메라(310)의 높이 정보를 확인하고, 카메라(310)의 상하각 및 방위각을 결정하고, 높이 정보, 상하각, 및 방위각에 기반하여 메모리(326)에 저장된 지도 상에서 촬영 대상 위치를 맵핑할 수 있다. 여기서, 높이 정보는 메모리(326)에 저장되거나, 카메라(310)의 거리 센서에 의해 측정되거나, 또는 카메라(310)의 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.In one embodiment, the processor 324 checks the height information of the camera 310, determines the vertical angle and the azimuth of the camera 310, and stores the height information, the vertical angle, and the azimuth in the memory 326 based on the azimuth. A location to be photographed can be mapped on the stored map. Here, the height information may be stored in the memory 326 , measured by a distance sensor of the camera 310 , or calculated from barometric pressure information obtained from a barometric pressure sensor of the camera 310 .

일 실시예에서, 프로세서(324)는 영상 데이터로부터 객체를 추출하고, 추출된 객체의 행동을 분석하고, 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 객체의 행동이 기 정의된 이벤트와 매칭되면, 객체의 행동에 대응하는 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송하도록 통신 모듈(322)을 제어할 수 있다. 마찬가지로, 이벤트 및 촬영 대상 위치에 대한 정보가 전송되는 포맷은 다수 개의 엣지 디바이스를 관리하는 엣지 서버에 의해 배포될 수 있으며, 이에 대하여 이후 도 9를 참조하여 설명한다.In an embodiment, the processor 324 extracts an object from the image data, analyzes a behavior of the extracted object, determines whether the behavior of the object matches a predefined event, and determines whether the behavior of the object is a predefined event. If the event is matched, the communication module 322 may be controlled to transmit the event corresponding to the action of the object and information on the location to be photographed to the IoT server 330 . Similarly, a format in which information on an event and a location to be photographed is transmitted may be distributed by an edge server that manages a plurality of edge devices, which will be described later with reference to FIG. 9 .

도 6은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 AI 카메라 장치(300)의 동작을 나타내는 흐름도이다. 도 6에 도시된 각 동작은 AI 카메라 장치(300)(또는 엣지 디바이스(320))의 프로세서(324)에 의해 수행될 수 있다.6 is a flowchart illustrating the operation of the AI camera device 300 in the edge computing system according to an embodiment of the present specification. Each operation shown in FIG. 6 may be performed by the processor 324 of the AI camera device 300 (or the edge device 320 ).

S605 단계에서, AI 카메라 장치(300)는 AI 카메라 장치(300)의 카메라 위치 정보 및 기울기 정보를 획득한다. 일 실시예에서, AI 카메라 장치(300)는 GPS 모듈(314)로부터 AI 카메라 장치(300)의 카메라 위치 정보를 획득하고, 센서 모듈(315)로부터 AI 카메라 장치(300)의 기울기 정보를 획득할 수 있다. 본 발명의 실시예에 따르면, 센서 모듈(315)은 가속도 센서(316)와 지자기 센서(318)를 포함할 수 있으며, 기울기 정보는 가속도 센서(316)에 의해 측정된 AI 카메라 장치(300)의 상하각 및 지자기 센서(318)에 의해 측정된 방위각을 포함할 수 있다.In step S605 , the AI camera device 300 acquires camera position information and tilt information of the AI camera device 300 . In one embodiment, the AI camera device 300 obtains the camera position information of the AI camera device 300 from the GPS module 314, and obtains the tilt information of the AI camera device 300 from the sensor module 315. can According to an embodiment of the present invention, the sensor module 315 may include an acceleration sensor 316 and a geomagnetic sensor 318 , and the inclination information of the AI camera device 300 measured by the acceleration sensor 316 is It may include the vertical angle and the azimuth measured by the geomagnetic sensor 318 .

S610 단계에서, AI 카메라 장치(300)는 영상 데이터를 획득한다. 본 발명의 실시예에 따르면, 영상 데이터는 촬영 모듈(312)에 의해 제공될 수 있다.In step S610, the AI camera device 300 acquires image data. According to an embodiment of the present invention, image data may be provided by the photographing module 312 .

S615 단계에서, AI 카메라 장치(300)는 AI 카메라 장치(300)의 카메라 위치 정보 및 기울기 정보에 기반하여 촬영 대상 위치를 결정한다. 본 발명의 실시예에 따르면, AI 카메라 장치(300)는 AI 카메라 장치(300)의 높이 정보를 확인하고, 자세 정보 또는 방향 정보에 기반하여 AI 카메라 장치(300)의 상하각 및 방위각을 결정하고, 높이 정보, 상하각, 및 방위각에 기반하여 지도 상에서 촬영 대상 위치를 맵핑할 수 있다. 여기서, 높이 정보는 AI 카메라 장치(300)의 메모리에 저장되거나, AI 카메라 장치(300)의 거리 센서에 의해 측정되거나, AI 카메라 장치(300)의 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.In step S615 , the AI camera device 300 determines a photographing target location based on camera location information and tilt information of the AI camera device 300 . According to an embodiment of the present invention, the AI camera device 300 determines the height information of the AI camera device 300, determines the vertical angle and the azimuth angle of the AI camera device 300 based on the posture information or direction information, and , height information, vertical angles, and azimuth angles may be used to map a photographing target position on the map. Here, the height information may be stored in the memory of the AI camera device 300 , measured by a distance sensor of the AI camera device 300 , or calculated from barometric pressure information obtained from the air pressure sensor of the AI camera device 300 . .

S620 단계에서, AI 카메라 장치(300)는 영상 데이터로부터 촬영 대상 위치에서 발생한 이벤트를 검출한다. 본 발명의 실시예에 따르면, AI 카메라 장치(300)는 영상 데이터로부터 객체를 추출하고, 추출된 객체의 행동을 분석하고, 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 객체의 행동이 기 정의된 이벤트와 매칭되면, 객체의 행동에 대응하는 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송할 수 있다.In step S620 , the AI camera device 300 detects an event occurring at a location to be photographed from the image data. According to an embodiment of the present invention, the AI camera device 300 extracts an object from image data, analyzes the behavior of the extracted object, determines whether the behavior of the object matches a predefined event, and When the action matches a predefined event, information about an event corresponding to the action of the object and a location to be photographed may be transmitted to the IoT server 330 .

S625 단계에서, AI 카메라 장치(300)는 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송한다. 이벤트 및 촬영 대상 위치에 대한 정보가 전송되는 포맷은 다수 개의 엣지 디바이스를 관리하는 엣지 서버에 의해 배포될 수 있으며, 이에 대하여 이후 도 9를 참조하여 설명한다.In step S625 , the AI camera device 300 transmits information about the event and the location to be photographed to the IoT server 330 . A format in which information about an event and a location to be photographed is transmitted may be distributed by an edge server that manages a plurality of edge devices, which will be described later with reference to FIG. 9 .

도 7은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 이벤트의 검출 및 상황 정보를 전송하는 경우의 예를 도시한다. 도 7을 참고하면, AI 카메라 장치(300)에 GPS 모듈(314), 가속도 센서(316), 및 지자기 센서(318)가 내장된다. GPS 모듈(314)은 AI 카메라 장치(300)의 카메라 위치 정보를 제공하고, 가속도 센서(316)와 지자기 센서(316)는 AI 카메라 장치(300)의 자세 정보를 제공하는데, 예를 들어 가속도 센서(316)는 지면에 대한 AI 카메라 장치(300)의 상하각을 측정하여 제공하고, 지자기 센서(316)는 자북에 대한 AI 카메라 장치(300)의 방위각을 측정하여 제공한다. 7 illustrates an example of detecting an event and transmitting context information in the edge computing system according to an embodiment of the present specification. Referring to FIG. 7 , a GPS module 314 , an acceleration sensor 316 , and a geomagnetic sensor 318 are embedded in the AI camera device 300 . The GPS module 314 provides camera position information of the AI camera device 300 , and the acceleration sensor 316 and the geomagnetic sensor 316 provide posture information of the AI camera device 300 , for example, an acceleration sensor. Reference numeral 316 measures and provides the vertical angle of the AI camera device 300 with respect to the ground, and the geomagnetic sensor 316 measures and provides the azimuth angle of the AI camera device 300 with respect to magnetic north.

AI 카메라 장치(300)는 초기에 입력된 높이 정보를 메모리(326)에 저장할 수 있다. 또한, AI 카메라 장치(300)는 Z축을 따라 이동할 수도 있는데, 이 경우 초기 높이에 대하여 수직 방향 이동 거리를 더함으로써 현재 높이를 결정할 수 있다. 또한, AI 카메라 장치(300)는 거리 센서를 사용하여 지면으로부터의 거리를 통해 높이 정보를 획득할 수 있다. 또한, AI 카메라 장치(300)는 지면의 기압과 기압 센서에 의해 측정된 기압과의 비교를 통해 높이 정보를 획득할 수 있다. 그리하여, AI 카메라 장치(300)는 메모리(326)에 저장되거나 통신 모듈(322)로부터 수신한 지도 상에서 AI 카메라 장치(300)의 현재 카메라 위치를 특정하고, 지자기 센서(316)로부터 제공된 방위각을 사용하여 AI 카메라 장치(300)가 촬영 중인 촬영 대상 위치의 반경(수평 방향 범위)을 확인하고, AI 카메라 장치(300)의 현재 높이와 지면에 대한 상하각을 사용하여 AI 카메라 장치(300)의 현재 카메라 위치에 대한 현재 촬영 대상 위치의 거리 범위를 확인할 수 있다. 그리하여, AI 카메라 장치(300)는 영상 데이터의 촬영 대상 위치를 특정할 수 있다. The AI camera device 300 may store the initially input height information in the memory 326 . Also, the AI camera device 300 may move along the Z-axis. In this case, the current height may be determined by adding the vertical movement distance to the initial height. Also, the AI camera device 300 may obtain height information through a distance from the ground using a distance sensor. Also, the AI camera device 300 may obtain height information by comparing the atmospheric pressure on the ground with the atmospheric pressure measured by the atmospheric pressure sensor. Thus, the AI camera device 300 specifies the current camera position of the AI camera device 300 on a map stored in the memory 326 or received from the communication module 322 , and uses the azimuth provided from the geomagnetic sensor 316 . to check the radius (horizontal direction range) of the location of the shooting target being photographed by the AI camera device 300, and use the current height of the AI camera device 300 and the vertical angle with respect to the ground to determine the current level of the AI camera device 300 You can check the distance range of the current shooting target location with respect to the camera location. Thus, the AI camera device 300 may specify the location of the image data to be photographed.

한편, AI 카메라 장치(300)는 촬영된 영상 데이터로부터 객체(예: 사람)를 추출하는데, 여기서 객체는 동작 인지 AI 소프트웨어를 사용하여 추출될 수 있다. 추출된 객체의 행동이 위험 상황 또는 이상 상황과 같은 이벤트에 대응하는 경우, AI 카메라 장치(300)는 이벤트가 발생했음을 검출하고 해당 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송할 수 있다.Meanwhile, the AI camera device 300 extracts an object (eg, a person) from the captured image data, where the object may be extracted using motion recognition AI software. When the action of the extracted object corresponds to an event such as a dangerous situation or an abnormal situation, the AI camera device 300 detects that the event has occurred and transmits information about the event and the location to be photographed to the IoT server 330. have.

도 8은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 이벤트의 검출 및 대응 조치를 수행하는 과정의 예를 도시한다. 도 8을 참조하면, AI 카메라 장치(300)는 영상 데이터로부터 현재 촬영중인 촬영 대상 위치에서 무단 횡단과 같은 위험 상황 또는 환자 또는 범죄가 발생한 응급 상황을 검출한다. 그때 AI 카메라 장치(300)는 IoT 서버(330)로 영상 데이터와 함께 이벤트 정보(이벤트 종류, 촬영 대상 위치)를 전송한다. 8 illustrates an example of a process of detecting an event and performing a corresponding action in the edge computing system according to an embodiment of the present specification. Referring to FIG. 8 , the AI camera device 300 detects, from image data, a dangerous situation, such as trespassing, or an emergency situation in which a patient or a crime has occurred at a location of a photographing target currently being photographed. At that time, the AI camera device 300 transmits event information (type of event, location to be photographed) together with image data to the IoT server 330 .

IoT 서버(330)는 AI 카메라 장치(300)로부터 제공된 영상 데이터 및 이벤트 정보를 분석하여 해당 이벤트의 대응 조치를 위한 메시지를 출력 장치(340)로 전송한다. IoT 서버(330)는 AI 카메라 장치(300)로부터 수신한 이벤트 정보와 함께 촬영 대상 위치 주변의 장치들로부터 수신된 정보를 함께 고려하여 적합한 대응 조치를 도출하고, 해당 대응 조치를 위한 메시지를 출력 장치(340)로 전송할 수 있다. 예를 들어, 무단 횡단이 AI 카메라 장치(300)에 의해 감지된 경우, IoT 서버(330)는 스피커로 위험 상황을 알리는 음성 신호를 출력하도록 하고, 주변의 홀로그램 디스플레이를 통해 사고 방지를 위한 안내 비디오를 출력하도록 하고, 주변 기지국 또는 무선 통신 장치로 하여금 주변에서 접근하는 차량으로 경고 메시지를 전송하도록 제어할 수 있다. 또한, 환자가 발생한 경우, IoT 서버(330)는 스피커로 하여금 응급 조치에 대한 음성 신호를 출력하도록 제어하고, 범죄가 발생한 경우 범죄가 발생했음을 경고하는 음성 신호를 출력하도록 스피커를 제어할 수 있다. 또한, IoT 서버(330)는 이벤트에 대한 상황 판단 및 분석 정보를 서비스 관리자 장치(350)로 전송할 수 있다. 서비스 관리 장치(350)는 IoT 서버(330)로부터 이벤트에 대한 분석 정보를 수신하고, 분석 정보를 시각적 데이터로서 제공할 수 있다. 여기서 분석 정보는 이벤트의 발생 시간 및 위치(촬영 대상 위치) 별 통계 정보를 포함할 수 있다. The IoT server 330 analyzes the image data and event information provided from the AI camera device 300 , and transmits a message for a corresponding action to the event to the output device 340 . The IoT server 330 derives a suitable response action by considering the event information received from the AI camera device 300 together with information received from devices around the shooting target location, and outputs a message for the corresponding response action. may be transmitted to 340 . For example, when trespassing is detected by the AI camera device 300, the IoT server 330 outputs a voice signal notifying a dangerous situation to the speaker, and a guide video for accident prevention through the surrounding hologram display output, and a nearby base station or a wireless communication device can be controlled to transmit a warning message to a vehicle approaching from the vicinity. In addition, when a patient occurs, the IoT server 330 may control the speaker to output a voice signal for emergency measures, and when a crime occurs, the IoT server 330 may control the speaker to output a voice signal warning that a crime has occurred. Also, the IoT server 330 may transmit situation determination and analysis information for the event to the service manager device 350 . The service management device 350 may receive analysis information about an event from the IoT server 330 and provide the analysis information as visual data. Here, the analysis information may include statistical information for each event occurrence time and location (photograph target location).

도 9는 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 프로그램을 배포하기 위한 과정의 예를 도시한다. 도 9는 AI 카메라 장치(300)와 같은 엣지 디바이스에게 필요한 프로그램을 일괄적으로 배포하기 위한 방법의 예를 나타낸다. 일반적으로, 엣지 디바이스는 공유기와 같은 로컬 네트워크를 통해 연결되어 있으므로, 로컬 네트워크의 외부에 위치한 엣지 서버(360)는 각 엣지 디바이스의 정확한 인증 정보(예: IP 주소)를 획득하기 어려워, 필요한 엣지 디바이스로 프로그램을 스스로 전송할 수 없다. 그러므로, 본 발명의 실시예에 따르면, 메시지 브로커 서버(380)가 사용될 수 있다. 예를 들어, 메시지 브로커 서버(380)로서 MQTT(message queueing telemetry transport) 브로커가 사용될 수 있다.9 illustrates an example of a process for distributing a program in an edge computing system according to an embodiment of the present specification. 9 shows an example of a method for collectively distributing a program required to an edge device such as the AI camera device 300 . In general, since the edge device is connected through a local network such as a router, it is difficult for the edge server 360 located outside the local network to obtain accurate authentication information (eg, IP address) of each edge device, so the required edge device cannot transmit the program itself. Therefore, according to an embodiment of the present invention, a message broker server 380 may be used. For example, a message queuing telemetry transport (MQTT) broker may be used as the message broker server 380 .

도 9를 참조하면, 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템은 엣지 디바이스(320)에 해당하는 AI 카메라 장치(300) 및 IoT 서버(330)에 더하여, 엣지 디바이스(320)를 관리하는 엣지 서버(360)와, 엣지 디바이스(320)를 위한 프로그램을 작성하는 엣지 빌더(edge builder)(370)와, 엣지 디바이스(320)와 엣지 서버(360) 사이를 중계하는 메시지 브로커 서버(380)를 더 포함한다. 본 발명의 실시예에 따른 엣지 컴퓨팅을 위한 프로그램의 배포 절차는 아래와 같다.Referring to FIG. 9 , the edge computing system according to an embodiment of the present invention provides an edge server that manages the edge device 320 in addition to the AI camera device 300 and the IoT server 330 corresponding to the edge device 320 . 360, an edge builder 370 that writes a program for the edge device 320, and a message broker server 380 that relays between the edge device 320 and the edge server 360. include The distribution procedure of a program for edge computing according to an embodiment of the present invention is as follows.

먼저, 엣지 서버(360)는 AI 카메라 장치(300)를 엣지 디바이스로서 관리 디바이스 리스트에 등록한다(S905). 이는 AI 카메라 장치(300)의 설치 초기에 수행될 수 있다. 이후, 엣지 빌더(370)는 등록된 엣지 디바이스를 위한 프로그램을 작성한다(S910). 예를 들어, 엣지 빌더(370)는 엣지 디바이스(320)와 IoT 서버(330)(또는 엣지 컴퓨팅 서버) 간의 통합된 데이터 처리 프로세스를 구현하기 위한 프로그램을 생성할 수 있다. 이후, 엣지 빌더(370)는 엣지 서버(360)로 작성된 프로그램을 등록하고 배포 (허가) 정보(프로그램 정보)를 등록한다(S915). 여기서 배포 정보는 작성된 프로그램에 대한 정보 및 해당 프로그램이 배포되도록 허용된 엣지 디바이스들의 리스트를 포함할 수 있다. 또한, 엣지 빌더(370)는 메시지 브로커 서버(380)로 프로그램 배포 정보를 전송한다(S920). 엣지 디바이스(320)는 메시지 브로커 서버(380)로부터 프로그램 배포 정보를 수신한다(S925). First, the edge server 360 registers the AI camera device 300 as an edge device in the management device list (S905). This may be performed at the initial stage of installation of the AI camera device 300 . Thereafter, the edge builder 370 writes a program for the registered edge device (S910). For example, the edge builder 370 may generate a program for implementing an integrated data processing process between the edge device 320 and the IoT server 330 (or edge computing server). Thereafter, the edge builder 370 registers the program written by the edge server 360 and registers distribution (permission) information (program information) (S915). Here, the distribution information may include information on the written program and a list of edge devices to which the corresponding program is distributed. In addition, the edge builder 370 transmits the program distribution information to the message broker server 380 (S920). The edge device 320 receives the program distribution information from the message broker server 380 (S925).

엣지 디바이스(320)는 프로그램 배포 정보로부터 획득된 프로그램 정보 및 엣지 디바이스(320)의 인증 정보(예: IP 주소)를 포함하는 프로그램 요청 메시지를 엣지 서버(360)로 전송한다(S930). 프로그램 요청 메시지에 대응하여 엣지 디바이스(320)는 엣지 서버(360)로부터 프로그램의 데이터를 다운로드한다(S935). 이후, 엣지 디바이스(320)는 다운로드된 프로그램의 포맷에 따라 이벤트 및 촬영 대상 위치에 대한 정보를 생성하여 IoT 서버(330)로 전송한다.The edge device 320 transmits a program request message including program information obtained from the program distribution information and authentication information (eg, IP address) of the edge device 320 to the edge server 360 (S930). In response to the program request message, the edge device 320 downloads program data from the edge server 360 (S935). Thereafter, the edge device 320 generates information on an event and a location to be photographed according to the format of the downloaded program and transmits it to the IoT server 330 .

본 실시예 및 본 명세서에 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형예와 구체적인 실시예는 모두 본 발명의 권리범위에 포함되는 것이 자명하다고 할 것이다.This embodiment and the drawings attached to this specification merely clearly show some of the technical ideas included in the present invention, and those skilled in the art can easily infer within the scope of the technical ideas included in the specification and drawings of the present invention. It will be apparent that all possible modifications and specific embodiments are included in the scope of the present invention.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구범위 뿐만 아니라 이 특허 청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and not only the claims to be described later, but also all those with equivalent or equivalent modifications to the claims will be said to belong to the scope of the spirit of the present invention. .

Claims (20)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 엣지 컴퓨팅(edge computing) 시스템에 있어서,
AI 카메라 장치로서, 영상 데이터를 생성하고, 상기 AI 카메라 장치의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는, 상기 AI 카메라 장치;
상기 AI 카메라 장치로부터 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 수신하고, 상기 정보로부터 경고 메시지를 생성하는 IoT(internet of things) 서버;
상기 IoT 서버로부터 상기 경고 메시지를 수신하고, 상기 경고 메시지에 대응하는 경고 신호를 출력하는 출력 장치를 포함하고,
상기 AI 카메라 장치는,
상기 AI 카메라 장치의 높이 정보를 확인하고, 여기서 상기 높이 정보는 상기 AI 카메라 장치의 메모리에 저장되거나 상기 AI 카메라 장치의 거리 센서에 의해 측정되거나, 또는 AI 카메라 장치의 기압 센서로부터 획득된 기압 정보로부터 계산되며,
상기 기울기 정보에 기반하여 상기 AI 카메라 장치의 상하각 및 방위각을 결정하고,
상기 높이 정보, 상하각, 및 방위각에 기반하여 지도 상에서 상기 촬영 대상 위치를 맵핑하며,
상기 IoT 서버는 상기 AI 카메라 장치로부터 수신한 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보와 함께 상기 촬영 대상 위치 주변의 장치들로부터 수신된 정보를 함께 고려하여 적합한 대응 조치를 도출하고, 상기 대응 조치를 위한 상기 경고 메시지를 상기 출력 장치로 전송하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
In an edge computing system,
An AI camera device that generates image data, determines a shooting target position of the image data based on camera position information and tilt information of the AI camera device, and detects an event occurring at the shooting target position from the image data , the AI camera device;
an IoT (internet of things) server for receiving information about the event and the location of the photographing target from the AI camera device, and generating a warning message from the information;
and an output device for receiving the warning message from the IoT server and outputting a warning signal corresponding to the warning message,
The AI camera device,
Check the height information of the AI camera device, wherein the height information is stored in the memory of the AI camera device, measured by the distance sensor of the AI camera device, or from the barometric pressure information obtained from the air pressure sensor of the AI camera device is calculated,
Determine the vertical angle and the azimuth angle of the AI camera device based on the inclination information,
maps the location of the photographing target on the map based on the height information, the vertical angle, and the azimuth,
The IoT server derives appropriate countermeasures by considering the information received from devices around the shooting target location along with the event received from the AI camera device and the information on the shooting target location, and performs the corresponding action Edge computing system, characterized in that for transmitting the warning message for the output device.
제13항에 있어서,
상기 AI 카메라 장치는,
상기 영상 데이터를 생성하는 촬영 모듈;
상기 카메라 위치 정보를 제공하는 GPS(global positioning system) 모듈;
상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈; 및
상기 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 이벤트를 검출하는 프로세서; 및
상기 이벤트에 대한 정보를 상기 IoT 서버로 전송하는 통신 모듈을 포함하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
14. The method of claim 13,
The AI camera device,
a photographing module for generating the image data;
a global positioning system (GPS) module that provides the camera location information;
a sensor module for providing tilt information of the AI camera device; and
a processor for determining a photographing target position of the image data based on the camera position information and tilt information, and detecting the event from the image data; and
Edge computing system comprising a communication module for transmitting the information on the event to the IoT server.
제13항에 있어서,
상기 AI 카메라 장치는,
상기 영상 데이터를 생성하는 촬영 모듈과, 상기 카메라 위치 정보를 제공하는 GPS(global positioning system) 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈을 포함하는 카메라; 및
상기 카메라로부터 상기 영상 데이터, 상기 카메라 위치 정보, 및 상기 기울기 정보를 수신하고, 상기 영상 데이터로부터 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT 서버로 전송하는 엣지 디바이스를 포함하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
14. The method of claim 13,
The AI camera device,
a camera including a photographing module generating the image data, a global positioning system (GPS) module providing the camera location information, and a sensor module providing tilt information of the AI camera device; and
Edge comprising an edge device that receives the image data, the camera location information, and the tilt information from the camera, and transmits information about the event and the photographing target location from the image data to an IoT server computing system.
삭제delete 제13항에 있어서,
상기 AI 카메라 장치는,
상기 영상 데이터로부터 객체를 추출하고,
상기 객체의 행동을 분석하고,
상기 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고,
상기 객체의 행동이 상기 기 정의된 이벤트와 매칭되면, 상기 객체의 행동에 대응하는 이벤트 및 상기 촬영 대상 위치에 대한 정보를 상기 IoT 서버로 전송하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
14. The method of claim 13,
The AI camera device,
Extracting an object from the image data,
analyzing the behavior of the object,
Determining whether the behavior of the object matches a predefined event,
When the behavior of the object matches the predefined event, an event corresponding to the behavior of the object and information on the location to be photographed are transmitted to the IoT server.
제13항에 있어서,
상기 출력 장치는 음성 신호를 출력하는 스피커(speaker), 영상 신호를 출력하는 디스플레이(display), 광 신호를 출력하는 발광 장치, 무선 통신을 사용하여 모바일 장치로 경고 메시지를 전송하는 무선 송신기 중 적어도 하나에 해당하고,
상기 경고 메시지에 대응하는 경고 신호를 상기 음성 신호, 상기 영상 신호, 상기 광 신호, 또는 상기 경고 메시지 중 적어도 하나로 변환하여 출력하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
14. The method of claim 13,
The output device is at least one of a speaker for outputting an audio signal, a display for outputting an image signal, a light emitting device for outputting an optical signal, and a wireless transmitter for transmitting a warning message to a mobile device using wireless communication corresponds to,
The edge computing system according to claim 1, wherein the warning signal corresponding to the warning message is converted into at least one of the audio signal, the video signal, the optical signal, and the warning message and output.
제13항에 있어서,
상기 IoT 서버로부터 상기 이벤트에 대한 분석 정보를 수신하는 서비스 관리 장치를 더 포함하고,
상기 분석 정보는 상기 이벤트의 발생 시간 및 위치 별 통계 정보를 포함하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
14. The method of claim 13,
Further comprising a service management device for receiving the analysis information on the event from the IoT server,
The analysis information edge computing system, characterized in that it includes statistical information for each occurrence time and location of the event.
제13항에 있어서,
상기 AI 카메라 장치를 관리하는 엣지 서버;
상기 AI 카메라 장치를 위한 프로그램을 작성하는 엣지 빌더(edge builder);
상기 AI 카메라 장치와 상기 엣지 서버 사이를 중계하는 메시지 브로커 서버를 더 포함하고,
상기 엣지 서버는 상기 AI 카메라 장치를 관리 디바이스 리스트에 등록하고,
상기 엣지 빌더 서버는 상기 작성된 프로그램에 대한 정보 및 프로그램 배포 정보를 상기 엣지 서버로 전송하고, 상기 프로그램 배포 정보를 상기 메시지 브로커 서버로 전송하며, 여기서 상기 프로그램 배포 정보는 상기 AI 카메라 장치를 포함하여 상기 프로그램이 허용된 엣지 디바이스에 대한 정보를 포함하고,
상기 메시지 브로커 서버는 상기 AI 카메라 장치로 상기 프로그램 배포 정보를 전송하고,
상기 AI 카메라 장치는,
상기 프로그램 배포 정보로부터 획득된 프로그램 정보 및 상기 AI 카메라 장치의 인증 정보를 포함하는 프로그램 요청 메시지를 엣지 서버로 전송하고,
상기 엣지 서버로부터 상기 프로그램의 데이터를 다운로드하고,
상기 프로그램의 포맷에 따라 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 생성하도록 설정되는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
14. The method of claim 13,
an edge server that manages the AI camera device;
an edge builder that writes a program for the AI camera device;
Further comprising a message broker server relaying between the AI camera device and the edge server,
The edge server registers the AI camera device in the management device list,
The edge builder server transmits information about the written program and program distribution information to the edge server, and transmits the program distribution information to the message broker server, wherein the program distribution information includes the AI camera device. The program contains information about the allowed edge devices,
The message broker server transmits the program distribution information to the AI camera device,
The AI camera device,
Transmitting a program request message including program information obtained from the program distribution information and authentication information of the AI camera device to the edge server,
download the data of the program from the edge server,
Edge computing system, characterized in that it is set to generate information on the event and the location to be photographed according to the format of the program.
KR1020200075302A 2020-06-19 2020-06-19 Ai camera device and edge device for generating and processing image data in edge computing system KR102297766B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200075302A KR102297766B1 (en) 2020-06-19 2020-06-19 Ai camera device and edge device for generating and processing image data in edge computing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200075302A KR102297766B1 (en) 2020-06-19 2020-06-19 Ai camera device and edge device for generating and processing image data in edge computing system

Publications (1)

Publication Number Publication Date
KR102297766B1 true KR102297766B1 (en) 2021-09-06

Family

ID=77782223

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200075302A KR102297766B1 (en) 2020-06-19 2020-06-19 Ai camera device and edge device for generating and processing image data in edge computing system

Country Status (1)

Country Link
KR (1) KR102297766B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090094292A (en) * 2007-05-21 2009-09-04 후아웨이 테크놀러지 컴퍼니 리미티드 Method, device and system for distributing file data
JP5016443B2 (en) * 2007-10-25 2012-09-05 ティーオーエー株式会社 Camera installation simulator program
KR101639068B1 (en) * 2014-11-28 2016-07-14 주식회사 지오멕스소프트 A system of providing ward's images of security cameras by using GIS data
KR102107957B1 (en) * 2020-01-06 2020-05-07 주식회사 투윈스컴 Cctv monitoring system for detecting the invasion in the exterior wall of building and method thereof
KR102119721B1 (en) * 2019-10-23 2020-06-05 주식회사 넥스트케이 Intellectual Edge Device and Driving Method Thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090094292A (en) * 2007-05-21 2009-09-04 후아웨이 테크놀러지 컴퍼니 리미티드 Method, device and system for distributing file data
JP5016443B2 (en) * 2007-10-25 2012-09-05 ティーオーエー株式会社 Camera installation simulator program
KR101639068B1 (en) * 2014-11-28 2016-07-14 주식회사 지오멕스소프트 A system of providing ward's images of security cameras by using GIS data
KR102119721B1 (en) * 2019-10-23 2020-06-05 주식회사 넥스트케이 Intellectual Edge Device and Driving Method Thereof
KR102107957B1 (en) * 2020-01-06 2020-05-07 주식회사 투윈스컴 Cctv monitoring system for detecting the invasion in the exterior wall of building and method thereof

Similar Documents

Publication Publication Date Title
US10594986B2 (en) Surveillance system with fixed camera and temporary cameras
US9070305B1 (en) Traffic light detecting system and method
US9721347B2 (en) 3D model updates using crowdsourced video
US20170341775A1 (en) Method, apparatus and computer-readable medium for landing flight device
EP3994423B1 (en) Collecting user-contributed data relating to a navigable network
US20170019639A1 (en) Integrated monitoring cctv, abnormality detection apparatus, and method for operating the apparatus
CN112292580A (en) Positioning system and method for operating the same
KR102297766B1 (en) Ai camera device and edge device for generating and processing image data in edge computing system
US9881028B2 (en) Photo-optic comparative geolocation system
KR20190020940A (en) Method and apparatus for determining location using identification information corresponding external electronic device
KR20200100944A (en) UAV landing system
KR102333955B1 (en) Method, system and application for indicating safe area and navigating safe path for socially vulnerable people
KR102067547B1 (en) Method and detection for peripheral vehicle risk based on image analysis and communication connection between portable communication terminals and building cctv camera
KR102363760B1 (en) Electronic device to monitor load surface in real time and operating method thereof, and system comprising the same
KR101674033B1 (en) Image mapping system of a closed circuit television based on the three dimensional map
WO2019188429A1 (en) Moving body management device, moving body management system, moving body management method, and computer program
KR102067553B1 (en) System for situation imformation delivery using communicating building cctv camera image to portable communication terminal on celluler network
KR102660024B1 (en) Method for detection road event and apparatus for the same
CN114333199B (en) Alarm method, equipment, system and chip
US20230043836A1 (en) Information processing apparatus, information processing method, and program
KR101634967B1 (en) Application multi-encoding type system for monitoring region on bad visuality based 3D image encoding transformation, and method thereof
KR20240051489A (en) Method, device and system for controling car camera
Fend et al. Autonomous UAV Landing in a Box on a Moving Platform
CN116528154A (en) Method for vehicle driving assistance in a defined area
KR20230069913A (en) Data transmission device, data transmission method, information processing device, information processing method, program

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant