KR102297766B1 - 엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 ai 카메라 장치 및 엣지 디바이스 - Google Patents

엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 ai 카메라 장치 및 엣지 디바이스 Download PDF

Info

Publication number
KR102297766B1
KR102297766B1 KR1020200075302A KR20200075302A KR102297766B1 KR 102297766 B1 KR102297766 B1 KR 102297766B1 KR 1020200075302 A KR1020200075302 A KR 1020200075302A KR 20200075302 A KR20200075302 A KR 20200075302A KR 102297766 B1 KR102297766 B1 KR 102297766B1
Authority
KR
South Korea
Prior art keywords
information
camera device
camera
edge
event
Prior art date
Application number
KR1020200075302A
Other languages
English (en)
Inventor
권진만
Original Assignee
주식회사 크레스프리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 크레스프리 filed Critical 주식회사 크레스프리
Priority to KR1020200075302A priority Critical patent/KR102297766B1/ko
Application granted granted Critical
Publication of KR102297766B1 publication Critical patent/KR102297766B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
    • G08B27/006Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations with transmission via telephone network
    • H04N5/23206
    • H04N5/23299

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 실시예는 엣지 컴퓨팅 시스템에서 AI 카메라 장치 및 엣지 디바이스를 제공한다. 본 발명의 실시예에 따른 AI 카메라 장치는 영상 데이터를 생성하는 촬영 모듈과, 상기 AI 카메라 장치의 카메라 위치 정보를 제공하는 GPS 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈과, 상기 AI 카메라 장치의 카메라 위치 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는 프로세서와, 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT(internet of things) 서버로 전송하는 통신 모듈을 포함할 수 있다. 모니터링 중 위험 상황 또는 응급 상황과 같은 이벤트 발생시 해당 이벤트 정보와 촬영 대상 위치 정보를 함께 전송함으로써 신속하게 대응 조치를 수행할 수 있다.

Description

엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 AI 카메라 장치 및 엣지 디바이스{AI CAMERA DEVICE AND EDGE DEVICE FOR GENERATING AND PROCESSING IMAGE DATA IN EDGE COMPUTING SYSTEM}
본 발명은 엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 AI 카메라 장치 및 엣지 디바이스에 관한 것으로, 보다 구체적으로 촬영된 영상 데이터를 분석하여 위험 상황 또는 응급 상황을 감지하기 위한 AI 카메라 장치 및 엣지 디바이스에 관한 것이다.
클라이언트가 어떤 작업을 수행하기 위하여 요구하는 데이터를 인터넷 망을 통해 제공하는 클라우드 컴퓨팅 시스템이 널리 사용되고 있다. 일반적인 클라우드 컴퓨팅 시스템은 서비스 제공자의 중앙 서버에 데이터를 보관하고, 필요에 따라 데이터를 처리하여 제공한다. 다만, 클라우드 컴퓨팅의 수요가 증가하고, IoT(internet of things), 5G 통신, AI(artificial intelligence) 시스템이 도입됨에 따라 중앙 서버에서 처리하고 저장해야할 데이터 량이 기하 급수적으로 증가하게 되어, 데이터 처리의 지연과 저장 공간 부족 그리고 보안 이슈가 증가하고 있다.
그리하여, 상술한 클라우드 컴퓨팅 시스템을 보완하기 위한 방안으로서, 모든 데이터를 중앙 서버에서 수집하여 처리하는 대신 중앙 서버와 클라이언트 장치 사이에서 데이터를 분산 처리하는 엣지 컴퓨팅 시스템이 대두되고 있다. 엣지 컴퓨팅 시스템이 도입됨으로써, 중앙 서버에서 모든 데이터를 수집하여 처리하는 것이 아니라, 클라이언트 장치에서 실시간으로 데이터를 수집 및 처리 후 중앙 서버에 필요한 데이터만을 전송하게 된다. 그리하여, 클라이언트 장치에서 실시간으로 데이터가 처리될 수 있고, 중앙 서버의 데이터 부하량이 감소하며, 데이터의 분산 처리로 인하여 보안 이슈로 인한 리스크를 감소시킬 수 있다.
엣지 컴퓨팅 시스템은 스마트 팩토리, 스마트 시티, 스마트 팜 등 다양한 분야에 적용될 수 있다. 특히, 신속한 데이터 분석 및 처리가 필요한 상황(위험 상황, 응급 상황)에서 엣지 컴퓨팅 시스템이 효과적으로 적용될 수 있다. 그리하여, 위험 상황 또는 응급 상황을 감지하고, 해당 상황에 대한 조치를 수행하기 위한 엣지 컴퓨팅 시스템이 요구되고 있다.
그리하여, 본 발명은 위험 상황 또는 응급 상황을 감지하기 위한 AI 카메라 장치 및 엣지 디바이스, 그리고 엣지 컴퓨팅 시스템을 제공한다.
또한, 본 발명은 위험 상황 또는 응급 상황에 따른 적절한 대응을 수행하기 위한 AI 카메라 장치 및 엣지 디바이스, 그리고 엣지 컴퓨팅 시스템을 제공한다.
또한, 본 발명은 효과적으로 프로그램을 작성 및 배포하기 위한 AI 카메라 장치 및 엣지 디바이스, 그리고 엣지 컴퓨팅 시스템을 제공한다.
본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확히 이해될 수 있을 것이다.
본 발명의 실시예는 엣지 컴퓨팅 시스템에서 AI 카메라 장치 및 엣지 디바이스를 제공한다. 본 발명의 실시예에 따른 AI 카메라 장치는 영상 데이터를 생성하는 촬영 모듈과, 상기 AI 카메라 장치의 카메라 위치 정보를 제공하는 GPS 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈과, 상기 AI 카메라 장치의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는 프로세서와, 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT(internet of things) 서버로 전송하는 통신 모듈을 포함할 수 있다.
일 실시예에서, 상기 기울기 정보는 상기 AI 카메라 장치의 상하각(elevation angle) 및 방위각(azimuth angle)을 포함할 수 있다.
일 실시예에서, 상기 센서 모듈은 상기 AI 카메라 장치의 자세 정보를 제공하는 가속도 센서와, 상기 AI 카메라 장치의 방향 정보를 제공하는 지자기 센서를 포함하고, 상기 프로세서는 상기 자세 정보 또는 상기 방향 정보에 기반하여 AI 카메라 장치의 상하각 또는 방위각 중 적어도 하나를 계산할 수 있다.
일 실시예에서, 상기 프로세서는 상기 AI 카메라 장치의 높이 정보를 확인하고, 상기 AI 카메라 장치의 상하각 및 방위각을 결정하고, 상기 높이 정보, 상하각, 및 방위각에 기반하여 상기 메모리에 저장된 지도 상에서 상기 촬영 대상 위치를 맵핑할 수 있다. 여기서 상기 높이 정보는 메모리에 저장되거나, 거리 센서에 의해 측정되거나, 또는 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.
일 실시예에서, 상기 프로세서는 상기 영상 데이터로부터 객체를 추출하고, 상기 객체의 행동을 분석하고, 상기 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 상기 객체의 행동이 기-정의된 이벤트와 매칭되면, 상기 객체의 행동에 대응하는 이벤트 및 상기 촬영 대상 위치에 대한 정보를 상기 IoT 서버로 전송하도록 상기 통신 모듈을 제어할 수 있다.
일 실시예에서, 상기 통신 모듈은 메시지 브로커 서버로부터 프로그램 배포 정보를 수신하고, 상기 프로그램 배포 정보로부터 획득된 프로그램 정보 및 상기 AI 카메라 장치의 인증 정보를 포함하는 프로그램 요청 메시지를 엣지 서버로 전송하고, 상기 엣지 서버로부터 상기 프로그램의 데이터를 다운로드하고, 상기 프로세서는 상기 프로그램의 포맷에 따라 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 생성할 수 있다.
본 발명의 다른 실시예에 따른 엣지 디바이스는, 유선 또는 무선 신호를 송수신하는 통신 모듈과. 상기 통신 모듈과 연결되어, 영상 데이터를 처리하는 프로세서와, 상기 프로세서와 연결되어, 상기 영상 데이터를 저장하는 메모리를 포함한다. 여기서, 상기 프로세서는 상기 통신 모듈을 통해 상기 카메라의 카메라 위치 정보 및 기울기 정보를 수신하고, 상기 통신 모듈을 통해 상기 카메라로부터 영상 데이터를 수신하고, 상기 카메라의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하고, 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT(internet of things) 서버로 전송하도록 상기 통신 모듈을 제어한다.
일 실시예에서, 상기 기울기 정보는 상기 카메라의 상하각(elevation angle) 및 방위각(azimuth angle)을 포함할 수 있다.
일 실시예에서, 상기 프로세서는 상기 카메라로부터 상기 카메라의 자세 정보 또는 상기 카메라의 방향 정보를 획득하고, 상기 자세 정보 또는 상기 방향 정보에 기반하여 상기 카메라의 상하각 또는 방위각 중 적어도 하나를 계산할 수 있다.
일 실시예에서, 상기 프로세서는 상기 카메라의 높이 정보를 확인하고, 상기 카메라의 상하각 및 방위각을 결정하고, 상기 높이 정보, 상하각, 및 방위각에 기반하여 상기 메모리에 저장된 지도 상에서 상기 촬영 대상 위치를 맵핑할 수 있다. 여기서 상기 높이 정보는 상기 메모리에 저장되거나, 상기 카메라의 거리 센서에 의해 측정되거나, 또는 상기 카메라의 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.
일 실시예에서, 상기 프로세서는, 상기 영상 데이터로부터 객체를 추출하고, 상기 객체의 행동을 분석하고, 상기 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 상기 객체의 행동이 상기 기 정의된 이벤트와 매칭되면, 상기 객체의 행동에 대응하는 이벤트 및 상기 촬영 대상 위치에 대한 정보를 상기 IoT 서버로 전송하도록 상기 통신 모듈을 제어할 수 있다.
일 실시예에서, 상기 통신 모듈은 메시지 브로커 서버로부터 프로그램 배포 정보를 수신하고, 상기 프로그램 배포 정보로부터 획득된 프로그램 정보 및 상기 엣지 디바이스의 인증 정보를 포함하는 프로그램 요청 메시지를 엣지 서버로 전송하고, 상기 엣지 서버로부터 상기 프로그램의 데이터를 다운로드하고, 상기 프로세서는 상기 프로그램의 포맷에 따라 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 생성할 수 있다.
본 발명의 실시예에 따른 엣지 컴퓨팅 시스템은, AI 카메라 장치로서, 영상 데이터를 생성하고, 상기 AI 카메라 장치의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는, 상기 AI 카메라 장치와, 상기 AI 카메라 장치로부터 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 수신하고, 상기 정보로부터 경고 메시지를 생성하는 IoT(internet of things) 서버와, 상기 IoT 서버로부터 상기 경고 메시지를 수신하고, 상기 경고 메시지에 대응하는 경고 신호를 출력하는 출력 장치를 포함한다.
일 실시예에서, 상기 AI 카메라 장치는, 상기 영상 데이터를 생성하는 촬영 모듈과, 상기 카메라 위치 정보를 제공하는 GPS(global positioning system) 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈과, 상기 AI 카메라 장치의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 이벤트를 검출하는 프로세서와, 상기 이벤트에 대한 정보를 상기 IoT 서버로 전송하는 통신 모듈을 포함할 수 있다.
일 실시예에서, 상기 AI 카메라 장치는, 상기 영상 데이터를 생성하는 촬영 모듈과, 상기 카메라 위치 정보를 제공하는 GPS(global positioning system) 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈을 포함하는 카메라와, 상기 카메라로부터 상기 영상 데이터, 상기 카메라 위치 정보, 및 상기 기울기 정보를 수신하고, 상기 영상 데이터로부터 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT 서버로 전송하는 엣지 디바이스를 포함할 수 있다.
일 실시예에서, 상기 AI 카메라 장치는, 상기 AI 카메라 장치의 높이 정보를 확인하고, 상기 기울기 정보에 기반하여 상기 AI 카메라 장치의 상하각 및 방위각을 결정하고, 상기 높이 정보, 상하각, 및 방위각에 기반하여 지도 상에서 상기 촬영 대상 위치를 맵핑할 수 있다. 여기서 상기 높이 정보는 상기 AI 카메라 장치의 메모리에 저장되거나 상기 AI 카메라 장치의 거리 센서에 의해 측정되거나, 또는 AI 카메라 장치의 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.
일 실시예에서, 상기 AI 카메라 장치는 상기 영상 데이터로부터 객체를 추출하고, 상기 객체의 행동을 분석하고, 상기 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 상기 객체의 행동이 상기 기 정의된 이벤트와 매칭되면, 상기 객체의 행동에 대응하는 이벤트 및 상기 촬영 대상 위치에 대한 정보를 상기 IoT 서버로 전송할 수 있다.
일 실시예에서, 상기 출력 장치는 음성 신호를 출력하는 스피커(speaker), 영상 신호를 출력하는 디스플레이(display), 광 신호를 출력하는 발광 장치, 무선 통신을 사용하여 모바일 장치로 경고 메시지를 전송하는 무선 송신기 중 적어도 하나에 해당하고, 상기 경고 메시지에 대응하는 경고 신호를 상기 음성 신호, 상기 영상 신호, 상기 광 신호, 또는 상기 경고 메시지 중 적어도 하나로 변환하여 출력할 수 있다.
일 실시예에서, 상기 엣지 컴퓨팅 시스템은 상기 IoT 서버로부터 상기 이벤트에 대한 분석 정보를 수신하는 서비스 관리 장치를 더 포함하고, 상기 분석 정보는 상기 이벤트의 발생 시간 및 위치 별 통계 정보를 포함할 수 있다.
일 실시예에서, 상기 엣지 컴퓨팅 시스템은 상기 AI 카메라 장치를 관리하는 엣지 서버와. 상기 AI 카메라 장치를 위한 프로그램을 작성하는 엣지 빌더(edge builder)와, 상기 AI 카메라 장치와 상기 엣지 서버 사이를 중계하는 메시지 브로커 서버를 더 포함할 수 있다. 상기 엣지 서버는 상기 AI 카메라 장치를 관리 디바이스 리스트에 등록하고, 상기 엣지 빌더 서버는 상기 작성된 프로그램에 대한 정보 및 프로그램 배포 정보를 상기 엣지 서버로 전송하고, 상기 프로그램 배포 정보를 상기 메시지 브로커 서버로 전송하며, 여기서 상기 프로그램 배포 정보는 상기 AI 카메라 장치를 포함하여 상기 프로그램이 허용된 엣지 디바이스에 대한 정보를 포함하고, 상기 메시지 브로커 서버는 상기 AI 카메라 장치로 상기 프로그램 배포 정보를 전송할 수 있다. 상기 AI 카메라 장치는 상기 프로그램 배포 정보로부터 획득된 프로그램 정보 및 상기 AI 카메라 장치의 인증 정보를 포함하는 프로그램 요청 메시지를 엣지 서버로 전송하고, 상기 엣지 서버로부터 상기 프로그램의 데이터를 다운로드하고, 상기 프로그램의 포맷에 따라 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 생성할 수 있다.
본 발명의 실시예에 따르면, 촬영된 영상의 분석 및 카메라의 GPS 모듈 및 센서 모듈을 통해 발생 위치를 신속하게 결정함으로써, 위험 상황 또는 응급 상황을 신속하게 감지할 수 있다.
또한, 본 발명의 실시예에 따르면, 위험 상황 및 발생 위치에 따라 적절한 출력 신호를 출력함으로써, 위험 상황 또는 응급 상황에 따른 적절한 대응을 수행할 수 있다.
또한, 본 발명의 실시예에 따르면, 엣지 빌더 서버 및 메시지 브로커 서버를 사용하여 효과적으로 프로그램을 작성 및 배포할 수 있다.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 산업 IoT(Internet of Things) 플랫폼으로서 적용된 엣지 컴퓨팅 시스템의 예를 도시한다.
도 2는 엣지 컴퓨팅 시스템 내 각 개체 별 요소 기술의 예를 도시한다.
도 3은 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템의 예를 도시한다.
도 4는 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템에서 AI 카메라 장치의 예를 도시한다.
도 5는 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템에서 카메라 및 엣지 디바이스의 예를 도시한다.
도 6은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 AI 카메라 장치의 동작을 나타내는 흐름도이다.
도 7은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 이벤트의 검출 및 상황 정보를 전송하는 경우의 예를 도시한다.
도 8은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 이벤트의 검출 및 대응 조치를 수행하는 과정의 예를 도시한다.
도 9는 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 프로그램을 배포하기 위한 과정의 예를 도시한다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.
또한, 여러 실시예들에 있어서, 동일한 구성을 가지는 구성요소에 대해서는 동일한 부호를 사용하여 대표적인 실시예에서만 설명하고, 그 외의 다른 실시예에서는 대표적인 실시예와 다른 구성에 대해서만 설명하기로 한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(또는 결합)"되어 있다고 할 때, 이는 "직접적으로 연결(또는 결합)"되어 있는 경우뿐만 아니라, 다른 부재를 사이에 두고 "간접적으로 연결(또는 결합)"된 것도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 산업 IoT(Internet of Things) 플랫폼으로서 적용된 엣지 컴퓨팅 시스템의 예를 도시한다. 도 1을 참고하면, 엣지 컴퓨팅 시스템은 IoT 디바이스(110), 엣지 디바이스(또는 엣지 컴퓨팅 디바이스)(130), IoT 서버(또는 엣지 컴퓨팅 서버)(150), 그리고 관리 장치(170)를 포함한다. IoT 디바이스(110)는 하나 또는 그 이상의 센서들로 구성되어, 공장 내 장비 또는 환경에 대한 측정 데이터를 생성하여 엣지 디바이스(130)로 전달한다. 엣지 디바이스(130)는 수집된 측정 데이터에 대한 분석 및 처리를 수행함으로써 가공된 분석 데이터를 생성하고, 중앙 서버에 저장이 필요한 데이터를 IoT 서버(150)로 전송한다. IoT 서버(150)는 엣지 디바이스(130)로부터 데이터를 수집하고, 수집된 데이터에 대한 분석을 수행하고, 관리자에 필요한 데이터를 저장한다. 한편, 관리 장치(170)는 IoT 서버(150)로부터 필요한 데이터를 요청하고 공장 내 장비 또는 환경에 대하여 수집된 데이터를 시각적으로 출력할 수 있다.
도 2는 엣지 컴퓨팅 시스템 내 각 개체 별 요소 기술의 예를 도시한다. 도 2를 참조하면, 엣지 컴퓨팅 디바이스(또는 엣지 디바이스)는 IoT 디바이스로부터 수집된 데이터를 대량으로 수집하고 처리할 수 있는 엣지 컴퓨팅 미들웨어(Edge Computing Middleware), 엣지 컴퓨팅 엔진(Edge Computing Engine), 그리고 IoT 미들웨어(IoT Middleware)를 포함할 수 있다. 여기서, 엣지 컴퓨팅 미들웨어는 엣지 컴퓨팅 디바이스와 엣지 컴퓨팅 서버 간의 연동 관리를 수행하기 위한 기술이고, 엣지 컴퓨팅 엔진은 고속으로 데이터 처리를 수행하기 위한 기술이고, IoT 미들웨어는 IoT 디바이스와 엣지 컴퓨팅 디바이스 간의 연동 관리를 수행하기 위한 기술이다.
또한, 엣지 컴퓨팅 서버(또는 IoT 서버)는 엣지 컴퓨팅 디바이스와의 연동을 위한 엣지 컴퓨팅 미들웨어(Edge Computing Middleware)와 IoT 디바이스를 관리하기 위한 IoT 플랫폼(IoT Platform)을 포함할 수 있다. 또한, 엣지 컴퓨팅 디바이스와 엣지 컴퓨팅 서버 간의 통합된 데이터 처리 프로세스를 제작할 수 있는 툴(워크 플로우 디자이너)을 포함할 수 있다. 그리하여, 엣지 컴퓨팅 서버는 시간 별 데이터 분석(Time Series Data Analysis), 빅 데이터 분석(Big Data Analytics), AI/ML(Artificial Intelligence/Machine Learning)을 수행할 수 있다. 이러한 분석을 통해, 방문자 분석(Visitor Analysis), 예지 정비(Predictive Maintenance)와 같은 시각적 데이터 또는 예측 데이터를 제공할 수 있다.
한편, 위험 상황 또는 응급 상황과 같은 이벤트를 신속히 검출하고 적절한 대응을 제공하기 위하여 엣지 컴퓨팅 시스템이 적용될 수 있다. 특히 교통 사고가 발생할 수 있는 횡단보도나 산업 안전 사고가 발생할 수 있는 공장에서 신속한 이벤트 검출 및 대응 조치를 제공하기 위한 AI 카메라 장치 및 엣지 디바이스가 제공된다. 이하 설명되는 실시예는 횡단보도에서 위험 상황 또는 응급 상황이 발생하는 경우를 중심으로 설명하나, 본 명세서의 실시예는 이에 한정되는 것이 아니며 스마트 팩토리와 같은 다양한 분야에 적용될 수 있다.
도 3은 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템의 예를 도시한다. 도 3을 참조하면, 엣지 컴퓨팅 시스템은 AI 카메라 장치(300), IoT 서버(330), 출력 장치(340)를 포함한다. 추가적으로, 엣지 컴퓨팅 시스템은 서비스 관리 장치(350)를 더 포함할 수 있다. 일 실시예에서, AI 카메라 장치(300)는 하나의 장치로서 구성될 수 있다. 다른 실시예에서, AI 카메라 장치(300)는 카메라(310) 및 엣지 디바이스(320)를 포함할 수 있다.
AI 카메라 장치(300)는 촬영을 통해 생성된 영상 데이터를 분석하여 위험 상황이나 응급 상황과 같은 이벤트가 발생하는지 여부를 판단하고, 이벤트가 발생한 경우 IoT 서버(330)로 이벤트 및 발생 위치(촬영 대상 위치)에 대한 정보를 전송한다. AI 카메라 장치(300)의 세부 구성 및 동작은 도 4 내지 도 6을 참고하여 설명한다.
IoT 서버(330)는 AI 카메라 장치(300)와 유선 또는 무선 네트워크를 통해 연결된 장치로서, AI 카메라 장치(300)로부터 수신된 이벤트 및 발생 위치에 대한 정보를 분석하여 적합한 대응 조치를 포함하는 경고 메시지를 출력 장치(340)로 전송한다. IoT 서버(330)로부터 경고 메시지를 수신한 출력 장치(340)는 경고 메시지에 대응하는 경고 신호를 출력한다. 예를 들어, 출력 장치(340)는 음성 신호를 출력하는 스피커(speaker), 영상 신호를 출력하는 디스플레이(display), 광 신호를 출력하는 발광 장치, 무선 통신을 사용하여 모바일 장치로 경고 메시지를 전송하는 무선 송신기 중 적어도 하나에 해당할 수 있다. 출력 장치(340)는 경고 메시지에 대응하는 경고 신호를 음성 신호, 영상 신호, 광 신호, 또는 경고 메시지 중 적어도 하나로 변환하여 출력할 수 있다. 또한, 서비스 관리 장치(350)는 IoT 서버(330)로부터 이벤트에 대한 분석 정보를 수신하고, 분석 정보를 시각적 데이터로서 제공할 수 있다. 여기서 분석 정보는 이벤트의 발생 시간 및 위치 별 통계 정보를 포함할 수 있다. 서비스 관리 장치(350)는 도 3의 엣지 컴퓨팅 시스템에서 생략될 수도 있다.
도 4는 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템에서 AI 카메라 장치의 예를 도시한다. 도 4는 AI 카메라 장치(300)가 하나의 장치로서 구현된 경우의 예를 도시한다. 즉, 도 4는 카메라에 엣지 디바이스가 내장된 AI 카메라 장치(300)의 예를 나타낸다.
도 4를 참조하면, AI 카메라 장치(300)는 영상 데이터를 생성하는 촬영 모듈(312)과, AI 카메라 장치(300)의 카메라 위치 정보를 제공하는 GPS 모듈(314)과, AI 카메라 장치(300)의 기울기 정보를 제공하는 센서 모듈(315)과, AI 카메라 장치(300)의 카메라 위치 및 기울기 정보에 기반하여 영상 데이터의 촬영 대상 위치를 결정하고, 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는 프로세서(324)와, 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송하는 통신 모듈을 포함한다. 여기서, 센서 모듈(315)은 AI 카메라 장치(300)의 자세 정보를 제공하는 가속도 센서와, AI 카메라 장치(300)의 방향 정보를 제공하는 지자기 센서를 포함할 수 있다. 본 문서에서, 촬영 대상 위치는 AI 카메라 장치(300)에 의해 촬영된 공간 및 객체의 위치를 지칭한다. 또한, AI 카메라 장치(300)의 위치는 카메라 위치 또는 카메라 위치 정보로 지칭된다.
보다 구체적으로, 촬영 모듈(312)은 렌즈와 같은 광학 모듈과 입력된 광으로부터 영상 신호를 생성하는 CCD(charge-coupled device) 또는 CMOS(complementary metal-oxide semiconductor)를 포함할 수 있다. GPS 모듈은 AI 카메라 장치(300)의 카메라 위치 정보를 인공 위성 또는 주변의 통신 망으로부터 수신하여 프로세서(324)로 전달할 수 있다.
센서 모듈(315)은 가속도 센서(316) 및/또는 지자기 센서(318)를 포함할 수 있으며, 프로세서(324)로 AI 카메라 장치(300)의 자세(기울기)와 관련된 정보를 제공한다. 가속도 센서(316)는 지구의 중력 가속도 방향을 기준으로 AI 카메라 장치(300)의 기울기를 측정할 수 있다. 즉, 가속도 센서(316)는 수평면을 기준으로 AI 카메라 장치(300)의 상하 방향 기울기(상하각, elevation angle)를 측정할 수 있다. 뿐만 아니라, 가속도 센서(316)는 AI 카메라 장치(300)의 좌우 방향 기울기(방위각, azimuth angle)도 측정할 수 있으며, 자이로스코프(gyroscope)로 구현될 수도 있다. 지자기 센서(318)는 자북(magnetic north)를 기준으로 AI 카메라 장치(300)의 방향 정보를 제공할 수 있다. 즉, 지자기 센서(318)는 자북의 방향을 기준으로 AI 카메라 장치(300)의 좌우 방향 각도(방위각)를 출력할 수 있다. 또한, 지자기 센서(318)는 자북의 방향을 기준으로 AI 카메라 장치(300)의 상하 방향 각도(상하각)를 출력할 수 있다. 즉, 본 발명의 실시예에 따른 상기 센서 모듈은 AI 카메라 장치(300)의 자세 정보를 제공하는 가속도 센서(316)와 AI 카메라 장치(300)의 방향 정보를 제공하는 지자기 센서(318)를 포함하고, 프로세서(324)는 가속도 센서(316)로부터 제공된 자세 정보 또는 지자기 센서(318)로부터 제공된 방향 정보에 기반하여 상기 카메라의 상하각 또는 방위각 중 적어도 하나를 계산할 수 있다.
프로세서(324)는 AI 카메라 장치(300)의 각 모듈을 제어하고 모듈로부터 제공된 데이터에 대한 처리를 수행할 수 있다. 프로세서(324)는 하나 또는 그 이상의 프로세서 또는 마이크로프로세서로 구성될 수 있으며, 예를 들어, 프로세서(324)는 AI 카메라 장치(300)를 제어하기 위한 컨트롤러, 촬영 모듈(312)로부터 제공된 영상 신호를 처리(인코딩/디코딩)하는 비디오 코덱, GPS 모듈(314) 및 센서 모듈(315)로부터 제공된 신호 및 영상 데이터를 처리하는 프로세서를 포함할 수 있다.
통신 모듈(322)은 유선 또는 무선 네트워크를 통해 신호를 수신하거나 전송한다. 통신 모듈(322)은 AI 카메라 장치(300)와 외부 기기를 연결하기 위한 I/O(input/output) 인터페이스와 유/무선 네트워크와의 접속을 위한 장치를 포함할 수 있다. 예를 들어, 통신 모듈(322)은 신호의 송신 및 수신을 위한 안테나, RF(radio frequency) 프론트 엔드 처리 모듈, 베이스밴드 처리 모듈, 및 디지털 처리 모듈을 포함할 수 있다. 통신 모듈(322)은 LTE(Long-Term Evolution), 5G NR(5th Generation New Radio), Wi-Fi(Wireless Fidelity), 블루투스(Bluetooth)와 같은 통신 규격에 따라 통신을 수행할 수 있다.
메모리(326)는 프로세서(324)에 의해 제공된 데이터를 저장하고, 프로세서(324)로 저장된 데이터를 저장할 수 있다. 메모리(326)는 AI 카메라 장치(300)의 동작을 위한 명령어들 및 AI 카메라 장치(300)의 동작을 위해 필요한 데이터를 저장할 수 있다. 메모리(326)는 휘발성(volatile) 또는 비휘발성(non-volatile) 메모리를 포함할 수 있다.
본 발명의 실시예에 따르면, 프로세서(324)는 촬영 모듈(312)에 의해 생성된 영상을 분석하여 위험 상황 또는 응급 상황과 같은 이벤트가 발생하였는지 검출하고, 해당 이벤트에 대한 정보(이벤트 종류, 발생 위치)를 IoT 서버(330)로 전송할 수 있다. 보다 구체적으로, 프로세서(324)는 AI 카메라 장치(300)의 자세 정보와 AI 카메라 장치(300)의 카메라 위치 정보를 사용하여 현재 촬영된 영상의 위치(촬영 대상 위치)를 특정할 수 있다. 예를 들어, 프로세서(324)는 지도 상에서 AI 카메라 장치(300)의 현재 카메라 위치로부터 AI 카메라 장치(300)가 촬영중인 상하 범위(상하 각도)와 좌우 범위(좌우 각도)에 맵핑되는 위치를 결정할 수 있다. AI 카메라 장치(300)의 현재 카메라 위치와 높이 정보를 알고 있는 경우, AI 카메라 장치(300)의 기준 방향으로부터 상하 각도(기준 방향: 중력 방향, 가속도 센서(316)에 의해 측정됨)와 좌우 각도(기준 방향, 자북 방향, 지자기 센서(318)에 의해 측정됨)에 의해 지시되는 위치가 촬영 대상 위치로서 결정될 수 있다. 여기서, 높이 정보는 AI 카메라 장치(300)가 최초로 설치될 때 입력에 의해 메모리(326)에 저장되거나, AI 카메라 장치(300)가 상하 구동 가능한 경우 최초 입력된 높이로부터 이동 거리만큼의 오프셋이 더해짐으로써 도출될 수 있다. 또한, 높이 정보는 AI 카메라 장치(300)에 설치된 거리 센서(예: 레이저를 사용한 거리 센서) 또는 기압 센서를 사용하여 측정될 수 있다. 보다 구체적으로, 레이저를 사용한 거리 센서의 경우 레이저가 AI 카메라 장치(300)로부터 지면으로 반사되어 입사된 시간을 측정함으로써 지면으로부터 AI 카메라 장치(300)의 높이가 측정될 수 있다. 기압 센서의 경우 AI 카메라 장치(300)가 위치한 장소의 지면의 기압과 기압 센서를 통해 측정된 기압의 차이를 비교하고, 고도와 기압차의 관계를 사용하여 현재 AI 카메라 장치(300)의 높이가 측정될 수 있다. 즉, 프로세서(324)는 메모리(326)에 저장된 AI 카메라 장치(300)의 높이 정보를 확인하고, AI 카메라 장치(300)의 상하각 및 방위각을 결정하고, 높이 정보, 상하각, 및 방위각에 기반하여 메모리(326)에 저장된 지도 상에서 촬영 대상 위치를 맵핑할 수 있다.
본 발명의 실시예에 따르면, 프로세서(324)는 촬영 모듈(312)로부터 제공된 영상 데이터를 분석함으로써 위험 상황이나 응급 상황과 같은 이벤트를 검출할 수 있다. 본 발명의 실시예에 따르면, 메모리(326)는 이벤트의 타입(예: 위험 상황 - 무단 횡단, 신호 위반/응급 상황 - 교통 사고, 환자 발생) 및 타입 별 패턴에 대한 데이터를 저장할 수 있다. 프로세서(324)는 촬영된 영상에서 배경과 객체(예: 사람, 자동차)를 분리하고, 각 객체의 행동이 특정 이벤트(위험 상황 또는 긴급 상황)와 매칭되는지 여부를 결정할 수 있다. 객체의 행동에 대한 분석은 머신 러닝(machine learning) 또는 딥 러닝(deep learning)에 기반하여 훈련된 데이터에 의해 수행될 수 있다. 영상 내 객체의 행동이 기-정의된 이벤트와 매칭되는 경우, 해당 이벤트에 대한 정보(이벤트 타입, 발생 위치)를 일정한 포맷에 맞게 코딩하여 IoT 서버(330)로 전송할 수 있다. 즉, 프로세서(324)는 영상 데이터로부터 객체를 추출하고, 추출된 객체의 행동을 분석하고, 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 객체의 행동이 기-정의된 이벤트와 매칭되면, 객체의 행동에 대응하는 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송하도록 통신 모듈(322)을 제어할 수 있다. 여기서, 이벤트 및 촬영 대상 위치에 대한 정보가 전송되는 포맷은 다수 개의 엣지 디바이스를 관리하는 엣지 서버에 의해 배포될 수 있으며, 이에 대하여 이후 도 9를 참조하여 설명한다.
도 5는 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템에서 카메라(310) 및 엣지 디바이스(320)의 예를 도시한다. 상술한 바와 같이, 도 5는 AI 카메라 장치(300)가 2개의 장치로서 구현된 경우의 예를 도시한다. 카메라(310)와 엣지 디바이스(320)는 유선 또는 무선 네트워크를 통해 연결될 수 있다.
본 발명의 실시예에 따르면, 카메라(310)는 영상 데이터를 생성하는 촬영 모듈(312), 카메라(310)의 카메라 위치 정보를 제공하는 GPS 모듈(314)과, 카메라(310)의 기울기 정보를 제공하는 센서 모듈(315)을 포함할 수 있다. 여기서, 센서 모듈(315)은 카메라(310)의 자세 정보를 제공하는 가속도 센서(316)와, 카메라(310)의 방향 정보를 제공하는 지자기 센서(318)를 포함할 수 있다. 본 발명의 실시예에 따른 엣지 디바이스(320)는 유선 또는 무선 신호를 송수신하는 통신 모듈(322), 영상 데이터를 처리하는 프로세서(324), 그리고 영상 데이터를 저장하는 메모리(326)를 포함한다. 도 5의 촬영 모듈(312), GPS 모듈(314), 센서 모듈(315), 통신 모듈(322), 프로세서(324), 메모리(326)의 기능 및 세부 구성은 도 4를 참조하여 설명된 사항과 실질적으로 동일하므로 생략한다.
본 발명의 실시예에 따르면, 엣지 디바이스(320)의 프로세서(324)는 통신 모듈(322)을 통해 카메라(310)의 카메라 위치 정보 및 기울기 정보를 수신하고, 통신 모듈(322)을 통해 카메라(310)로부터 영상 데이터를 수신하고, 카메라(310)의 카메라 위치 정보 및 기울기 정보에 기반하여 영상 데이터의 촬영 대상 위치를 결정하고, 영상 데이터로부터 촬영 대상 위치에서 발생한 이벤트를 검출하고, 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송하도록 통신 모듈(322)을 제어한다.
일 실시예에서, 프로세서(324)는 카메라(310)로부터 카메라(310)의 자세 정보 또는 카메라(310)의 방향 정보를 획득하고, 카메라(310)의 자세 정보 또는 방향 정보에 기반하여 카메라(310)의 상하각 또는 방위각 중 적어도 하나를 계산할 수 있다.
일 실시예에서, 프로세서(324)는 카메라(310)의 높이 정보를 확인하고, 카메라(310)의 상하각 및 방위각을 결정하고, 높이 정보, 상하각, 및 방위각에 기반하여 메모리(326)에 저장된 지도 상에서 촬영 대상 위치를 맵핑할 수 있다. 여기서, 높이 정보는 메모리(326)에 저장되거나, 카메라(310)의 거리 센서에 의해 측정되거나, 또는 카메라(310)의 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.
일 실시예에서, 프로세서(324)는 영상 데이터로부터 객체를 추출하고, 추출된 객체의 행동을 분석하고, 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 객체의 행동이 기 정의된 이벤트와 매칭되면, 객체의 행동에 대응하는 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송하도록 통신 모듈(322)을 제어할 수 있다. 마찬가지로, 이벤트 및 촬영 대상 위치에 대한 정보가 전송되는 포맷은 다수 개의 엣지 디바이스를 관리하는 엣지 서버에 의해 배포될 수 있으며, 이에 대하여 이후 도 9를 참조하여 설명한다.
도 6은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 AI 카메라 장치(300)의 동작을 나타내는 흐름도이다. 도 6에 도시된 각 동작은 AI 카메라 장치(300)(또는 엣지 디바이스(320))의 프로세서(324)에 의해 수행될 수 있다.
S605 단계에서, AI 카메라 장치(300)는 AI 카메라 장치(300)의 카메라 위치 정보 및 기울기 정보를 획득한다. 일 실시예에서, AI 카메라 장치(300)는 GPS 모듈(314)로부터 AI 카메라 장치(300)의 카메라 위치 정보를 획득하고, 센서 모듈(315)로부터 AI 카메라 장치(300)의 기울기 정보를 획득할 수 있다. 본 발명의 실시예에 따르면, 센서 모듈(315)은 가속도 센서(316)와 지자기 센서(318)를 포함할 수 있으며, 기울기 정보는 가속도 센서(316)에 의해 측정된 AI 카메라 장치(300)의 상하각 및 지자기 센서(318)에 의해 측정된 방위각을 포함할 수 있다.
S610 단계에서, AI 카메라 장치(300)는 영상 데이터를 획득한다. 본 발명의 실시예에 따르면, 영상 데이터는 촬영 모듈(312)에 의해 제공될 수 있다.
S615 단계에서, AI 카메라 장치(300)는 AI 카메라 장치(300)의 카메라 위치 정보 및 기울기 정보에 기반하여 촬영 대상 위치를 결정한다. 본 발명의 실시예에 따르면, AI 카메라 장치(300)는 AI 카메라 장치(300)의 높이 정보를 확인하고, 자세 정보 또는 방향 정보에 기반하여 AI 카메라 장치(300)의 상하각 및 방위각을 결정하고, 높이 정보, 상하각, 및 방위각에 기반하여 지도 상에서 촬영 대상 위치를 맵핑할 수 있다. 여기서, 높이 정보는 AI 카메라 장치(300)의 메모리에 저장되거나, AI 카메라 장치(300)의 거리 센서에 의해 측정되거나, AI 카메라 장치(300)의 기압 센서로부터 획득된 기압 정보로부터 계산될 수 있다.
S620 단계에서, AI 카메라 장치(300)는 영상 데이터로부터 촬영 대상 위치에서 발생한 이벤트를 검출한다. 본 발명의 실시예에 따르면, AI 카메라 장치(300)는 영상 데이터로부터 객체를 추출하고, 추출된 객체의 행동을 분석하고, 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고, 객체의 행동이 기 정의된 이벤트와 매칭되면, 객체의 행동에 대응하는 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송할 수 있다.
S625 단계에서, AI 카메라 장치(300)는 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송한다. 이벤트 및 촬영 대상 위치에 대한 정보가 전송되는 포맷은 다수 개의 엣지 디바이스를 관리하는 엣지 서버에 의해 배포될 수 있으며, 이에 대하여 이후 도 9를 참조하여 설명한다.
도 7은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 이벤트의 검출 및 상황 정보를 전송하는 경우의 예를 도시한다. 도 7을 참고하면, AI 카메라 장치(300)에 GPS 모듈(314), 가속도 센서(316), 및 지자기 센서(318)가 내장된다. GPS 모듈(314)은 AI 카메라 장치(300)의 카메라 위치 정보를 제공하고, 가속도 센서(316)와 지자기 센서(316)는 AI 카메라 장치(300)의 자세 정보를 제공하는데, 예를 들어 가속도 센서(316)는 지면에 대한 AI 카메라 장치(300)의 상하각을 측정하여 제공하고, 지자기 센서(316)는 자북에 대한 AI 카메라 장치(300)의 방위각을 측정하여 제공한다.
AI 카메라 장치(300)는 초기에 입력된 높이 정보를 메모리(326)에 저장할 수 있다. 또한, AI 카메라 장치(300)는 Z축을 따라 이동할 수도 있는데, 이 경우 초기 높이에 대하여 수직 방향 이동 거리를 더함으로써 현재 높이를 결정할 수 있다. 또한, AI 카메라 장치(300)는 거리 센서를 사용하여 지면으로부터의 거리를 통해 높이 정보를 획득할 수 있다. 또한, AI 카메라 장치(300)는 지면의 기압과 기압 센서에 의해 측정된 기압과의 비교를 통해 높이 정보를 획득할 수 있다. 그리하여, AI 카메라 장치(300)는 메모리(326)에 저장되거나 통신 모듈(322)로부터 수신한 지도 상에서 AI 카메라 장치(300)의 현재 카메라 위치를 특정하고, 지자기 센서(316)로부터 제공된 방위각을 사용하여 AI 카메라 장치(300)가 촬영 중인 촬영 대상 위치의 반경(수평 방향 범위)을 확인하고, AI 카메라 장치(300)의 현재 높이와 지면에 대한 상하각을 사용하여 AI 카메라 장치(300)의 현재 카메라 위치에 대한 현재 촬영 대상 위치의 거리 범위를 확인할 수 있다. 그리하여, AI 카메라 장치(300)는 영상 데이터의 촬영 대상 위치를 특정할 수 있다.
한편, AI 카메라 장치(300)는 촬영된 영상 데이터로부터 객체(예: 사람)를 추출하는데, 여기서 객체는 동작 인지 AI 소프트웨어를 사용하여 추출될 수 있다. 추출된 객체의 행동이 위험 상황 또는 이상 상황과 같은 이벤트에 대응하는 경우, AI 카메라 장치(300)는 이벤트가 발생했음을 검출하고 해당 이벤트 및 촬영 대상 위치에 대한 정보를 IoT 서버(330)로 전송할 수 있다.
도 8은 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 이벤트의 검출 및 대응 조치를 수행하는 과정의 예를 도시한다. 도 8을 참조하면, AI 카메라 장치(300)는 영상 데이터로부터 현재 촬영중인 촬영 대상 위치에서 무단 횡단과 같은 위험 상황 또는 환자 또는 범죄가 발생한 응급 상황을 검출한다. 그때 AI 카메라 장치(300)는 IoT 서버(330)로 영상 데이터와 함께 이벤트 정보(이벤트 종류, 촬영 대상 위치)를 전송한다.
IoT 서버(330)는 AI 카메라 장치(300)로부터 제공된 영상 데이터 및 이벤트 정보를 분석하여 해당 이벤트의 대응 조치를 위한 메시지를 출력 장치(340)로 전송한다. IoT 서버(330)는 AI 카메라 장치(300)로부터 수신한 이벤트 정보와 함께 촬영 대상 위치 주변의 장치들로부터 수신된 정보를 함께 고려하여 적합한 대응 조치를 도출하고, 해당 대응 조치를 위한 메시지를 출력 장치(340)로 전송할 수 있다. 예를 들어, 무단 횡단이 AI 카메라 장치(300)에 의해 감지된 경우, IoT 서버(330)는 스피커로 위험 상황을 알리는 음성 신호를 출력하도록 하고, 주변의 홀로그램 디스플레이를 통해 사고 방지를 위한 안내 비디오를 출력하도록 하고, 주변 기지국 또는 무선 통신 장치로 하여금 주변에서 접근하는 차량으로 경고 메시지를 전송하도록 제어할 수 있다. 또한, 환자가 발생한 경우, IoT 서버(330)는 스피커로 하여금 응급 조치에 대한 음성 신호를 출력하도록 제어하고, 범죄가 발생한 경우 범죄가 발생했음을 경고하는 음성 신호를 출력하도록 스피커를 제어할 수 있다. 또한, IoT 서버(330)는 이벤트에 대한 상황 판단 및 분석 정보를 서비스 관리자 장치(350)로 전송할 수 있다. 서비스 관리 장치(350)는 IoT 서버(330)로부터 이벤트에 대한 분석 정보를 수신하고, 분석 정보를 시각적 데이터로서 제공할 수 있다. 여기서 분석 정보는 이벤트의 발생 시간 및 위치(촬영 대상 위치) 별 통계 정보를 포함할 수 있다.
도 9는 본 명세서의 실시예에 따른 엣지 컴퓨팅 시스템에서 프로그램을 배포하기 위한 과정의 예를 도시한다. 도 9는 AI 카메라 장치(300)와 같은 엣지 디바이스에게 필요한 프로그램을 일괄적으로 배포하기 위한 방법의 예를 나타낸다. 일반적으로, 엣지 디바이스는 공유기와 같은 로컬 네트워크를 통해 연결되어 있으므로, 로컬 네트워크의 외부에 위치한 엣지 서버(360)는 각 엣지 디바이스의 정확한 인증 정보(예: IP 주소)를 획득하기 어려워, 필요한 엣지 디바이스로 프로그램을 스스로 전송할 수 없다. 그러므로, 본 발명의 실시예에 따르면, 메시지 브로커 서버(380)가 사용될 수 있다. 예를 들어, 메시지 브로커 서버(380)로서 MQTT(message queueing telemetry transport) 브로커가 사용될 수 있다.
도 9를 참조하면, 본 발명의 실시예에 따른 엣지 컴퓨팅 시스템은 엣지 디바이스(320)에 해당하는 AI 카메라 장치(300) 및 IoT 서버(330)에 더하여, 엣지 디바이스(320)를 관리하는 엣지 서버(360)와, 엣지 디바이스(320)를 위한 프로그램을 작성하는 엣지 빌더(edge builder)(370)와, 엣지 디바이스(320)와 엣지 서버(360) 사이를 중계하는 메시지 브로커 서버(380)를 더 포함한다. 본 발명의 실시예에 따른 엣지 컴퓨팅을 위한 프로그램의 배포 절차는 아래와 같다.
먼저, 엣지 서버(360)는 AI 카메라 장치(300)를 엣지 디바이스로서 관리 디바이스 리스트에 등록한다(S905). 이는 AI 카메라 장치(300)의 설치 초기에 수행될 수 있다. 이후, 엣지 빌더(370)는 등록된 엣지 디바이스를 위한 프로그램을 작성한다(S910). 예를 들어, 엣지 빌더(370)는 엣지 디바이스(320)와 IoT 서버(330)(또는 엣지 컴퓨팅 서버) 간의 통합된 데이터 처리 프로세스를 구현하기 위한 프로그램을 생성할 수 있다. 이후, 엣지 빌더(370)는 엣지 서버(360)로 작성된 프로그램을 등록하고 배포 (허가) 정보(프로그램 정보)를 등록한다(S915). 여기서 배포 정보는 작성된 프로그램에 대한 정보 및 해당 프로그램이 배포되도록 허용된 엣지 디바이스들의 리스트를 포함할 수 있다. 또한, 엣지 빌더(370)는 메시지 브로커 서버(380)로 프로그램 배포 정보를 전송한다(S920). 엣지 디바이스(320)는 메시지 브로커 서버(380)로부터 프로그램 배포 정보를 수신한다(S925).
엣지 디바이스(320)는 프로그램 배포 정보로부터 획득된 프로그램 정보 및 엣지 디바이스(320)의 인증 정보(예: IP 주소)를 포함하는 프로그램 요청 메시지를 엣지 서버(360)로 전송한다(S930). 프로그램 요청 메시지에 대응하여 엣지 디바이스(320)는 엣지 서버(360)로부터 프로그램의 데이터를 다운로드한다(S935). 이후, 엣지 디바이스(320)는 다운로드된 프로그램의 포맷에 따라 이벤트 및 촬영 대상 위치에 대한 정보를 생성하여 IoT 서버(330)로 전송한다.
본 실시예 및 본 명세서에 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형예와 구체적인 실시예는 모두 본 발명의 권리범위에 포함되는 것이 자명하다고 할 것이다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구범위 뿐만 아니라 이 특허 청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (20)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 엣지 컴퓨팅(edge computing) 시스템에 있어서,
    AI 카메라 장치로서, 영상 데이터를 생성하고, 상기 AI 카메라 장치의 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 촬영 대상 위치에서 발생한 이벤트를 검출하는, 상기 AI 카메라 장치;
    상기 AI 카메라 장치로부터 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 수신하고, 상기 정보로부터 경고 메시지를 생성하는 IoT(internet of things) 서버;
    상기 IoT 서버로부터 상기 경고 메시지를 수신하고, 상기 경고 메시지에 대응하는 경고 신호를 출력하는 출력 장치를 포함하고,
    상기 AI 카메라 장치는,
    상기 AI 카메라 장치의 높이 정보를 확인하고, 여기서 상기 높이 정보는 상기 AI 카메라 장치의 메모리에 저장되거나 상기 AI 카메라 장치의 거리 센서에 의해 측정되거나, 또는 AI 카메라 장치의 기압 센서로부터 획득된 기압 정보로부터 계산되며,
    상기 기울기 정보에 기반하여 상기 AI 카메라 장치의 상하각 및 방위각을 결정하고,
    상기 높이 정보, 상하각, 및 방위각에 기반하여 지도 상에서 상기 촬영 대상 위치를 맵핑하며,
    상기 IoT 서버는 상기 AI 카메라 장치로부터 수신한 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보와 함께 상기 촬영 대상 위치 주변의 장치들로부터 수신된 정보를 함께 고려하여 적합한 대응 조치를 도출하고, 상기 대응 조치를 위한 상기 경고 메시지를 상기 출력 장치로 전송하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
  14. 제13항에 있어서,
    상기 AI 카메라 장치는,
    상기 영상 데이터를 생성하는 촬영 모듈;
    상기 카메라 위치 정보를 제공하는 GPS(global positioning system) 모듈;
    상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈; 및
    상기 카메라 위치 정보 및 기울기 정보에 기반하여 상기 영상 데이터의 촬영 대상 위치를 결정하고, 상기 영상 데이터로부터 상기 이벤트를 검출하는 프로세서; 및
    상기 이벤트에 대한 정보를 상기 IoT 서버로 전송하는 통신 모듈을 포함하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
  15. 제13항에 있어서,
    상기 AI 카메라 장치는,
    상기 영상 데이터를 생성하는 촬영 모듈과, 상기 카메라 위치 정보를 제공하는 GPS(global positioning system) 모듈과, 상기 AI 카메라 장치의 기울기 정보를 제공하는 센서 모듈을 포함하는 카메라; 및
    상기 카메라로부터 상기 영상 데이터, 상기 카메라 위치 정보, 및 상기 기울기 정보를 수신하고, 상기 영상 데이터로부터 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 IoT 서버로 전송하는 엣지 디바이스를 포함하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
  16. 삭제
  17. 제13항에 있어서,
    상기 AI 카메라 장치는,
    상기 영상 데이터로부터 객체를 추출하고,
    상기 객체의 행동을 분석하고,
    상기 객체의 행동이 기 정의된 이벤트와 매칭되는지 여부를 결정하고,
    상기 객체의 행동이 상기 기 정의된 이벤트와 매칭되면, 상기 객체의 행동에 대응하는 이벤트 및 상기 촬영 대상 위치에 대한 정보를 상기 IoT 서버로 전송하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
  18. 제13항에 있어서,
    상기 출력 장치는 음성 신호를 출력하는 스피커(speaker), 영상 신호를 출력하는 디스플레이(display), 광 신호를 출력하는 발광 장치, 무선 통신을 사용하여 모바일 장치로 경고 메시지를 전송하는 무선 송신기 중 적어도 하나에 해당하고,
    상기 경고 메시지에 대응하는 경고 신호를 상기 음성 신호, 상기 영상 신호, 상기 광 신호, 또는 상기 경고 메시지 중 적어도 하나로 변환하여 출력하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
  19. 제13항에 있어서,
    상기 IoT 서버로부터 상기 이벤트에 대한 분석 정보를 수신하는 서비스 관리 장치를 더 포함하고,
    상기 분석 정보는 상기 이벤트의 발생 시간 및 위치 별 통계 정보를 포함하는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
  20. 제13항에 있어서,
    상기 AI 카메라 장치를 관리하는 엣지 서버;
    상기 AI 카메라 장치를 위한 프로그램을 작성하는 엣지 빌더(edge builder);
    상기 AI 카메라 장치와 상기 엣지 서버 사이를 중계하는 메시지 브로커 서버를 더 포함하고,
    상기 엣지 서버는 상기 AI 카메라 장치를 관리 디바이스 리스트에 등록하고,
    상기 엣지 빌더 서버는 상기 작성된 프로그램에 대한 정보 및 프로그램 배포 정보를 상기 엣지 서버로 전송하고, 상기 프로그램 배포 정보를 상기 메시지 브로커 서버로 전송하며, 여기서 상기 프로그램 배포 정보는 상기 AI 카메라 장치를 포함하여 상기 프로그램이 허용된 엣지 디바이스에 대한 정보를 포함하고,
    상기 메시지 브로커 서버는 상기 AI 카메라 장치로 상기 프로그램 배포 정보를 전송하고,
    상기 AI 카메라 장치는,
    상기 프로그램 배포 정보로부터 획득된 프로그램 정보 및 상기 AI 카메라 장치의 인증 정보를 포함하는 프로그램 요청 메시지를 엣지 서버로 전송하고,
    상기 엣지 서버로부터 상기 프로그램의 데이터를 다운로드하고,
    상기 프로그램의 포맷에 따라 상기 이벤트 및 상기 촬영 대상 위치에 대한 정보를 생성하도록 설정되는 것을 특징으로 하는 엣지 컴퓨팅 시스템.
KR1020200075302A 2020-06-19 2020-06-19 엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 ai 카메라 장치 및 엣지 디바이스 KR102297766B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200075302A KR102297766B1 (ko) 2020-06-19 2020-06-19 엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 ai 카메라 장치 및 엣지 디바이스

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200075302A KR102297766B1 (ko) 2020-06-19 2020-06-19 엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 ai 카메라 장치 및 엣지 디바이스

Publications (1)

Publication Number Publication Date
KR102297766B1 true KR102297766B1 (ko) 2021-09-06

Family

ID=77782223

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200075302A KR102297766B1 (ko) 2020-06-19 2020-06-19 엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 ai 카메라 장치 및 엣지 디바이스

Country Status (1)

Country Link
KR (1) KR102297766B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090094292A (ko) * 2007-05-21 2009-09-04 후아웨이 테크놀러지 컴퍼니 리미티드 파일 데이터 분배 방법, 디바이스, 및 시스템
JP5016443B2 (ja) * 2007-10-25 2012-09-05 ティーオーエー株式会社 カメラ設置シミュレータプログラム
KR101639068B1 (ko) * 2014-11-28 2016-07-14 주식회사 지오멕스소프트 공간 정보 기반 감시카메라의 피보호자 영상 제공 시스템
KR102107957B1 (ko) * 2020-01-06 2020-05-07 주식회사 투윈스컴 건물 외벽 침입감지를 위한 cctv 모니터링 시스템 및 방법
KR102119721B1 (ko) * 2019-10-23 2020-06-05 주식회사 넥스트케이 지능형 에지장치 및 그 장치의 구동방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090094292A (ko) * 2007-05-21 2009-09-04 후아웨이 테크놀러지 컴퍼니 리미티드 파일 데이터 분배 방법, 디바이스, 및 시스템
JP5016443B2 (ja) * 2007-10-25 2012-09-05 ティーオーエー株式会社 カメラ設置シミュレータプログラム
KR101639068B1 (ko) * 2014-11-28 2016-07-14 주식회사 지오멕스소프트 공간 정보 기반 감시카메라의 피보호자 영상 제공 시스템
KR102119721B1 (ko) * 2019-10-23 2020-06-05 주식회사 넥스트케이 지능형 에지장치 및 그 장치의 구동방법
KR102107957B1 (ko) * 2020-01-06 2020-05-07 주식회사 투윈스컴 건물 외벽 침입감지를 위한 cctv 모니터링 시스템 및 방법

Similar Documents

Publication Publication Date Title
US11917334B2 (en) Surveillance system with fixed camera and temporary cameras
US9070305B1 (en) Traffic light detecting system and method
US9721347B2 (en) 3D model updates using crowdsourced video
US20170341775A1 (en) Method, apparatus and computer-readable medium for landing flight device
EP3994423B1 (en) Collecting user-contributed data relating to a navigable network
US20170019639A1 (en) Integrated monitoring cctv, abnormality detection apparatus, and method for operating the apparatus
US9380144B1 (en) Mobile wireless communication device emergency mode
US20180165285A1 (en) Comparative Geolocation System
KR102297766B1 (ko) 엣지 컴퓨팅 시스템에서 영상 데이터를 처리하는 ai 카메라 장치 및 엣지 디바이스
KR102333955B1 (ko) 사회적 약자를 위한 안전 지역 안내 및 경로 안내를 위한 방법, 시스템 및 애플리케이션
US20220316909A1 (en) Method and Communication System for Supporting at Least Partially Automatic Vehicle Control
KR20190020940A (ko) 외부 전자 장치에 대응하는 식별 정보를 이용하여 위치를 결정하는 방법 및 장치
KR20200100944A (ko) 무인기 착륙 시스템
KR102067547B1 (ko) 이동통신단말 및 건물 cctv카메라 간의 통신연결 및 영상분석 기반의 주변차량 위험상황 감지 및 방법
KR102363760B1 (ko) 실시간으로 노면을 모니터링하기 위한 전자 장치와 그의 동작 방법 및 그를 포함하는 시스템
KR101674033B1 (ko) 삼차원 지도 기반 폐쇄회로 텔레비전 영상 매핑 시스템
KR20130011350A (ko) 차량 안전 운행 가이드 방법, 및 이를 위한 장치 및 시스템
WO2019188429A1 (ja) 動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラム
KR102067553B1 (ko) 셀룰러 네트워크 기반 이동통신단말로의 건물cctv 영상 전송을 활용한 상황 전달 시스템
KR102660024B1 (ko) 도로 이벤트 탐지 방법 및 그 장치
CN114333199B (zh) 一种报警方法、设备及系统、芯片
KR101634967B1 (ko) 3차원 영상 변환 기반의 앱 호환형 악천후 지역의 모니터링 시스템 및 그 방법
KR20240051489A (ko) 차량용 카메라 원격 제어 방법, 장치 및 시스템
Fend et al. Autonomous UAV Landing in a Box on a Moving Platform
CN116528154A (zh) 用于界定区域内的车辆驾驶辅助的方法

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant