KR102596848B1 - The Method that Estimate Energy Consumption according to The Number of Occupants based on Artificial Intelligence, and The System and Computer-readable Medium for Performing The Same - Google Patents

The Method that Estimate Energy Consumption according to The Number of Occupants based on Artificial Intelligence, and The System and Computer-readable Medium for Performing The Same Download PDF

Info

Publication number
KR102596848B1
KR102596848B1 KR1020230024341A KR20230024341A KR102596848B1 KR 102596848 B1 KR102596848 B1 KR 102596848B1 KR 1020230024341 A KR1020230024341 A KR 1020230024341A KR 20230024341 A KR20230024341 A KR 20230024341A KR 102596848 B1 KR102596848 B1 KR 102596848B1
Authority
KR
South Korea
Prior art keywords
information
learning
model
occupants
recognized
Prior art date
Application number
KR1020230024341A
Other languages
Korean (ko)
Inventor
김미림
박건준
손성용
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Application granted granted Critical
Publication of KR102596848B1 publication Critical patent/KR102596848B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B70/00Technologies for an efficient end-user side electric power management and consumption
    • Y02B70/30Systems integrating technologies related to power network operation and communication or information technologies for improving the carbon footprint of the management of residential or tertiary loads, i.e. smart grids as climate change mitigation technology in the buildings sector, including also the last stages of power distribution and the control, monitoring or operating management systems at local level
    • Y02B70/34Smart metering supporting the carbon neutral operation of end-user applications in buildings

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Tourism & Hospitality (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • Data Mining & Analysis (AREA)
  • Water Supply & Treatment (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법, 및 이를 수행하는 시스템, 컴퓨터-판독가능 매체로서, 제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터에 기반하여 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램을 생성하고, 상기 제1카메라의 학습영상 촬영시의 시간정보, 제2카메라로 촬영된 영상에서 실측된 객체의 수 및 상기 학습히스토그램에 기반하여 인공신경망 기반의 제2모델을 학습시키고, 상기 제1카메라로 촬영된 영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 객체인식데이터에 기반하여 생성된 히스토그램정보 및 상기 제1카메라의 영상 촬영시의 시간정보에 기반하여 시간당 재실인원 수를 추정하고, 추정된 시간당 재실인원 수 및 상기 시간정보를 학습된 인공신경망 기반의 제3모델에 입력하여 재실인원에 따른 시간당 에너지소비량을 예측하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법, 및 이를 수행하는 시스템, 컴퓨터-판독가능 매체에 관한 것이다.The present invention is an artificial intelligence-based method of estimating energy consumption according to the number of occupants, and a system and computer-readable medium for performing the same, wherein the data is recognized through a first model based on an artificial neural network learned from a training image captured by a first camera. Based on the learning object recognition data for the object, a learning histogram containing information on the number of times recognized per number of recognized objects is generated, time information when shooting the learning image by the first camera, and actual measurements from the image captured by the second camera. A second model based on an artificial neural network is trained based on the number of objects and the learning histogram, and the object recognition data for the object recognized through the first model based on an artificial neural network learned from the image captured by the first camera is used. The number of occupants per hour is estimated based on the generated histogram information and the time information at the time of video recording by the first camera, and the estimated number of occupants per hour and the time information are applied to a third model based on a learned artificial neural network. It relates to an artificial intelligence-based energy consumption estimation method according to the number of occupants, which inputs and predicts energy consumption per hour according to the number of occupants, and a system and computer-readable medium for performing the same.

Description

인공지능 기반 재실인원에 따른 에너지 소비량 추정방법, 및 이를 수행하는 시스템, 컴퓨터-판독가능 매체{The Method that Estimate Energy Consumption according to The Number of Occupants based on Artificial Intelligence, and The System and Computer-readable Medium for Performing The Same}The Method that Estimate Energy Consumption according to The Number of Occupants based on Artificial Intelligence, and The System and Computer-readable Medium for Performing The Same}

본 발명은 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법, 및 이를 수행하는 시스템, 컴퓨터-판독가능 매체로서, 제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터에 기반하여 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램을 생성하고, 상기 제1카메라의 학습영상 촬영시의 시간정보, 제2카메라로 촬영된 영상에서 실측된 객체의 수 및 상기 학습히스토그램에 기반하여 인공신경망 기반의 제2모델을 학습시키고, 상기 제1카메라로 촬영된 영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 객체인식데이터에 기반하여 생성된 히스토그램정보 및 상기 제1카메라의 영상 촬영시의 시간정보에 기반하여 시간당 재실인원 수를 추정하고, 추정된 시간당 재실인원 수 및 상기 시간정보를 학습된 인공신경망 기반의 제3모델에 입력하여 재실인원에 따른 시간당 에너지소비량을 예측하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법, 및 이를 수행하는 시스템, 컴퓨터-판독가능 매체에 관한 것이다.The present invention is an artificial intelligence-based method of estimating energy consumption according to the number of occupants, and a system and computer-readable medium for performing the same, wherein the data is recognized through a first model based on an artificial neural network learned from a training image captured by a first camera. Based on the learning object recognition data for the object, a learning histogram containing information on the number of times recognized per number of recognized objects is generated, time information when shooting the learning image by the first camera, and actual measurements from the image captured by the second camera. A second model based on an artificial neural network is trained based on the number of objects and the learning histogram, and the object recognition data for the object recognized through the first model based on an artificial neural network learned from the image captured by the first camera is used. The number of occupants per hour is estimated based on the generated histogram information and the time information at the time of video recording by the first camera, and the estimated number of occupants per hour and the time information are applied to a third model based on a learned artificial neural network. It relates to an artificial intelligence-based energy consumption estimation method according to the number of occupants, which inputs and predicts energy consumption per hour according to the number of occupants, and a system and computer-readable medium for performing the same.

최근 전 세계적으로 에너지 절약에 대한 관심이 높아지고 있다. 현재 전세계의 총 에너지 중 30%는 건물에서 소비되고 있고, 건물에서 막대한 에너지소비량이 발생하는 만큼 건물의 에너지 수요관리를 필요로 하고 있다. 특히, 건물에서 발생하는 에너지소비량은 건물 내 재실인원의 영향을 많이 받으므로 재실인원정보를 기반으로 건물에서 발생하는 에너지소비량의 분석이 필요한 상황이다.Recently, interest in energy saving has been increasing around the world. Currently, 30% of the world's total energy is consumed in buildings, and as buildings generate enormous energy consumption, energy demand management of buildings is necessary. In particular, the energy consumption generated in a building is greatly influenced by the number of occupants in the building, so it is necessary to analyze the energy consumption generated in the building based on the occupant information.

기존의 재실인원 측정에 활용되는 센서로 PIR센서(Passive Infrared Seonsor), CO2 센서 등이 존재한다. 그러나 PIR센서는 객체의 동작이 없을 시 객체에 대한 인식이 힘들어지고, CO-2센서는 질량균형방식에 기초하여 CO2 농도를 검출하는데, 환기 등의 변수의 영향을 많이 받는다. 또한 해당 센서들은 외부요인, 카메라의 설치위치, 통신환경 등으로 인해 측정오차가 발생하여 재실인원 측정에 대한 오류가 빈번하게 발생한다. 그렇기에 재실인원의 측정에 대한 오차 개선을 통해 재실인원에 따른 에너지소비량 추정의 정확도를 향상시키는 기술의 개발이 필요한 상황이다.Sensors used to measure existing occupancy include PIR sensors (Passive Infrared Seonsors) and CO2 sensors. However, it becomes difficult for the PIR sensor to recognize an object when there is no movement of the object, and the CO- 2 sensor detects CO2 concentration based on the mass balance method, which is greatly affected by variables such as ventilation. Additionally, measurement errors occur in the sensors due to external factors, camera installation location, communication environment, etc., resulting in frequent errors in measuring occupancy. Therefore, there is a need to develop technology to improve the accuracy of energy consumption estimation according to the number of occupants by improving the error in measuring the number of occupants.

AI객체인식은 카메라로부터 영상을 받아 주어진 이미지에서 특정 객체의 위치와 종류를 파악하는 기술이다. 기존의 방식대로 AI객체인식 기술을 활용하기 위하여 이미지 및 개인정보를 저장 및 수집하는 방법은 사생활 침해라는 부작용이 존재할 수 있다. 이러한 부작용을 방지하기 위해 이미지 및 영상 데이터의 저장 없이 이미 학습된 데이터를 기반으로 이미지 내의 객체만을 탐지한다. 그러나 이런 경우, 카메라 특성상 빛 반사에 의한 인식오류가 발생할 수 있고, 의자에 목받침에 걸린 옷과 같은 사물을 사람으로 인식할 수 있고, 체구가 작은 사람이 의자나 모니터에 가려져 사람으로 인식을 못하는 일이 종종 발생한다. 이러한 오류를 방지하고 재실인원 측정에 대한 정확도를 높일 수 있는 기술의 개발이 필요한 상황이다.AI object recognition is a technology that receives images from a camera and identifies the location and type of a specific object in a given image. The existing method of storing and collecting images and personal information to utilize AI object recognition technology may have the side effect of violating privacy. To prevent these side effects, only objects in images are detected based on already learned data without storing image and video data. However, in this case, due to the nature of the camera, recognition errors may occur due to light reflection, objects such as clothes hanging on the neckrest of a chair may be recognized as people, and small people may not be recognized as people because they are obscured by a chair or monitor. Things happen often. There is a need to develop technology that can prevent these errors and increase the accuracy of measuring occupancy.

본 발명은 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법, 및 이를 수행하는 시스템, 컴퓨터-판독가능 매체로서, 제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터에 기반하여 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램을 생성하고, 상기 제1카메라의 학습영상 촬영시의 시간정보, 제2카메라로 촬영된 영상에서 실측된 객체의 수 및 상기 학습히스토그램에 기반하여 인공신경망 기반의 제2모델을 학습시키고, 상기 제1카메라로 촬영된 영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 객체인식데이터에 기반하여 생성된 히스토그램정보 및 상기 제1카메라의 영상 촬영시의 시간정보에 기반하여 시간당 재실인원 수를 추정하고, 추정된 시간당 재실인원 수 및 상기 시간정보를 학습된 인공신경망 기반의 제3모델에 입력하여 재실인원에 따른 시간당 에너지소비량을 예측하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법, 및 이를 수행하는 시스템, 컴퓨터-판독가능 매체를 제공하는 것을 목적으로 한다.The present invention is an artificial intelligence-based method of estimating energy consumption according to the number of occupants, and a system and computer-readable medium for performing the same, wherein the data is recognized through a first model based on an artificial neural network learned from a training image captured by a first camera. Based on the learning object recognition data for the object, a learning histogram containing information on the number of times recognized per number of recognized objects is generated, time information when shooting the learning image by the first camera, and actual measurements from the image captured by the second camera. A second model based on an artificial neural network is trained based on the number of objects and the learning histogram, and the object recognition data for the object recognized through the first model based on an artificial neural network learned from the image captured by the first camera is used. The number of occupants per hour is estimated based on the generated histogram information and the time information at the time of video recording by the first camera, and the estimated number of occupants per hour and the time information are applied to a third model based on a learned artificial neural network. The purpose is to provide an artificial intelligence-based energy consumption estimation method according to the number of occupants, which inputs and predicts energy consumption per hour according to the number of occupants, and a system and computer-readable medium for performing the same.

상기와 같은 과제를 해결하기 위하여 본 발명의 일 실시예는, 1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅시스템에 의하여 수행되는 인공지능 기반 재실인원에 따른 에너지소비량 추정방법으로서, 제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터를 생성하는 학습객체인식데이터생성단계; 제2카메라로 촬영된 영상에서 실측된 객체의 수를 포함하는 실측데이터를 생성하는 실측데이터생성단계; 상기 학습객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램정보를 생성하는 학습히스토그램생성단계; 및 상기 학습히스토그램정보, 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 제1학습특징벡터, 및 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시키는 모델학습단계;를 포함하는, 인공지능 기반 재실인원에 따른 에너지소비량 추정방법을 제공한다.In order to solve the above problems, an embodiment of the present invention is an artificial intelligence-based energy consumption estimation method according to the number of occupants performed by a computing system including one or more memories and one or more processors, which involves taking pictures with a first camera. A learning object recognition data generation step of generating learning object recognition data for an object recognized through a first model based on an artificial neural network learned from the learned learning image; An actual data generation step of generating actual measurement data including the number of objects actually measured in an image captured by a second camera; A learning histogram generation step of generating learning histogram information including information on the number of times the recognized object was recognized based on the learning object recognition data; And a model learning step of learning a second model based on an artificial neural network using the learning histogram information, a first learning feature vector including time information when shooting a learning image by the first camera, and the actual measurement data. Provides an artificial intelligence-based energy consumption estimation method according to the number of occupants.

본 발명의 일 실시예에서는, 상기 인공지능 기반 재실인원에 따른 에너지소비량 추정방법은, 제1카메라로 촬영된 영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 객체인식데이터를 생성하는 객체인식데이터생성단계; 상기 객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 히스토그램정보를 생성하는 히스토그램생성단계; 상기 히스토그램정보 및 제1카메라의 영상 촬영시의 시간정보를 포함하는 제1특징벡터를 상기 제2모델에 입력하여, 추정된 재실인원을 도출하는 재실인원추정단계; 및 상기 추정된 재실인원 및 상기 시간정보를 포함하는 제2특징벡터를 기반으로 학습된 인공신경망 기반의 제3모델을 통해 상기 재실인원에 따른 에너지소비량을 예측하는 에너지소비량예측단계;를 더 포함할 수 있다.In one embodiment of the present invention, the artificial intelligence-based energy consumption estimation method according to the number of occupants includes object recognition data for an object recognized through a first model based on an artificial neural network learned from an image captured by a first camera. Object recognition data generation step; A histogram generating step of generating histogram information including recognition count information per number of the recognized objects based on the object recognition data; An occupancy estimation step of inputting a first feature vector including the histogram information and time information when capturing an image by a first camera into the second model to derive an estimated occupancy number; And an energy consumption prediction step of predicting energy consumption according to the number of occupants through a third model based on an artificial neural network learned based on a second feature vector including the estimated number of occupants and the time information. You can.

본 발명의 일 실시예에서는, 상기 시간정보는, 상기 제1카메라에 의해 영상이 촬영되는 일 단위의 정보, 시간 단위의 정보 및 분 단위의 정보를 포함할 수 있다.In one embodiment of the present invention, the time information may include information in units of days, information in hours, and information in units of minutes when an image is captured by the first camera.

본 발명의 일 실시예에서는, 상기 학습히스토그램정보 및 상기 히스토그램정보 각각은, 기설정된 주기마다 상기 인식된 객체의 수를 기반으로 생성되고, 상기 인식된 객체의 수당 인식된 횟수정보를 포함하고, 가로축 지표는 상기 인식된 객체의 수에 해당하고, 세로축 지표는 해당 객체의 수만큼 인식된 횟수에 해당하고, 상기 기설정된 주기별로 상기 제2모델에 입력될 수 있다.In one embodiment of the present invention, each of the learning histogram information and the histogram information is generated based on the number of recognized objects at a preset period, includes recognition count information per number of recognized objects, and the horizontal axis The indicator corresponds to the number of recognized objects, and the vertical axis indicator corresponds to the number of times the object was recognized, and can be input to the second model at the preset period.

본 발명의 일 실시예에서는, 상기 제2모델은 CNN기반의 모델을 포함하고, 상기 제2모델은 특정시점의 시간정보 및 해당 히스토그램정보가 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 출력할 수 있다.In one embodiment of the present invention, the second model includes a CNN-based model, and the second model is inputted with time information and corresponding histogram information at a specific point in time, and the estimated number of occupants at that specific point in time. can be output.

본 발명의 일 실시예에서는, 상기 제2모델은 CNN기반의 모델을 포함하고, 상기 제2모델은 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 히스토그램정보가 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 도출할 수 있다.In one embodiment of the present invention, the second model includes a CNN-based model, and the second model includes time information at a plurality of viewpoints before a specific point in time and histogram information at a plurality of viewpoints before the specific point in time. By entering the information, the estimated number of occupants at that specific point in time can be derived.

본 발명의 일 실시예에서는, 상기 제2모델은 LSTM기반의 모델을 포함하고, 상기 제2모델은 각각의 LSTM모듈에 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 히스토그램정보가 각각 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 도출할 수 있다.In one embodiment of the present invention, the second model includes an LSTM-based model, and the second model includes time information of a plurality of points in time before a specific point in each LSTM module and a plurality of points in time before the specific point in time. The histogram information in is input respectively, and the estimated number of occupants at that specific point in time can be derived.

본 발명의 일 실시예에서는, 상기 제3모델은 CNN기반의 모델을 포함하고, 상기 제3모델은 특정시점의 시간정보 및 추정된 재실인원의 수가 입력되어, 해당 특정시점에서의 예측되는 에너지소비량을 산출할 수 있다.In one embodiment of the present invention, the third model includes a CNN-based model, and the third model inputs time information and the estimated number of occupants at a specific point in time, and calculates the predicted energy consumption at that specific point in time. can be calculated.

본 발명의 일 실시예에서는, 상기 제3모델은 CNN기반의 모델을 포함하고, 상기 제3모델은 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 추정된 재실인원의 수가 입력되어, 해당 특정시점에서의 예측되는 에너지소비량을 산출할 수 있다.In one embodiment of the present invention, the third model includes a CNN-based model, and the third model includes time information at a plurality of viewpoints before a specific point in time and estimated presence at a plurality of viewpoints before the specific point in time. The number of people is entered, and the predicted energy consumption at that specific point in time can be calculated.

본 발명의 일 실시예에서는, 상기 제3모델은 LSTM기반의 모델을 포함하고, 상기 제3모델은 각각의 LSTM모듈에 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 상기 추정된 재실인원의 수가 각각 입력되어, 해당 특정시점에서의 예측되는 에너지소비량을 산출할 수 있다.In one embodiment of the present invention, the third model includes an LSTM-based model, and the third model includes time information of a plurality of viewpoints before a specific point in each LSTM module and a plurality of viewpoints before the specific point in time. The estimated number of occupants in can be input, respectively, to calculate the predicted energy consumption at that specific point in time.

상기와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에서는, 1 이상의 메모리 및 1 이상의 프로세서를 포함하고, 인공지능 기반 재실인원에 따른 에너지소비량 추정방법을 수행하는 컴퓨팅시스템으로서, 제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터를 생성하는 학습객체인식데이터생성부; 제2카메라로 촬영된 영상에서 실측된 객체의 수를 포함하는 실측데이터를 생성하는 실측데이터생성부; 상기 학습객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램정보를 생성하는 학습히스토그램생성부; 및 상기 학습히스토그램정보, 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 제1학습특징벡터, 및 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시키는 모델학습부;를 포함하는, 컴퓨팅시스템을 제공한다.In order to solve the above problems, in one embodiment of the present invention, it is a computing system that includes one or more memories and one or more processors and performs an artificial intelligence-based energy consumption estimation method according to the number of occupants, and captures images with a first camera. a learning object recognition data generator that generates learning object recognition data for an object recognized through a first model based on an artificial neural network learned from the learned learning image; an actual measurement data generator that generates actual measurement data including the number of objects actually measured in an image captured by a second camera; a learning histogram generator that generates learning histogram information including information on the number of times the recognized object is recognized based on the learning object recognition data; And a model learning unit that trains a second model based on an artificial neural network using the learning histogram information, a first learning feature vector including time information when shooting a learning image by the first camera, and the actual measurement data. Provides a computing system that

본 발명의 일 실시예에서는, 상기 시간정보는, 상기 제1카메라에 의해 영상이 촬영되는 일 단위의 정보, 시간 단위의 정보 및 분 단위의 정보를 포함할 수 있다.In one embodiment of the present invention, the time information may include information in units of days, information in hours, and information in units of minutes when an image is captured by the first camera.

본 발명의 일 실시예에서는, 상기 학습히스토그램정보 및 상기 히스토그램정보 각각은, 기설정된 주기마다 상기 인식된 객체의 수를 기반으로 생성되고, 상기 인식된 객체의 수당 인식된 횟수정보를 포함하고, 가로축 지표는 상기 인식된 객체의 수에 해당하고, 세로축 지표는 해당 객체의 수만큼 인식된 횟수에 해당하고, 상기 기설정된 주기별로 상기 제2모델에 입력될 수 있다.In one embodiment of the present invention, each of the learning histogram information and the histogram information is generated based on the number of recognized objects at a preset period, includes recognition count information per number of recognized objects, and the horizontal axis The indicator corresponds to the number of recognized objects, and the vertical axis indicator corresponds to the number of times the object was recognized, and can be input to the second model at the preset period.

본 발명의 일 실시예에서는, 상기 제2모델은 CNN기반의 모델을 포함하고, 상기 제2모델은 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 상기 히스토그램정보가 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 도출할 수 있다.In one embodiment of the present invention, the second model includes a CNN-based model, and the second model includes time information at a plurality of viewpoints before a specific point in time and the histogram information at a plurality of viewpoints before the specific point in time. is input, and the estimated number of occupants at that specific point in time can be derived.

상기와 같은 과제를 해결하기 위하여 본 발명의 일 실시예는, 1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅시스템에서 인공지능 기반 재실인원에 따른 에너지소비량 추정시스템에 의하여 수행되는 인공지능 기반 재실인원에 따른 에너지소비량 추정방법을 구현하기 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 상기 컴퓨팅시스템으로 하여금 이하의 단계들을 수행하도록 하는 컴퓨터 실행가능 명령어들을 포함하고, 상기 이하의 단계들은: 제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터를 생성하는 학습객체인식데이터생성단계; 제2카메라로 촬영된 영상에서 실측된 객체의 수를 포함하는 실측데이터를 생성하는 실측데이터생성단계; 상기 학습객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램정보를 생성하는 학습히스토그램생성단계; 및 상기 학습히스토그램정보, 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 제1학습특징벡터, 및 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시키는 모델학습단계;를 포함하는, 컴퓨터-판독가능 매체를 제공한다.In order to solve the above problems, an embodiment of the present invention provides an artificial intelligence-based occupancy estimation system performed by an artificial intelligence-based occupancy estimation system in a computing system including one or more memories and one or more processors. A computer-readable medium for implementing a method for estimating energy consumption according to the present invention, wherein the computer-readable medium includes computer-executable instructions that cause the computing system to perform the following steps: A learning object recognition data generation step of generating learning object recognition data for an object recognized through a first model based on an artificial neural network learned from a learning image captured by a first camera; An actual data generation step of generating actual measurement data including the number of objects actually measured in an image captured by a second camera; A learning histogram generation step of generating learning histogram information including information on the number of times the recognized object was recognized based on the learning object recognition data; And a model learning step of learning a second model based on an artificial neural network using the learning histogram information, a first learning feature vector including time information when shooting a learning image by the first camera, and the actual measurement data. Provides a computer-readable medium that

본 발명의 일 실시예에서는, 카메라로 촬영된 영상에서 인식된 재실인원 수에 대한 히스토그램 및 사람이 직접 재실인원 수를 실측하여 획득한 실측데이터에 기반하여 인공지능 신경망 기반의 모델을 학습시키고, 학습된 인공지능 신경망 기반의 모델을 통해 시간당 재실인원 수에 대한 추정의 정확도를 높이는 효과를 발휘할 수 있다.In one embodiment of the present invention, an artificial intelligence neural network-based model is trained based on a histogram for the number of occupants recognized in an image captured by a camera and actual measurement data obtained by directly measuring the number of occupants. The artificial intelligence neural network-based model can have the effect of increasing the accuracy of estimation of the number of occupants per hour.

본 발명의 일 실시예에서는, 복수의 학습된 인공지능 신경망 기반의 모델을 통해 재실인원을 추정하는 과정을 수행하여 도출된 복수의 추정결과를 서로 비교하고, 시간당 재실인원 수에 대한 정확도가 높은 추정결과를 도출하는 효과를 발휘할 수 있다.In one embodiment of the present invention, a plurality of estimation results derived by performing a process of estimating the number of occupants through a plurality of learned artificial intelligence neural network-based models are compared with each other, and a highly accurate estimate of the number of occupants per hour is made. It can be effective in producing results.

본 발명의 일 실시예에서는, 복수의 학습된 인공지능 신경망 기반의 모델을 통해 에너지소비량을 예측하는 과정을 수행하여 도출된 복수의 추정결과를 서로 비교하고, 시간당 에너지소비량에 대한 정확도가 높은 추정결과를 도출하는 효과를 발휘할 수 있다.In one embodiment of the present invention, a plurality of estimation results derived by performing a process of predicting energy consumption through a plurality of learned artificial intelligence neural network-based models are compared with each other, and an estimation result with high accuracy for hourly energy consumption is obtained. It can have the effect of deriving .

본 발명의 일 실시예에서는, 시간당 재실인원 수 및 시간당 에너지소비량을 예측할 때, 학습된 인공신경망 기반의 모델에 시간정보를 입력하여 매분 변화하는 환경 및 재실인원의 생활패턴을 고려하여 시간당 재실인원 수 및 시간당 에너지소비량의 예측에 대한 정확도를 높이는 효과를 발휘할 수 있다.In one embodiment of the present invention, when predicting the number of occupants per hour and energy consumption per hour, time information is input into a learned artificial neural network-based model to calculate the number of occupants per hour by taking into account the environment that changes every minute and the living patterns of occupants. And it can have the effect of increasing the accuracy of prediction of energy consumption per hour.

본 발명의 일 실시예에서는, 기존 지능형검침인프라(AMI, Advanced Metering Infrastructure) 관련 인프라가 없는 건물에서도 재실인원 측정과 일시의 에너지소비량을 측정하여 이후 에너지소비량을 예측할 수 있고, 건물의 모든 층이 비슷한 용도로 사용되고 있다면, 지능형검침인프라를 일부 층에만 설치하여도 에너지소비량을 추정하여 비용을 절감하는 효과를 발휘할 수 있다.In one embodiment of the present invention, even in buildings without existing Advanced Metering Infrastructure (AMI)-related infrastructure, future energy consumption can be predicted by measuring the number of occupants and temporary energy consumption, and all floors of the building are similar. If it is being used for a specific purpose, installing the intelligent meter reading infrastructure on only some floors can have the effect of reducing costs by estimating energy consumption.

도 1은 본 발명의 일 실시예에 따른 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법 중 인공신경망 기반의 모델에 대한 학습을 수행하는 과정을 도시한다.
도 2는 본 발명의 일 실시예에 따른 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법 중 학습된 인공신경망 기반의 모델을 통한 추론을 수행하는 과정을 도시한다.
도 3은 본 발명의 일 실시예에 따른 히스토그램정보에 대한 구성을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 인공신경망 기반의 모델의 학습과정 및 추론과정을 수행하는 구성을 도시한다.
도 5는 본 발명의 일 실시예에 따른 에너지소비량예측단계를 수행과정을 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 히스토그램정보의 구성을 도시한다.
도 7은 본 발명의 일 실시예에 따른 복수의 인공신경망 기반의 모델을 통한 재실인원추정단계의 수행과정을 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 복수의 인공신경망 기반의 모델을 통한 에너지소비량예측단계의 수행과정을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 CNN 기반의 제2모델을 통해 추정된 시간당 재실인원 수를 예시적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 예측된 시간당 에너지소비량의 오차정도를 예시적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.
Figure 1 shows a process of learning an artificial neural network-based model among the artificial intelligence-based energy consumption estimation methods according to the number of occupants according to an embodiment of the present invention.
Figure 2 shows the process of performing inference through a learned artificial neural network-based model among the artificial intelligence-based energy consumption estimation method according to the number of occupants according to an embodiment of the present invention.
Figure 3 schematically shows the configuration of histogram information according to an embodiment of the present invention.
Figure 4 shows a configuration for performing the learning process and inference process of an artificial neural network-based model according to an embodiment of the present invention.
Figure 5 schematically shows the process of performing the energy consumption prediction step according to an embodiment of the present invention.
Figure 6 shows the configuration of histogram information according to an embodiment of the present invention.
Figure 7 schematically shows the process of performing the occupancy estimation step through a plurality of artificial neural network-based models according to an embodiment of the present invention.
Figure 8 schematically shows the process of performing the energy consumption prediction step through a plurality of artificial neural network-based models according to an embodiment of the present invention.
Figure 9 exemplarily shows the number of occupants per hour estimated through a second CNN-based model according to an embodiment of the present invention.
Figure 10 exemplarily shows the degree of error in predicted energy consumption per hour according to an embodiment of the present invention.
Figure 11 exemplarily shows the internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.BRIEF DESCRIPTION OF THE DRAWINGS Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to facilitate a general understanding of one or more aspects. However, it will also be appreciated by those skilled in the art that this aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain example aspects of one or more aspects. However, these aspects are illustrative and some of the various methods in the principles of the various aspects may be utilized, and the written description is intended to encompass all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Additionally, various aspects and features may be presented by a system that may include multiple devices, components and/or modules, etc. It is also understood that various systems may include additional devices, components and/or modules, etc. and/or may not include all of the devices, components, modules, etc. discussed in connection with the drawings. It must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “embodiments,” “examples,” “aspects,” “examples,” etc. may not be construed to mean that any aspect or design described is better or advantageous over other aspects or designs. . The terms '~part', 'component', 'module', 'system', 'interface', etc. used below generally refer to computer-related entities, such as hardware, hardware, etc. A combination of and software, it can mean software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Additionally, the terms “comprise” and/or “comprising” mean that the feature and/or element is present, but exclude the presence or addition of one or more other features, elements and/or groups thereof. It should be understood as not doing so.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Additionally, terms including ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by those skilled in the art to which the present invention pertains. It has the same meaning as Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the embodiments of the present invention, have an ideal or excessively formal meaning. It is not interpreted as

도 1은 본 발명의 일 실시예에 따른 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법 중 인공신경망 기반의 모델에 대한 학습을 수행하는 과정을 도시한다.Figure 1 shows a process of learning an artificial neural network-based model among the artificial intelligence-based energy consumption estimation methods according to the number of occupants according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅시스템에 의하여 수행되는 인공지능 기반 재실인원에 따른 에너지소비량 추정방법으로서, 제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터를 생성하는 학습객체인식데이터생성단계(S100); 제2카메라로 촬영된 영상에서 실측된 객체의 수를 포함하는 실측데이터를 생성하는 실측데이터생성단계(S200); 상기 학습객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램정보를 생성하는 학습히스토그램생성단계(S300); 및 상기 학습히스토그램정보, 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 제1학습특징벡터, 및 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시키는 모델학습단계(S400);를 포함한다.As shown in Figure 1, it is an artificial intelligence-based energy consumption estimation method according to the number of occupants performed by a computing system including one or more memories and one or more processors, and is an artificial neural network learned from training images captured by a first camera. A learning object recognition data generation step (S100) of generating learning object recognition data for an object recognized through a first model based; An actual measurement data generation step (S200) of generating actual measurement data including the number of objects actually measured in an image captured by a second camera; A learning histogram generation step (S300) of generating learning histogram information including information on the number of times the recognized object was recognized based on the learning object recognition data; And a model learning step (S400) of learning a second model based on an artificial neural network using the learning histogram information, a first learning feature vector including time information when shooting a learning image by the first camera, and the actual measurement data. Includes ;

개략적으로, 도 1에 도시된 수행과정은 시간당 재실인원 수에 대한 정밀한 추정을 위해 정확도를 높여주도록 인공신경망 기반의 상기 제2모델을 학습시키는 학습단계에 해당한다.Schematically, the execution process shown in FIG. 1 corresponds to a learning step in which the second model based on an artificial neural network is trained to increase accuracy for precise estimation of the number of occupants per hour.

구체적으로, 상기 학습객체인식데이터생성단계(S100)는 학습객체인식데이터생성부에 의해 수행되고, 상기 제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 객체를 인식하고, 상기 객체에 대한 학습객체인식데이터를 생성한다. 본 발명의 실시예에서, 상기 제1모델을 통해 인식되는 객체는 재실인원에 해당하고, 상기 학습객체인식데이터는 인식된 재실인원 각각에 대한 바운딩박스의 고유정보를 포함하여, 각 재실인원이 구별될 수 있도록 한다.Specifically, the learning object recognition data generation step (S100) is performed by a learning object recognition data generator, and recognizes the object through a first model based on an artificial neural network learned from the learning image captured by the first camera. , generate learning object recognition data for the object. In an embodiment of the present invention, the object recognized through the first model corresponds to an occupant, and the learning object recognition data includes unique information of a bounding box for each recognized occupant, so that each occupant is distinguished. make it possible

상기 실측데이터생성단계(S200)는 실측데이터생성부에 의해 수행되고, 상기 제2카메라로 촬영된 영상에서 실측된 시간당 재실인원의 수를 포함하는 상기 실측데이터를 생성한다. 상기 시간당 재실인원의 수는 사람이 직접 상기 제2카메라로 촬영된 영상을 모니터링하여 측정된다. 한편, 상기 실측데이터는 실측된 재실인원의 이미지가 아닌 실측된 재실인원의 수를 포함하여 영상에 촬영된 재실인원에 대한 개인정보를 보안을 강화해주는 효과를 발휘할 수 있다.The actual data generation step (S200) is performed by an actual data generator, and generates the actual data including the number of occupants per hour measured from an image captured by the second camera. The number of occupants per hour is measured by a person directly monitoring the video captured by the second camera. Meanwhile, the actual measurement data includes the actual number of occupants rather than the actual image of the occupants, which can have the effect of strengthening the security of personal information about occupants captured in the video.

상기 학습히스토그램생성단계(S300)는 학습히스토그램생성부에 의해 수행되고, 상기 학습객체인식데이터생성단계(S100)에 의해 생성된 상기 학습객체인식데이터를 기반으로 학습히스토그램정보를 생성한다. 상기 학습히스토그램정보는 상기 학습영상에서 상기 제1모델에 의해 인식된 객체 수당 해당 인식된 객체 수가 상기 제1카메라에 인식된 횟수정보를 포함하고, 해당 학습히스토그램의 가로축 지표는 상기 인식된 객체 수에 해당하고, 해당 학습히스토그램의 세로축 지표는 해당 인식된 객체 수가 인식된 횟수에 해당한다. 또한, 상기 학습히스토그램정보는 상기 제1카메라로 촬영된 학습영상에서 기설정된 주기마다 생성되어, 상기 기설정된 주기별로 생성된 학습히스토그램정보는 각각 상이한 인식된 객체 수 및 상이한 인식횟수에 해당하는 정보를 포함한다.The learning histogram generating step (S300) is performed by a learning histogram generating unit, and generates learning histogram information based on the learning object recognition data generated by the learning object recognition data generating step (S100). The learning histogram information includes information on the number of times the number of recognized objects was recognized by the first camera per number of objects recognized by the first model in the learning image, and the horizontal axis index of the learning histogram is divided into the number of recognized objects. Correspondingly, the vertical axis indicator of the learning histogram corresponds to the number of times the number of recognized objects was recognized. In addition, the learning histogram information is generated at preset intervals from the learning images captured by the first camera, and the learning histogram information generated at each preset interval contains information corresponding to the number of different recognized objects and different recognition times. Includes.

상기 모델학습단계(S400)는 모델학습부에 의해 수행되고, 상기 학습히스토그램정보 및 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 상기 제1학습특징벡터를 생성하고, 상기 실측데이터생성단계(S200)에서 생성된 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시킨다. 기존의 학습된 인공신경망 기반의 모델을 통해 카메라로 촬영된 영상에서 재실인원 수를 측정하는 기술은 카메라 특성상 빛 반사로 인한 인식오류, 사람을 가리는 사물 등으로 인해 전반적으로 실제 재실인원 수보다 과소측정이 되는 문제점이 종종 발생한다. 본 발명은 이러한 문제점을 해결하기 위해 시간당 인식된 재실인원의 빈도를 나타내는 상기 학습히스토그램정보 및 촬영된 영상에서 사람이 직접 재실인원의 수를 측정한 실측데이터를 이용하여 인공신경망 기반의 모델을 학습시켜 재실인원 수를 추정하는 과정에서 정확성을 높이는 효과를 발휘할 수 있다.The model learning step (S400) is performed by a model learning unit, generates the first learning feature vector including the learning histogram information and time information when shooting the learning image by the first camera, and generates the actual measurement data. A second model based on an artificial neural network is learned using the measured data generated in step S200. Technology that measures the number of occupants from images captured by a camera through an existing learned artificial neural network-based model generally underestimates the actual number of occupants due to recognition errors due to light reflection due to the nature of the camera and objects blocking people. This problem often occurs. In order to solve this problem, the present invention trains an artificial neural network-based model using the learning histogram information indicating the frequency of the number of occupants recognized per hour and actual measurement data where a person directly measures the number of occupants from the captured image. This can have the effect of increasing accuracy in the process of estimating the number of occupants.

도 2는 본 발명의 일 실시예에 따른 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법 중 학습된 인공신경망 기반의 모델을 통한 추론을 수행하는 과정을 도시한다.Figure 2 shows the process of performing inference through a learned artificial neural network-based model among the artificial intelligence-based energy consumption estimation method according to the number of occupants according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 상기 인공지능 기반 재실인원에 따른 에너지소비량 추정방법은, 제1카메라로 촬영된 영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 객체인식데이터를 생성하는 객체인식데이터생성단계(S500); 상기 객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 히스토그램정보를 생성하는 히스토그램생성단계(S600); 상기 히스토그램정보 및 제1카메라의 영상 촬영시의 시간정보를 포함하는 제1특징벡터를 상기 제2모델에 입력하여, 추정된 재실인원을 도출하는 재실인원추정단계(S700); 및 상기 추정된 재실인원 및 상기 시간정보를 포함하는 제2특징벡터를 기반으로 학습된 인공신경망 기반의 제3모델을 통해 상기 재실인원에 따른 에너지소비량을 예측하는 에너지소비량예측단계(S800);를 더 포함한다.As shown in FIG. 2, the artificial intelligence-based energy consumption estimation method according to the number of occupants uses object recognition data for objects recognized through a first model based on an artificial neural network learned from an image captured by a first camera. Object recognition data generation step (S500); A histogram generation step (S600) of generating histogram information including recognition count information per number of recognized objects based on the object recognition data; An occupancy estimation step (S700) of inputting a first feature vector including the histogram information and time information when capturing an image by a first camera into the second model to derive an estimated occupancy number; and an energy consumption prediction step (S800) of predicting energy consumption according to the number of occupants through a third model based on an artificial neural network learned based on a second feature vector including the estimated number of occupants and the time information. Includes more.

개략적으로, 도 2에 도시된 수행과정은 상기 실측데이터를 통해 재실인원 수에 대한 정밀한 예측을 수행하도록 학습된 인공신경망 기반의 상기 제2모델을 이용하여 상기 재실인원 수를 추론하는 추론단계에 해당한다.Schematically, the execution process shown in FIG. 2 corresponds to an inference step of inferring the number of occupants using the second model based on an artificial neural network learned to make a precise prediction of the number of occupants through the actual measurement data. do.

구체적으로, 상기 객체인식데이터생성단계(S500)는 상기 제1카메라로 촬영된 영상에서 상기 제1모델을 통해 인식된 객체에 대한 객체인식데이터를 생성한다. 본 발명의 실시예에서는, 상기 제1모델을 통해 인식되는 객체는 재실인원에 해당한다. 상기 객체인식데이터는 인식된 재실인원 각각에 대한 바운딩박스의 고유정보를 포함하여, 각 재실인원을 구별할 수 있도록 한다.Specifically, the object recognition data generation step (S500) generates object recognition data for an object recognized through the first model in an image captured by the first camera. In an embodiment of the present invention, the object recognized through the first model corresponds to the number of occupants. The object recognition data includes unique information on the bounding box for each recognized occupant, allowing each occupant to be distinguished.

상기 히스토그램생성단계(S600)는 상기 객체인식데이터에 기반하여 인식된 객체 수당 인식된 횟수정보를 포함하는 히스토그램정보를 생성한다. 상기 히스토그램정보는 상기 제1카메라로 촬영된 영상에서 기설정된 주기마다 생성되고, 시간별로 변하는 객체의 위치로 인해 상기 기설정된 주기별로 생성된 히스토그램정보는 각각 인식된 객체 수가 상이하고, 상기 인식된 객체수의 인식횟수 또한 상이하다.The histogram generation step (S600) generates histogram information including recognition count information per number of recognized objects based on the object recognition data. The histogram information is generated at preset periods in the image captured by the first camera, and the histogram information generated at each preset period due to the position of the object changing over time has a different number of recognized objects, and the number of recognized objects is different. The number of times a number is recognized is also different.

상기 재실인원추정단계(S700)는 상기 학습단계에서 상기 학습객체인식데이터 및 상기 실측데이터에 의해 학습된 상기 제2모델에 상기 제1특징벡터를 입력하여 시간당 재실인원 수를 측정한다. 상기 제1특징벡터는 상기 히스토그램정보 뿐 아니라 해당 재실인원의 생활패턴에 영향을 고려하기 위해 상기 제1카메라의 영상 촬영시의 시간정보를 추가로 포함한다. 상기 제2모델은 상기 학습히스토그램정보 및 상기 실측데이터를 기반으로 학습되어 재실인원 측정 중에 발생하는 오류를 줄여 상기 제1모델로 인식된 재실인원을 기반으로 생성된 상기 히스토그램정보로도 정확성을 높이는 효과를 발휘할 수 있다.The occupancy estimation step (S700) measures the number of occupancy per hour by inputting the first feature vector into the second model learned by the learning object recognition data and the actual measurement data in the learning step. The first feature vector includes not only the histogram information but also time information when the first camera captures the image in order to consider the influence on the living patterns of the occupants. The second model is learned based on the learning histogram information and the actual measurement data to reduce errors that occur during occupancy measurement and improve accuracy with the histogram information generated based on the occupancy recognized by the first model. can be demonstrated.

상기 에너지소비량예측단계(S800)는 추정된 시간당 재실인원 수 및 상기 시간정보를 포함하는 제2특징벡터를 기반으로 상기 제3모델을 통해 시간당 재실인원 수에 따른 시간당 에너지소비량을 예측한다. 에너지소비량은 재실인원 수와 유의미한 상관관계를 가지며, 상기 시간당 에너지소비량이 시간당 재실인원의 수와 비슷한 패턴의 추세를 보인다. 이러한 특징을 이용해 상기 재실인원추정단계(S700)에서 추정된 시간당 재실인원의 수에 기반하여 시간당 에너지소비량을 예측할 수 있다.The energy consumption prediction step (S800) predicts the energy consumption per hour according to the number of occupants per hour through the third model based on the estimated number of occupants per hour and the second feature vector including the time information. Energy consumption has a significant correlation with the number of occupants, and the energy consumption per hour shows a similar pattern to the number of occupants per hour. Using these characteristics, the energy consumption per hour can be predicted based on the number of occupants per hour estimated in the occupant estimation step (S700).

한편, 상기 객체인식데이터와 상기 학습객체인식데이터는 서로 다른 의미와 목적을 가지는 상이한 용어이다. 상기 학습객체인식데이터는 상기 제1카메라로 촬영된 학습영상에 기반하여 생성된 데이터에 해당하여 학습단계에 사용되고, 상기 객체인식데이터는 상기 제1카메라로 촬영된 영상에 기반하여 생성된 데이터에 해당하여 추론단계에 사용된다.Meanwhile, the object recognition data and the learning object recognition data are different terms with different meanings and purposes. The learning object recognition data corresponds to data generated based on the learning image captured by the first camera and is used in the learning step, and the object recognition data corresponds to data generated based on the image captured by the first camera. Therefore, it is used in the inference stage.

도 3은 본 발명의 일 실시예에 따른 히스토그램정보에 대한 구성을 개략적으로 도시한다.Figure 3 schematically shows the configuration of histogram information according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 인공지능 기반 재실인원에 따른 에너지소비량 추정방법은, 상기 학습객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램정보를 생성하는 학습히스토그램생성단계(S300); 및 상기 객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 히스토그램정보를 생성하는 히스토그램생성단계(S600);를 포함한다.As shown in Figure 3, the artificial intelligence-based energy consumption estimation method according to the number of occupants generates learning histogram information including information on the number of times the recognized object is recognized based on the learning object recognition data. Step (S300); and a histogram generation step (S600) of generating histogram information including information on the number of times the recognized objects are recognized based on the object recognition data.

구체적으로, 상기 학습히스토그램은 상기 학습단계에서 학습영상 중 인식된 객체에 대하여 생성되고, 상기 히스토그램은 상기 추론단계에서 영상 중 인식된 객체에 대하여 생성된다. 상기 학습히스토그램 및 히스토그램의 가로축좌표는 상기 제1카메라에 인식된 객체의 수에 해당하고, 세로축좌표는 상기 인식된 객체의 수가 상기 제1카메라에 인식된 횟수에 해당한다. 본 발명의 실시예에서는 상기 객체는 재실인원에 해당한다. 다만 해당 인식된 재실인원 수가 인식된 횟수는 기설정된 주기에 따라 계산된다. 예를 들어 상기 기설정된 주기가 1분이고, 상기 제1카메라로 촬영된 영상이 1분에 60프레임의 이미지를 포함할 때, 각 프레임의 이미지에서 인식된 재실인원 수의 인식횟수는 총 60프레임동안 합산하여 계산된다.Specifically, the learning histogram is generated for objects recognized in the training images in the learning step, and the histogram is generated for the objects recognized in the images in the inference step. The horizontal axis coordinate of the learning histogram and the histogram corresponds to the number of objects recognized by the first camera, and the vertical axis coordinate corresponds to the number of times the number of recognized objects was recognized by the first camera. In an embodiment of the present invention, the object corresponds to the number of occupants. However, the number of times the recognized number of occupants is recognized is calculated according to the preset cycle. For example, when the preset period is 1 minute and the video captured by the first camera includes images of 60 frames per minute, the number of recognition times for the number of occupants recognized in the image of each frame is for a total of 60 frames. It is calculated by adding up.

도 4는 본 발명의 일 실시예에 따른 인공신경망 기반의 모델의 학습과정 및 추론과정을 수행하는 구성을 도시한다.Figure 4 shows a configuration for performing the learning process and inference process of an artificial neural network-based model according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 인공지능 기반 재실인원에 따른 에너지소비량 추정방법은 상기 학습히스토그램정보, 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 제1학습특징벡터, 및 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시키는 모델학습단계(S400); 및 상기 히스토그램정보 및 제1카메라의 영상 촬영시의 시간정보를 포함하는 제1특징벡터를 상기 제2모델에 입력하여, 추정된 재실인원을 도출하는 재실인원추정단계(S700);를 포함한다.As shown in Figure 4, the artificial intelligence-based energy consumption estimation method according to the number of occupants includes the learning histogram information, a first learning feature vector including time information when shooting a learning image by the first camera, and the actual measurement data. A model learning step (S400) of learning a second model based on an artificial neural network using; and an occupancy estimation step (S700) of inputting the histogram information and a first feature vector including time information when capturing an image by the first camera into the second model to derive an estimated occupancy number.

또한 상기 시간정보는, 상기 제1카메라에 의해 영상이 촬영되는 일 단위의 정보, 시간 단위의 정보 및 분 단위의 정보를 포함한다.Additionally, the time information includes information in units of days, information in hours, and information in units of minutes when an image is captured by the first camera.

구체적으로, 도 4의 (a)는 상기 모델학습단계(S400)의 수행과정을 개략적으로 도시한다. 상기 학습객체인식데이터는 빛 반사에 의한 인식오류, 사물에 가려지는 사람 등의 측정오류로 인해 상기 실측데이터보다 전반적으로 객체의 수가 적게 측정된다. 이러한 오차를 줄이기 위해 상기 모델학습단계(S400)는, 상기 학습객체인식데이터를 기반으로 생성된 학습히스토그램정보 및 제2카메라를 통해 사람이 직접 측정하여 생성된 상기 실측데이터를 상기 제2모델에 입력하여 시간당 재실인원 수의 추정에 대한 학습을 수행한다. 상기 제1학습특징벡터는 상기 히스토그램정보를 이용하여 분 단위 재실인원 빈도로의 변환을 통해 구성된다. 상기 제1학습특징벡터는 상기 재실인원 빈도가 시간에 따라 변하는 재실인원의 생활패턴에 영향을 받는 것을 고려하기 위해 상기 시간정보를 포함한다. 또한 상기 시간정보는 크게는 일 단위의 정보부터 작게는 분 단위의 정보를 포함하여 재실인원 추정의 정확도를 높이는 효과를 발휘할 수 있다.Specifically, Figure 4(a) schematically shows the execution process of the model learning step (S400). The learning object recognition data measures an overall smaller number of objects than the actual measurement data due to measurement errors such as recognition errors caused by light reflection and people being obscured by objects. In order to reduce this error, the model learning step (S400) inputs the learning histogram information generated based on the learning object recognition data and the actual measurement data generated by direct measurement by a person through a second camera into the second model. Thus, learning is performed on estimating the number of occupants per hour. The first learning feature vector is constructed by converting the histogram information into the occupancy frequency in minutes. The first learning feature vector includes the time information to take into account that the frequency of occupants is influenced by the life patterns of occupants that change with time. In addition, the time information can include information ranging from day-level information to minute-level information, which can have the effect of increasing the accuracy of estimating the number of occupants.

도 4의 (b)는 상기 재실인원추정단계(S700)의 수행과정을 개략적으로 도시한다. 상기 재실인원추정단계(S700)는 상기 제1카메라를 통해 촬영된 영상을 기반으로 생성된 히스토그램정보 및 재실인원의 생활패턴을 고려하기 위한 상기 시간정보를 포함하는 상기 제1특징벡터를 상기 제2모델에 입력하여 시간당 재실인원 수를 추정한다. 상기 제2모델은 앞서 상기 모델학습단계(S400)에서 상기 학습히스토그램 및 상기 실측데이터를 통해 학습되어, 상기 히스토그램정보만으로 종래기술보다 정확도 높은 시간당 재실인원 수를 추정할 수 있다.Figure 4(b) schematically shows the process of performing the occupancy estimation step (S700). In the occupancy estimation step (S700), the first feature vector including histogram information generated based on the image captured through the first camera and the time information for considering the life patterns of the occupancy are converted to the second feature vector. Enter the model to estimate the number of occupancy per hour. The second model is previously learned through the learning histogram and the actual measurement data in the model learning step (S400), and can estimate the number of occupants per hour with higher accuracy than the prior art using only the histogram information.

도 5는 본 발명의 일 실시예에 따른 에너지소비량예측단계(S800)를 수행과정을 개략적으로 도시한다.Figure 5 schematically shows the process of performing the energy consumption prediction step (S800) according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 상기 인공지능 기반 재실인원에 따른 에너지소비량 추정방법은, 상기 추정된 재실인원 및 상기 시간정보를 포함하는 제2특징벡터를 기반으로 학습된 인공신경망 기반의 제3모델을 통해 상기 재실인원에 따른 에너지소비량을 예측하는 에너지소비량예측단계(S800);를 더 포함한다.As shown in Figure 5, the artificial intelligence-based energy consumption estimation method according to the number of occupants is a third model based on an artificial neural network learned based on a second feature vector including the estimated number of occupants and the time information. It further includes an energy consumption prediction step (S800) of predicting the energy consumption according to the number of occupants.

구체적으로, 건물에서 소비되는 에너지량은 건물에 있는 재실인원의 영향을 많이 받으므로, 시간당 재실인원 수를 기반으로 시간당 에너지소비량에 대한 분석을 할 수 있다. 또한 건물의 시간당 에너지소비량이 예측되는 경우, 상기 시간당 에너지소비량은 시간에 따라 달라지는 재실인원 각각의 생활패턴에 영향을 받기 때문에, 상기 시간정보를 추가로 고려한다. 상기 제2특징벡터는 상기 시간정보 및 앞서 재실인원추정단계(S700)에 의해 추정된 시간당 재실인원 수를 포함하고, 상기 에너지소비량예측단계(S800)는 상기 제2특징벡터를 상기 제3모델에 입력하여 건물의 시간당 에너지소비량을 예측한다.Specifically, since the amount of energy consumed in a building is greatly influenced by the number of occupants in the building, hourly energy consumption can be analyzed based on the number of occupants per hour. In addition, when the hourly energy consumption of a building is predicted, the time information is additionally considered because the hourly energy consumption is influenced by the living patterns of each occupant, which varies depending on the time. The second feature vector includes the time information and the number of occupants per hour estimated by the previous occupant estimation step (S700), and the energy consumption prediction step (S800) applies the second feature vector to the third model. Enter the information to predict the building's hourly energy consumption.

도 6은 본 발명의 일 실시예에 따른 히스토그램정보의 구성을 도시한다.Figure 6 shows the configuration of histogram information according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 상기 학습히스토그램정보 및 상기 히스토그램정보 각각은, 기설정된 주기마다 상기 인식된 객체의 수를 기반으로 생성되고, 상기 인식된 객체의 수당 인식된 횟수정보를 포함하고, 가로축 지표는 상기 인식된 객체의 수에 해당하고, 세로축 지표는 해당 객체의 수만큼 인식된 횟수에 해당하고, 상기 기설정된 주기별로 상기 제2모델에 입력된다.As shown in FIG. 6, each of the learning histogram information and the histogram information is generated based on the number of recognized objects at a preset period, includes information on the number of times recognized per number of recognized objects, and is displayed on the horizontal axis. The indicator corresponds to the number of recognized objects, and the vertical axis indicator corresponds to the number of times the object was recognized, and is input to the second model at the preset period.

구체적으로 본 발명의 일 실시예에서는, 도 6에 도시된 바와 같이 상기 기설정된 주기는 1분으로 설정하고, 상기 제1모델이 인식하는 객체는 재실인원에 해당된다. 상기 제1카메라로 촬영이 시작되고 1분 내지 2분 구간에서 상기 제1모델을 통해 인식된 재실인원에 대한 히스토그램정보가 생성된다. 해당 히스토그램은 1분 내지 2분의 촬영구간에서 인식된 객체 수당 인식된 횟수정보를 포함한다. 도 6에 도시된 히스토그램은 본 발명의 일 실시예로, 상기 제1카메라로 촬영이 시작되고 1분 내지 2분동안 1명의 재실인원이 인식된 횟수가 2번이고, 2명의 재실인원이 인식된 횟수가 3번이고, 3명의 재실인원이 인식된 횟수가 1번에 해당하는 정보를 포함한다. 상기 인식된 횟수는 영상의 프레임 수에 기초하여 분류된다. 1분 내지 2분의 시간정보에 해당하는 히스토그램정보와 2분 내지 3분의 시간정보에 해당하는 히스토그램정보는 상기 재실인원의 움직임에 따라 서로 상이할 수 있다.Specifically, in one embodiment of the present invention, as shown in FIG. 6, the preset period is set to 1 minute, and the object recognized by the first model corresponds to the number of occupants. Shooting begins with the first camera, and histogram information about the number of occupants recognized through the first model is generated in a 1- to 2-minute section. The histogram includes information on the number of times recognized per number of objects recognized in a shooting period of 1 to 2 minutes. The histogram shown in FIG. 6 is an embodiment of the present invention, and the number of times one occupant was recognized was two times during the 1 to 2 minutes after shooting with the first camera started, and the number of occupants was recognized two times. The number of times is 3, and it includes information corresponding to the number of times 3 occupants were recognized. The recognized number of times is classified based on the number of frames of the video. Histogram information corresponding to time information of 1 to 2 minutes and histogram information corresponding to time information of 2 to 3 minutes may be different from each other depending on the movement of the occupants.

도 7은 본 발명의 일 실시예에 따른 복수의 인공신경망 기반의 모델을 통한 재실인원추정단계(S700)의 수행과정을 개략적으로 도시한다.Figure 7 schematically shows the process of performing the occupancy estimation step (S700) through a plurality of artificial neural network-based models according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 본 발명의 일 실시예에서는, 상기 제2모델은 CNN기반의 모델을 포함하고, 상기 제2모델은 특정시점의 시간정보 및 해당 히스토그램정보가 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 출력한다.As shown in Figure 7, in one embodiment of the present invention, the second model includes a CNN-based model, and the second model inputs time information and corresponding histogram information at a specific point in time, Outputs the estimated number of occupants.

한편 본 발명의 다른 실시예에서는, 상기 제2모델은 CNN기반의 모델을 포함하고, 상기 제2모델은 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 히스토그램정보가 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 도출한다.Meanwhile, in another embodiment of the present invention, the second model includes a CNN-based model, and the second model includes time information at a plurality of viewpoints before a specific point in time and histogram information at a plurality of viewpoints before the specific point in time. is entered, and the estimated number of occupants at that specific point in time is derived.

한편 본 발명의 또 다른 실시예에서는, 상기 제2모델은 LSTM기반의 모델을 포함하고, 상기 제2모델은 각각의 LSTM모듈에 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 히스토그램정보가 각각 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 도출한다.Meanwhile, in another embodiment of the present invention, the second model includes an LSTM-based model, and the second model includes time information of a plurality of points in time before a specific point in each LSTM module and a plurality of points in time before the specific point in time. The histogram information at each point in time is input, and the estimated number of occupants at that specific point in time is derived.

구체적으로, 도 7의 (a)에 도시된 바와 같이, 해당 제2모델은 CNN기반의 모델을 포함하고, 특정 A시점의 시간정보 및 특정 A시점의 히스토그램정보가 입력되면 특정 A시점에서의 시간당 재실인원 수를 추정하고, 특정 B시점의 시간정보 및 특정 B시점의 히스토그램정보가 입력되면 특정 B시점의 시간당 재실인원 수를 추정한다. 해당 제2모델은 현재의 시간정보 및 현재의 히스토그램정보를 기반으로 현재시점에서의 시간당 재실인원 수를 도출한다.Specifically, as shown in (a) of FIG. 7, the second model includes a CNN-based model, and when time information at a specific point A and histogram information at a specific point A are input, the time information at a specific point A is calculated. The number of occupants is estimated, and when time information at a specific point in time B and histogram information at a specific point in time are input, the number of occupants per hour at a specific point in time B is estimated. The second model derives the number of occupants per hour at the current time based on the current time information and current histogram information.

도 7의 (b)에 도시된 바와 같이, 해당 제2모델은 CNN기반의 모델을 포함하고, 특정 A시점 이전의 복수의 시점의 시간정보 및 특정 A시점 이전의 복수의 시점의 히스토그램정보에서부터 특정 A시점까지의 시간정보 및 특정 A시점까지의 히스토그램정보가 입력되면 특정 A시점에서의 시간당 재실인원 수를 도출한다. 해당 제2모델은 과거의 시간정보 및 과거의 히스토그램정보를 기반으로 특정 A시점에서의 재실인원 수를 도출한다.As shown in (b) of FIG. 7, the second model includes a CNN-based model, and includes time information of a plurality of viewpoints before a specific point A and histogram information of a plurality of viewpoints before a specific point A. When time information up to point A and histogram information up to a specific point A are input, the number of occupants per hour at a specific point A is derived. The second model derives the number of occupants at a specific time point A based on past time information and past histogram information.

도 7의 (c)에 도시된 바와 같이, 해당 제2모델은 LSTM기반의 모델을 포함하고, 특정 A시점 이전의 제1시점의 시간정보 및 특정 A시점 이전의 제1시점의 히스토그램정보가 LSTM모듈#1에 입력되고, 특정 A시점 이전의 제2시점의 시간정보 및 특정 A시점 이전의 제2시점의 히스토그램정보가 LSTM모듈#2에 입력되는 과정을 특정 A시점의 시간정보 및 특정 A시점의 히스토그램정보가 LSTM모듈#N에 입력될 때까지 수행한다. 한편 상기 N은 자연수에 해당하고, 상기 LSTM모듈에 입력되는 시간정보 및 히스토그램정보의 수에 대응하고, 상기 LSTM모듈#N에서 상기 특정 A시점에서의 시간당 재실인원 수가 도출된다. 해당 제2모델은 과거의 시간정보 및 과거의 히스토그램정보를 기반으로 특정 A시점에서의 재실인원 수를 도출한다. 한편 본 발명의 다른 실시예에서는, 도 7의 (a), (b) 및 (c)에 각각 도시된 해당 제2모델은 히스토그램정보가 아닌 히스토그램 이미지를 입력 받아 시간당 재실인원 수를 도출할 수 있다.As shown in (c) of FIG. 7, the second model includes an LSTM-based model, and the time information of the first time point before a specific point A and the histogram information of the first point in time before the specific point A are LSTM The process of inputting to module #1, time information of a second point in time before specific point A, and histogram information of a second point in time before specific point A is input to LSTM module #2. Execute until histogram information is input to LSTM module #N. Meanwhile, N corresponds to a natural number and corresponds to the number of time information and histogram information input to the LSTM module, and the number of occupants per hour at the specific point A is derived from the LSTM module #N. The second model derives the number of occupants at a specific time point A based on past time information and past histogram information. Meanwhile, in another embodiment of the present invention, the second model shown in (a), (b), and (c) of Figure 7 can receive the histogram image rather than the histogram information and derive the number of occupants per hour. .

한편, 특정시점에서의 시간당 에너지소비량도 특정시점에서의 시간당 재실인원 수를 도출하는 과정과 유사한 방식으로 학습된 인공신경망 기반의 제3모델을 통해 예측된다. 8의 (a)은 CNN기반의 모델이 포함된 상기 제3모델에 특정시점의 시간정보 및 상기 특정시점의 시간당 재실인원 수를 포함한 제2특징벡터가 입력되어 특정시점의 시간당 에너지소비량이 예측되는 과정을 도시하고, 도 8의 (b)는 CNN기반의 모델이 포함된 상기 제3모델에 특정시점 이전부터 상기 특정시점까지의 시간정보 및 상기 특정시점 이전부터 상기 특정시점까지의 시간당 재실인원 수를 포함한 제2특징벡터가 입력되어 특정시점의 시간당 에너지소비량이 예측되는 과정을 도시하고, 도 8의 (c)는 복수의 LSTM모듈이 포함된 상기 제3모델에 특정시점 이전부터 상기 특정시점까지의 시간정보 및 상기 특정시점 이전부터 상기 특정시점까지의 시간당 재실인원 수를 포함한 제2특징벡터가 각각의 LSTM모듈에 입력되어 상기 특정시점에서의 시간당 에너지소비량이 예측되는 과정을 도시한다.Meanwhile, energy consumption per hour at a specific point in time is also predicted through a third model based on an artificial neural network learned in a similar way to the process of deriving the number of occupants per hour at a specific point in time. In (a) of 8, a second feature vector including time information at a specific point in time and the number of occupants per hour at the specific point in time is input to the third model including a CNN-based model, and the energy consumption per hour at a specific point in time is predicted. The process is shown, and Figure 8(b) shows time information from before a specific point in time to the specific point in the third model including a CNN-based model, and the number of occupants per hour from before the specific point in time to the specific point in time. It shows the process of predicting the energy consumption per hour at a specific point in time by inputting a second feature vector including The second feature vector including time information and the number of occupants per hour from before the specific point in time to the specific point in time is input to each LSTM module to predict the hourly energy consumption at the specific point in time.

도 9는 본 발명의 일 실시예에 따른 CNN 기반의 제2모델을 통해 추정된 시간당 재실인원 수를 예시적으로 도시한다.Figure 9 exemplarily shows the number of occupants per hour estimated through a second CNN-based model according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 시간당 재실인원 수를 나타내는 그래프에는 상기 객체인식데이터를 표시하는 하늘색의 Sensing data, 상기 재실인원추정단계(S700)에서 추정된 시간당 재실인원 수를 표시하는 빨간색의 Estimated data, 및 실제의 시간당 재실인원 수를 표시하는 검은색의 Ground-truth data가 포함된다.As shown in FIG. 9, the graph showing the number of occupants per hour includes Sensing data in light blue indicating the object recognition data, and Estimated data in red indicating the number of occupants per hour estimated in the occupancy estimation step (S700). , and ground-truth data in black indicating the actual number of occupancy per hour is included.

구체적으로, 도 9를 통해 본 발명의 실시예로 학습된 CNN 기반의 제2모델로 인해 추정된 시간당 재실인원 수의 정확도를 알 수 있다. 상기 학습히스토그램정보 및 상기 실측데이터를 기반으로 학습된 인공신경망 기반의 상기 제2모델을 통해 추정된 시간당 재실인원 수에 해당하는 빨간색정보가 상기 객체인식데이터에 해당하는 하늘색정보보다 실제 시간당 재실인원 수에 해당하는 검은색정보와 유사한 것으로 보아, 종래기술에서 발생하는 측정오류를 줄이고 재실인원 측정의 정확도를 높이는 효과가 발휘된 것을 알 수 있다. 더 구체적으로, CNN 기반의 제2모델 사용시에 재실인원 측정의 정확도가 상기 객체인식데이터의 정확도에 비해 평균 70.9% 향상된다.Specifically, Figure 9 shows the accuracy of the number of occupants per hour estimated by the CNN-based second model learned in an embodiment of the present invention. The red information corresponding to the number of occupants per hour estimated through the second model based on an artificial neural network learned based on the learning histogram information and the actual measurement data is the actual number of occupants per hour than the light blue information corresponding to the object recognition data. Considering that it is similar to the black information corresponding to , it can be seen that it has the effect of reducing measurement errors occurring in the prior art and increasing the accuracy of measuring the number of occupants. More specifically, when using the second CNN-based model, the accuracy of occupancy measurement improves by an average of 70.9% compared to the accuracy of the object recognition data.

도 10은 본 발명의 일 실시예에 따른 예측된 시간당 에너지소비량의 오차정도를 예시적으로 도시한다.Figure 10 exemplarily shows the degree of error in predicted energy consumption per hour according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 시간당 발생하는 시간당 에너지소비량의 오차를 나타내는 그래프에는 상기 객체인식데이터를 기반으로 예측된 에너지소비량을 표시하는 하늘색정보 및 상기 에너지소비량예측단계(S800)에서 예측된 에너지소비량을 표시하는 빨간색정보가 포함된다. 전반적으로 상기 에너지소비량예측단계(S800)에서 예측된 에너지소비량이 상기 객체인식데이터를 기반으로 예측된 에너지소비량보다 실제의 에너지소비량에 비해 오차가 적게 도출되었다.As shown in FIG. 10, the graph showing the error in energy consumption per hour occurring per hour includes light blue information indicating the energy consumption predicted based on the object recognition data and the energy consumption predicted in the energy consumption prediction step (S800). Red information indicating is included. Overall, the energy consumption predicted in the energy consumption prediction step (S800) had a smaller error compared to the actual energy consumption than the energy consumption predicted based on the object recognition data.

구체적으로, 상기 객체인식데이터에 기반하여 추정된 재실인원 수에 따라 예측된 시간당 에너지소비량보다 본 발명의 일 실시예로 예측된 시간당 에너지소비량이 실제의 시간당 에너지소비량과 유사한 값으로 산출된다. 구체적으로는, 본 발명의 일 실시예로 예측된 시간당 에너지소비량은 상기 객체인식데이터에 기반하여 예측된 시간당 에너지소비량보다 실제의 시간당 에너지소비량과의 오차가 22.5% 개선된다. 더 구체적으로는, 본 발명의 일 실시예로 예측된 시간당 에너지소비량은 상기 객체인식데이터에 기반하여 예측된 시간당 에너지소비량보다 예측 정확도가 7.9% 향상된다. 본 발명의 실시예를 통해 재실인원 모니터링을 위한 추가인력이 과도하게 투입되는 것을 방지하고, 정밀한 에너지소비량을 예측하는 효과를 발휘할 수 있다.Specifically, the hourly energy consumption predicted in one embodiment of the present invention is calculated to be a value similar to the actual hourly energy consumption than the hourly energy consumption predicted according to the number of occupants estimated based on the object recognition data. Specifically, the error between the hourly energy consumption predicted in one embodiment of the present invention and the actual hourly energy consumption is improved by 22.5% compared to the hourly energy consumption predicted based on the object recognition data. More specifically, the prediction accuracy of the energy consumption per hour predicted in one embodiment of the present invention is improved by 7.9% compared to the energy consumption per hour predicted based on the object recognition data. Through an embodiment of the present invention, it is possible to prevent excessive input of additional manpower for monitoring the number of occupants and to accurately predict energy consumption.

도 11은 본 발명의 일 실시예에 따른 컴퓨팅장치(11000)의 내부 구성을 예시적으로 도시한다.FIG. 11 exemplarily shows the internal configuration of a computing device 11000 according to an embodiment of the present invention.

도 1에 대한 설명에서 언급된 컴퓨팅시스템은 후술하는 도 11에 도시된 컴퓨팅장치(11000)의 구성요소를 포함할 수 있다.The computing system mentioned in the description of FIG. 1 may include components of the computing device 11000 shown in FIG. 11, which will be described later.

도 11에 도시한 바와 같이, 컴퓨팅장치(11000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. As shown in FIG. 11, the computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, and an input/output subsystem ( It may include at least an I/O subsystem (11400), a power circuit (11500), and a communication circuit (11600).

구체적으로, 상기 메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 상기 메모리(11200)는 상기 컴퓨팅장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그 밖에 다양한 데이터를 포함할 수 있다.Specifically, the memory 11200 may be, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. may include. The memory 11200 may include software modules, instruction sets, or other various data necessary for the operation of the computing device 11000.

이때, 상기 프로세서(11100)나 상기 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 상기 메모리(11200)에 액세스하는 것은 상기 프로세서(11100)에 의해 제어될 수 있다. 상기 프로세서(11100)은 단일 혹은 복수로 구성될 수 있고, 연산처리속도 향상을 위하여 GPU 및 TPU 형태의 프로세서를 포함할 수 있다.At this time, access to the memory 11200 from other components such as the processor 11100 or the peripheral device interface 11300 may be controlled by the processor 11100. The processor 11100 may be composed of a single processor or a plurality of processors, and may include GPU and TPU type processors to improve calculation processing speed.

상기 주변장치 인터페이스(11300)는 상기 컴퓨팅장치(11000)의 입력 및/또는 출력 주변장치를 상기 프로세서(11100) 및 상기 메모리 (11200)에 결합시킬 수 있다. 상기 프로세서(11100)는 상기 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 상기 컴퓨팅장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral device interface 11300 may couple input and/or output peripheral devices of the computing device 11000 to the processor 11100 and the memory 11200. The processor 11100 may execute a software module or instruction set stored in the memory 11200 to perform various functions for the computing device 11000 and process data.

상기 입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 상기 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 상기 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 상기 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 상기 입/출력 주변장치들은 상기 입/출력 서브시스템(11400)을 거치지 않고 상기 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 can couple various input/output peripheral devices to the peripheral device interface 11300. For example, the input/output subsystem 11400 may include a controller for coupling peripheral devices such as a monitor, keyboard, mouse, printer, or, if necessary, a touch screen or sensor to the peripheral device interface 11300. there is. According to another aspect, the input/output peripheral devices may be coupled to the peripheral interface 11300 without going through the input/output subsystem 11400.

상기 전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 상기 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or part of the components of the terminal. For example, the power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or It may include any other components for power generation, management, and distribution.

상기 통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅장치와 통신을 가능하게 할 수 있다. 또는, 상술한 바와 같이 필요에 따라 상기 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅장치와 통신을 가능하게 할 수도 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port. Alternatively, as described above, if necessary, the communication circuit 11600 may include an RF circuit to transmit and receive RF signals, also known as electromagnetic signals, to enable communication with other computing devices.

이러한 도 11의 실시예는, 상기 컴퓨팅장치(11000)의 일례일 뿐이고, 상기 컴퓨팅장치(11000)는 도 11에 도시된 일부 컴포넌트가 생략되거나, 도 11에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2 개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅장치는 도 11에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 상기 통신 회로(1160)에 다양한 통신방식(Wi-Fi, 3G, LTE, 5G, 6G, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 상기 컴퓨팅장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 11 is only an example of the computing device 11000, and the computing device 11000 may omit some components shown in FIG. 11 or further include additional components not shown in FIG. 11. , may have a configuration or arrangement that combines two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. 11, and the communication circuit 1160 may include various communication methods (Wi-Fi, Circuits for RF communication (3G, LTE, 5G, 6G, Bluetooth, NFC, Zigbee, etc.) may be included. Components that can be included in the computing device 11000 may be implemented as hardware, software, or a combination of both hardware and software, including an integrated circuit specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 어플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded on a computer-readable medium. In particular, the program according to this embodiment may be composed of a PC-based program or a mobile terminal-specific application. The application to which the present invention is applied can be installed on a user terminal through a file provided by a file distribution system. As an example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to a request from the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), etc. , may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅장치 상에 표준편차되어서, 표준편차된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used by any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be stored or executed in a standardized manner on a networked computing device. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

본 발명의 일 실시예에서는, 카메라로 촬영된 영상에서 인식된 재실인원 수에 대한 히스토그램 및 사람이 직접 재실인원 수를 실측하여 획득한 실측데이터에 기반하여 인공지능 신경망 기반의 모델을 학습하고, 학습된 인공지능 신경망 기반의 모델을 통해 시간당 재실인원 수에 대한 추정의 정확도를 높이는 효과를 발휘할 수 있다.In one embodiment of the present invention, an artificial intelligence neural network-based model is learned based on a histogram for the number of occupants recognized in an image captured by a camera and actual measurement data obtained by directly measuring the number of occupants. The artificial intelligence neural network-based model can have the effect of increasing the accuracy of estimation of the number of occupants per hour.

본 발명의 일 실시예에서는, 복수의 학습된 인공지능 신경망 기반의 모델을 통해 재실인원을 추정하는 과정을 수행하여 서로 비교하고, 시간당 재실인원 수에 대한 정확도가 높은 추정결과를 도출하는 효과를 발휘할 수 있다.In one embodiment of the present invention, a process of estimating the number of occupants is performed through a plurality of learned artificial intelligence neural network-based models to compare them with each other, which has the effect of deriving highly accurate estimation results for the number of occupants per hour. You can.

본 발명의 일 실시예에서는, 복수의 학습된 인공지능 신경망 기반의 모델을 통해 에너지소비량을 예측하는 과정을 수행하여 서로 비교하고, 시간당 에너지소비량에 대한 정확도가 높은 추정결과를 도출하는 효과를 발휘할 수 있다.In one embodiment of the present invention, a process of predicting energy consumption can be performed through a plurality of learned artificial intelligence neural network-based models, compared with each other, and has the effect of deriving highly accurate estimation results for energy consumption per hour. there is.

본 발명의 일 실시예에서는, 시간당 재실인원 수 및 시간당 에너지소비량을 예측할 때, 학습된 인공신경망 기반의 모델에 시간정보를 입력하여 매분 변화하는 환경 및 재실인원의 생활패턴을 고려하여 시간당 재실인원 수 및 시간당 에너지소비량의 예측에 대한 정확도를 높이는 효과를 발휘할 수 있다.In one embodiment of the present invention, when predicting the number of occupants per hour and energy consumption per hour, time information is input into a learned artificial neural network-based model to calculate the number of occupants per hour by taking into account the environment that changes every minute and the living patterns of occupants. And it can have the effect of increasing the accuracy of prediction of energy consumption per hour.

본 발명의 일 실시예에서는, 기존 지능형검침인프라(AMI, Advanced Metering Infrastructure) 관련 인프라가 없는 건물에서도 재실인원 측정과 일시의 에너지소비량을 측정하여 이후 에너지소비량을 예측할 수 있고, 건물의 모든 층이 비슷한 용도로 사용되고 있다면, 지능형검침인프라를 일부 층에만 설치하여도 에너지소비량을 추정하여 비용을 절감하는 효과를 발휘할 수 있다.In one embodiment of the present invention, even in buildings without existing Advanced Metering Infrastructure (AMI)-related infrastructure, future energy consumption can be predicted by measuring the number of occupants and temporary energy consumption, and all floors of the building are similar. If it is being used for a specific purpose, installing the intelligent meter reading infrastructure on only some floors can have the effect of reducing costs by estimating energy consumption.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (15)

1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅시스템에 의하여 수행되는 인공지능 기반 재실인원에 따른 에너지소비량 추정방법으로서,
제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터를 생성하는 학습객체인식데이터생성단계;
제2카메라로 촬영된 영상에서 실측된 객체의 수를 포함하는 실측데이터를 생성하는 실측데이터생성단계;
상기 학습객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램정보를 생성하는 학습히스토그램생성단계; 및
상기 학습히스토그램정보, 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 제1학습특징벡터, 및 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시키는 모델학습단계;를 포함하고,
상기 인공지능 기반 재실인원에 따른 에너지소비량 추정방법은,
제1카메라로 촬영된 영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 객체인식데이터를 생성하는 객체인식데이터생성단계;
상기 객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 히스토그램정보를 생성하는 히스토그램생성단계;
상기 히스토그램정보 및 제1카메라의 영상 촬영시의 시간정보를 포함하는 제1특징벡터를 상기 제2모델에 입력하여, 추정된 재실인원을 도출하는 재실인원추정단계; 및
상기 추정된 재실인원 및 상기 시간정보를 포함하는 제2특징벡터를 기반으로 학습된 인공신경망 기반의 제3모델을 통해 상기 재실인원에 따른 에너지소비량을 예측하는 에너지소비량예측단계;를 더 포함하고,
상기 실측데이터는 사람이 직접 상기 제2카메라로 촬영된 영상을 모니터링하여 측정한 객체의 수를 포함하고,
상기 시간정보는,
상기 제1카메라에 의해 영상이 촬영되는 일 단위의 정보, 시간 단위의 정보 및 분 단위의 정보를 포함하고,
상기 제1학습특징벡터, 제1특징벡터, 및 제2특징벡터는 상기 시간정보에 기반하여 객체의 생활패턴에 대한 정보를 포함하고,
상기 학습히스토그램정보 및 상기 히스토그램정보 각각은,
기설정된 주기마다 상기 인식된 객체의 수를 기반으로 생성되고,
상기 인식된 객체의 수당 인식된 횟수정보를 포함하고,
가로축 지표는 상기 인식된 객체의 수에 해당하고,
세로축 지표는 해당 객체의 수만큼 인식된 횟수에 해당하고,
상기 기설정된 주기별로 상기 제2모델에 입력되고,
상기 인식된 횟수는 영상의 프레임 수에 기초하여 분류되는, 인공지능 기반 재실인원에 따른 에너지소비량 추정방법.
An artificial intelligence-based energy consumption estimation method according to the number of occupants performed by a computing system including one or more memories and one or more processors,
A learning object recognition data generation step of generating learning object recognition data for an object recognized through a first model based on an artificial neural network learned from a learning image captured by a first camera;
An actual data generation step of generating actual measurement data including the number of objects actually measured in an image captured by a second camera;
A learning histogram generation step of generating learning histogram information including information on the number of times the recognized object was recognized based on the learning object recognition data; and
A model learning step of learning a second model based on an artificial neural network using the learning histogram information, a first learning feature vector including time information when shooting a learning image by the first camera, and the actual measurement data; ,
The artificial intelligence-based energy consumption estimation method according to the number of occupants is,
An object recognition data generation step of generating object recognition data for an object recognized through a first model based on an artificial neural network learned from an image captured by a first camera;
A histogram generating step of generating histogram information including recognition count information per number of the recognized objects based on the object recognition data;
An occupancy estimation step of inputting a first feature vector including the histogram information and time information when capturing an image by a first camera into the second model to derive an estimated occupancy number; and
It further includes an energy consumption prediction step of predicting energy consumption according to the number of occupants through a third model based on an artificial neural network learned based on a second feature vector including the estimated number of occupants and the time information,
The actual measurement data includes the number of objects measured by a person directly monitoring the image captured by the second camera,
The time information is,
Contains information in units of days, information in units of hours, and information in units of minutes when an image is captured by the first camera,
The first learning feature vector, the first feature vector, and the second feature vector include information about the object's life pattern based on the time information,
Each of the learning histogram information and the histogram information is,
Generated based on the number of recognized objects at each preset cycle,
Contains information on the number of times the recognized object is recognized,
The horizontal axis indicator corresponds to the number of recognized objects,
The vertical axis indicator corresponds to the number of times the object was recognized,
input to the second model for each preset period,
An artificial intelligence-based energy consumption estimation method according to the number of occupants, where the recognized number of times is classified based on the number of frames of the video.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 제2모델은 CNN기반의 모델을 포함하고,
상기 제2모델은 특정시점의 시간정보 및 해당 히스토그램정보가 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 출력하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법.
In claim 1,
The second model includes a CNN-based model,
The second model is an artificial intelligence-based energy consumption estimation method according to the number of occupants, where time information and corresponding histogram information at a specific point in time are input and the estimated number of occupants at that specific point in time is input.
청구항 1에 있어서,
상기 제2모델은 CNN기반의 모델을 포함하고,
상기 제2모델은 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 히스토그램정보가 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 도출하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법.
In claim 1,
The second model includes a CNN-based model,
The second model is based on artificial intelligence, which inputs time information at a plurality of points in time before a specific point in time and histogram information at a plurality of points in time before the specific point in time, and derives the estimated number of occupants at that specific point in time. Energy consumption estimation method according to the number of occupants.
청구항 1에 있어서,
상기 제2모델은 LSTM기반의 모델을 포함하고,
상기 제2모델은 각각의 LSTM모듈에 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 히스토그램정보가 각각 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 도출하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법.
In claim 1,
The second model includes an LSTM-based model,
The second model inputs time information at a plurality of time points before a specific point in time and histogram information at a plurality of points in time before the specific time point into each LSTM module, and calculates the estimated number of occupants at that specific point in time. Deriving an artificial intelligence-based energy consumption estimation method according to the number of occupants.
청구항 1에 있어서,
상기 제3모델은 CNN기반의 모델을 포함하고,
상기 제3모델은 특정시점의 시간정보 및 추정된 재실인원의 수가 입력되어, 해당 특정시점에서의 예측되는 에너지소비량을 산출하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법.
In claim 1,
The third model includes a CNN-based model,
The third model is an artificial intelligence-based energy consumption estimation method according to the number of occupants, where time information and the estimated number of occupants at a specific point in time are input to calculate the predicted energy consumption at that specific point in time.
청구항 1에 있어서,
상기 제3모델은 CNN기반의 모델을 포함하고,
상기 제3모델은 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 추정된 재실인원의 수가 입력되어, 해당 특정시점에서의 예측되는 에너지소비량을 산출하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법.
In claim 1,
The third model includes a CNN-based model,
The third model is an artificial intelligence that calculates the predicted energy consumption at a specific point in time by inputting time information at a plurality of points in time before a specific point in time and the estimated number of occupants at a plurality of points in time before the specific point in time. Energy consumption estimation method based on the number of occupants.
청구항 1에 있어서,
상기 제3모델은 LSTM기반의 모델을 포함하고,
상기 제3모델은 각각의 LSTM모듈에 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 상기 추정된 재실인원의 수가 각각 입력되어, 해당 특정시점에서의 예측되는 에너지소비량을 산출하는, 인공지능 기반 재실인원에 따른 에너지 소비량 추정방법.
In claim 1,
The third model includes an LSTM-based model,
The third model inputs the time information of a plurality of time points before a specific point in time and the estimated number of occupants at a plurality of points in time before the specific point into each LSTM module, respectively, and calculates the predicted energy at that specific point in time. An artificial intelligence-based energy consumption estimation method based on the number of occupants that calculates consumption.
1 이상의 메모리 및 1 이상의 프로세서를 포함하고, 인공지능 기반 재실인원에 따른 에너지소비량 추정방법을 수행하는 컴퓨팅시스템으로서,
제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터를 생성하는 학습객체인식데이터생성부;
제2카메라로 촬영된 영상에서 실측된 객체의 수를 포함하는 실측데이터를 생성하는 실측데이터생성부;
상기 학습객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램정보를 생성하는 학습히스토그램생성부; 및
상기 학습히스토그램정보, 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 제1학습특징벡터, 및 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시키는 모델학습부;를 포함하고,
상기 컴퓨팅시스템은,
제1카메라로 촬영된 영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 객체인식데이터를 생성하는 객체인식데이터생성부;
상기 객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 히스토그램정보를 생성하는 히스토그램생성부;
상기 히스토그램정보 및 제1카메라의 영상 촬영시의 시간정보를 포함하는 제1특징벡터를 상기 제2모델에 입력하여, 추정된 재실인원을 도출하는 재실인원추정부; 및
상기 추정된 재실인원 및 상기 시간정보를 포함하는 제2특징벡터를 기반으로 학습된 인공신경망 기반의 제3모델을 통해 상기 재실인원에 따른 에너지소비량을 예측하는 에너지소비량예측부;를 더 포함하고
상기 실측데이터는 사람이 직접 상기 제2카메라로 촬영된 영상을 모니터링하여 측정한 객체의 수를 포함하고,
상기 시간정보는,
상기 제1카메라에 의해 영상이 촬영되는 일 단위의 정보, 시간 단위의 정보 및 분 단위의 정보를 포함하고,
상기 제1학습특징벡터, 제1특징벡터, 및 제2특징벡터는 상기 시간정보에 기반하여 객체의 생활패턴에 대한 정보를 포함하고,
상기 학습히스토그램정보 및 상기 히스토그램정보 각각은,
기설정된 주기마다 상기 인식된 객체의 수를 기반으로 생성되고,
상기 인식된 객체의 수당 인식된 횟수정보를 포함하고,
가로축 지표는 상기 인식된 객체의 수에 해당하고,
세로축 지표는 해당 객체의 수만큼 인식된 횟수에 해당하고,
상기 기설정된 주기별로 상기 제2모델에 입력되고,
상기 인식된 횟수는 영상의 프레임 수에 기초하여 분류되는, 컴퓨팅시스템.
A computing system that includes one or more memories and one or more processors and performs an artificial intelligence-based energy consumption estimation method according to the number of occupants,
A learning object recognition data generator that generates learning object recognition data for an object recognized through a first model based on an artificial neural network learned from a learning image captured by a first camera;
an actual measurement data generator that generates actual measurement data including the number of objects actually measured in an image captured by a second camera;
a learning histogram generator that generates learning histogram information including information on the number of times the recognized object is recognized based on the learning object recognition data; and
It includes a model learning unit that trains a second model based on an artificial neural network using the learning histogram information, a first learning feature vector including time information when shooting a learning image by the first camera, and the actual measurement data. ,
The computing system is,
an object recognition data generator that generates object recognition data for an object recognized through a first model based on an artificial neural network learned from an image captured by a first camera;
a histogram generator that generates histogram information including recognition count information per number of recognized objects based on the object recognition data;
an occupancy estimation unit that inputs the histogram information and a first feature vector including time information at the time of image capture by the first camera into the second model to derive an estimated occupancy number; and
It further includes; an energy consumption prediction unit that predicts energy consumption according to the number of occupants through a third model based on an artificial neural network learned based on a second feature vector including the estimated number of occupants and the time information;
The actual measurement data includes the number of objects measured by a person directly monitoring the image captured by the second camera,
The time information is,
Contains information in units of days, information in units of hours, and information in units of minutes when an image is captured by the first camera,
The first learning feature vector, the first feature vector, and the second feature vector include information about the object's life pattern based on the time information,
Each of the learning histogram information and the histogram information is,
Generated based on the number of recognized objects at each preset cycle,
Contains information on the number of times the recognized object is recognized,
The horizontal axis indicator corresponds to the number of recognized objects,
The vertical axis indicator corresponds to the number of times the object was recognized,
input to the second model for each preset period,
A computing system wherein the recognized number of times is classified based on the number of frames of the image.
삭제delete 삭제delete 청구항 11에 있어서,
상기 제2모델은 CNN기반의 모델을 포함하고,
상기 제2모델은 특정시점 이전의 복수의 시점의 시간정보 및 상기 특정시점 이전의 복수의 시점에서의 상기 히스토그램정보가 입력되어, 해당 특정시점에서의 추정되는 재실인원의 수를 도출하는, 컴퓨팅시스템.
In claim 11,
The second model includes a CNN-based model,
The second model is a computing system that inputs time information at a plurality of points in time before a specific point in time and the histogram information at a plurality of points in time before the specific point in time to derive the estimated number of occupants at that specific point in time. .
1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅시스템에서 인공지능 기반 재실인원에 따른 에너지소비량 추정시스템에 의하여 수행되는 인공지능 기반 재실인원에 따른 에너지소비량 추정방법을 구현하기 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 상기 컴퓨팅시스템으로 하여금 이하의 단계들을 수행하도록 하는 컴퓨터 실행가능 명령어들을 포함하고,
상기 이하의 단계들은:
제1카메라로 촬영된 학습영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 학습객체인식데이터를 생성하는 학습객체인식데이터생성단계;
제2카메라로 촬영된 영상에서 실측된 객체의 수를 포함하는 실측데이터를 생성하는 실측데이터생성단계;
상기 학습객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 학습히스토그램정보를 생성하는 학습히스토그램생성단계; 및
상기 학습히스토그램정보, 상기 제1카메라의 학습영상 촬영시의 시간정보를 포함하는 제1학습특징벡터, 및 상기 실측데이터를 이용하여 인공신경망 기반의 제2모델을 학습시키는 모델학습단계;를 포함하고,
상기 이하의 단계들은,
제1카메라로 촬영된 영상에서 학습된 인공신경망 기반의 제1모델을 통해 인식된 객체에 대한 객체인식데이터를 생성하는 객체인식데이터생성단계;
상기 객체인식데이터에 기반하여 상기 인식된 객체 수당 인식된 횟수정보를 포함하는 히스토그램정보를 생성하는 히스토그램생성단계;
상기 히스토그램정보 및 제1카메라의 영상 촬영시의 시간정보를 포함하는 제1특징벡터를 상기 제2모델에 입력하여, 추정된 재실인원을 도출하는 재실인원추정단계; 및
상기 추정된 재실인원 및 상기 시간정보를 포함하는 제2특징벡터를 기반으로 학습된 인공신경망 기반의 제3모델을 통해 상기 재실인원에 따른 에너지소비량을 예측하는 에너지소비량예측단계;를 더 포함하고
상기 실측데이터는 사람이 직접 상기 제2카메라로 촬영된 영상을 모니터링하여 측정한 객체의 수를 포함하고,
상기 시간정보는,
상기 제1카메라에 의해 영상이 촬영되는 일 단위의 정보, 시간 단위의 정보 및 분 단위의 정보를 포함하고,
상기 제1학습특징벡터, 제1특징벡터, 및 제2특징벡터는 상기 시간정보에 기반하여 객체의 생활패턴에 대한 정보를 포함하고,
상기 학습히스토그램정보 및 상기 히스토그램정보 각각은,
기설정된 주기마다 상기 인식된 객체의 수를 기반으로 생성되고,
상기 인식된 객체의 수당 인식된 횟수정보를 포함하고,
가로축 지표는 상기 인식된 객체의 수에 해당하고,
세로축 지표는 해당 객체의 수만큼 인식된 횟수에 해당하고,
상기 기설정된 주기별로 상기 제2모델에 입력되고,
상기 인식된 횟수는 영상의 프레임 수에 기초하여 분류되는, 컴퓨터-판독가능 매체.
A computer-readable medium for implementing an artificial intelligence-based energy consumption estimation method according to occupancy performed by an artificial intelligence-based energy consumption estimation system according to occupancy in a computing system including one or more memories and one or more processors, The computer-readable medium includes computer-executable instructions that cause the computing system to perform the following steps,
The steps below are:
A learning object recognition data generation step of generating learning object recognition data for an object recognized through a first model based on an artificial neural network learned from a learning image captured by a first camera;
An actual data generation step of generating actual measurement data including the number of objects actually measured in an image captured by a second camera;
A learning histogram generation step of generating learning histogram information including information on the number of times the recognized object was recognized based on the learning object recognition data; and
A model learning step of learning a second model based on an artificial neural network using the learning histogram information, a first learning feature vector including time information when shooting a learning image by the first camera, and the actual measurement data; ,
The steps below are:
An object recognition data generation step of generating object recognition data for an object recognized through a first model based on an artificial neural network learned from an image captured by a first camera;
A histogram generating step of generating histogram information including recognition count information per number of the recognized objects based on the object recognition data;
An occupancy estimation step of inputting a first feature vector including the histogram information and time information when capturing an image by a first camera into the second model to derive an estimated occupancy number; and
It further includes an energy consumption prediction step of predicting energy consumption according to the number of occupants through a third model based on an artificial neural network learned based on a second feature vector including the estimated number of occupants and the time information;
The actual measurement data includes the number of objects measured by a person directly monitoring the image captured by the second camera,
The time information is,
Contains information in units of days, information in units of hours, and information in units of minutes when an image is captured by the first camera,
The first learning feature vector, the first feature vector, and the second feature vector include information about the object's life pattern based on the time information,
Each of the learning histogram information and the histogram information is,
Generated based on the number of recognized objects at each preset cycle,
Contains information on the number of times the recognized object is recognized,
The horizontal axis indicator corresponds to the number of recognized objects,
The vertical axis indicator corresponds to the number of times the object was recognized,
input to the second model for each preset period,
The computer-readable medium of claim 1, wherein the recognized number of times is classified based on the number of frames of the image.
KR1020230024341A 2022-12-29 2023-02-23 The Method that Estimate Energy Consumption according to The Number of Occupants based on Artificial Intelligence, and The System and Computer-readable Medium for Performing The Same KR102596848B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220189838 2022-12-29
KR20220189838 2022-12-29

Publications (1)

Publication Number Publication Date
KR102596848B1 true KR102596848B1 (en) 2023-11-01

Family

ID=88746183

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230024341A KR102596848B1 (en) 2022-12-29 2023-02-23 The Method that Estimate Energy Consumption according to The Number of Occupants based on Artificial Intelligence, and The System and Computer-readable Medium for Performing The Same

Country Status (1)

Country Link
KR (1) KR102596848B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020307A (en) * 2011-07-07 2013-01-31 Mitsubishi Electric Corp Energy consumption analyzer
KR20190078543A (en) * 2017-12-26 2019-07-04 삼성전자주식회사 Image acqusition device and controlling method thereof
KR20190118337A (en) * 2018-04-10 2019-10-18 엘지전자 주식회사 Air-conditioner with region selective operation, cloud server, and method of operating thereof
KR20190119363A (en) * 2018-04-12 2019-10-22 (주)아이케이에스테크놀러지 Artificial intelligence monitoring system for vehicles using template matching technology, and method thereof
KR20190134101A (en) * 2018-05-24 2019-12-04 엘지전자 주식회사 Server of controlling air conditioner with area recognition and air conditioner
KR20210050081A (en) * 2019-10-28 2021-05-07 주식회사 에스오에스랩 Object recognition method and object recognition device performing the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020307A (en) * 2011-07-07 2013-01-31 Mitsubishi Electric Corp Energy consumption analyzer
KR20190078543A (en) * 2017-12-26 2019-07-04 삼성전자주식회사 Image acqusition device and controlling method thereof
KR20190118337A (en) * 2018-04-10 2019-10-18 엘지전자 주식회사 Air-conditioner with region selective operation, cloud server, and method of operating thereof
KR20190119363A (en) * 2018-04-12 2019-10-22 (주)아이케이에스테크놀러지 Artificial intelligence monitoring system for vehicles using template matching technology, and method thereof
KR20190134101A (en) * 2018-05-24 2019-12-04 엘지전자 주식회사 Server of controlling air conditioner with area recognition and air conditioner
KR20210050081A (en) * 2019-10-28 2021-05-07 주식회사 에스오에스랩 Object recognition method and object recognition device performing the same

Similar Documents

Publication Publication Date Title
US20220197231A1 (en) Computing system for virtual sensor implementation using digital twin and method for realtime data collection thereof
Zhang et al. Threshold tuning-based wearable sensor fault detection for reliable medical monitoring using Bayesian network model
Zhao et al. Semisupervised deep sparse auto-encoder with local and nonlocal information for intelligent fault diagnosis of rotating machinery
KR101081051B1 (en) A method for detecting fire-flame using fuzzy finite automata
CN105808366B (en) A kind of System Safety Analysis method based on four variate models
Bian et al. Abnormal detection of electricity consumption of user based on particle swarm optimization and long short term memory with the attention mechanism
Zanfei et al. Novel approach for burst detection in water distribution systems based on graph neural networks
TW201604692A (en) Method for counting number of people based on appliance usages and monitoring system using the same
US20230316720A1 (en) Anomaly detection apparatus, anomaly detection method, and program
Hasnat et al. A graph signal processing framework for detecting and locating cyber and physical stresses in smart grids
CN110751641A (en) Anchor bolt information detection method and storage medium
Das et al. Heterosense: An occupancy sensing framework for multi-class classification for activity recognition and trajectory detection
Riedlinger et al. Gradient-based quantification of epistemic uncertainty for deep object detectors
CN116520806A (en) Intelligent fault diagnosis system and method for industrial system
KR102596848B1 (en) The Method that Estimate Energy Consumption according to The Number of Occupants based on Artificial Intelligence, and The System and Computer-readable Medium for Performing The Same
Hegazy Tag Eldien, AS; Tantawy, MM; Fouda, MM; TagElDien, HA Real-time locational detection of stealthy false data injection attack in smart grid: Using multivariate-based multi-label classification approach
KR102309554B1 (en) Method and Apparatus for Energy Consumption Prediction and Load Control Based on Deep Recurrent Neural Network
Jiang [Retracted] Research on Machine Learning Algorithm for Internet of Things Information Security Management System Research and Implementation
Li et al. A framework for predicting network security situation based on the improved LSTM
EP2956751B1 (en) Method and monitoring device for monitoring a structure
CN112988527A (en) GPU management platform anomaly detection method and device and storage medium
Diversi et al. Thermal model identification of computing nodes in high-performance computing systems
CN113345594A (en) Information prediction method and device
Jiang et al. A method of pedestrian trajectory prediction based on LSTM
Yang et al. Neural process for health prognostics with uncertainty estimations

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant