KR20230032101A - Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method - Google Patents

Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method Download PDF

Info

Publication number
KR20230032101A
KR20230032101A KR1020210114528A KR20210114528A KR20230032101A KR 20230032101 A KR20230032101 A KR 20230032101A KR 1020210114528 A KR1020210114528 A KR 1020210114528A KR 20210114528 A KR20210114528 A KR 20210114528A KR 20230032101 A KR20230032101 A KR 20230032101A
Authority
KR
South Korea
Prior art keywords
real
occupant
metabolic rate
time
deep learning
Prior art date
Application number
KR1020210114528A
Other languages
Korean (ko)
Other versions
KR102593722B1 (en
Inventor
김태연
최하늘
나후승
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020210114528A priority Critical patent/KR102593722B1/en
Publication of KR20230032101A publication Critical patent/KR20230032101A/en
Application granted granted Critical
Publication of KR102593722B1 publication Critical patent/KR102593722B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4866Evaluating metabolism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Obesity (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

The present invention relates to a deep learning-based resident-customized metabolic rate prediction system executed by a computer, for predicting a real-time metabolic rate using only real-time activity images, comprising: a metabolic rate acquisition unit (100) which receives a resident's real-time heart rate measured by a wearable device (10) capable of measuring heart rate and calculates the resident's real-time metabolic rate; an image acquisition unit (200) which receives real-time activity images of the resident acquired through a camera (20); a data pre-processing unit (300) which pre-processes the images of the image acquisition unit (200); a deep learning unit (400) which generates a real-time metabolic rate calculation model of the resident through deep learning using the real-time metabolic rate of the metabolic rate acquisition unit (100) and the pre-processed activity images as input values; and a deep learning prediction unit (500) which predicts the real-time metabolic rate of the resident by inputting the resident's real-time activity images acquired from the image acquisition unit (200) into the real-time metabolic rate calculation model.

Description

딥러닝 기반 재실자 맞춤형 대사량 예측시스템 및 예측방법{Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method}Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method}

본 발명은 대사량 예측시스템 및 예측방에 관한 것이다. 구체적으로는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템 및 예측방법에 관한 것이다.The present invention relates to a metabolic rate prediction system and prediction room. Specifically, it relates to a deep learning-based occupant-customized metabolic rate prediction system and prediction method.

대사량은 재실자의 활동에 따른 발열량을 말한다. 대사량은 재실자의 열적 쾌적을 평가하는데 사용되는 요소 중 하나이다. The metabolic rate refers to the amount of heat generated by the occupant's activities. Metabolism is one of the factors used to evaluate occupant's thermal comfort.

일반적으로 대사량은 재실자의 예상치 못한 활동 때문에 값을 예측하기 어려워, 건축분야에서는 냉난방기 제어시 대사량을 고정 값으로 가정하고 있다. 따라서, 재실자의 실제 활동에 따른 대사량이 정확하게 반영되지 못하는 문제점이 있었다.In general, it is difficult to predict the value of metabolic rate due to unexpected activities of occupants, so in the construction field, metabolic rate is assumed to be a fixed value when controlling air conditioners. Therefore, there is a problem in that the metabolic rate according to the actual activity of the occupant is not accurately reflected.

이러한 문제점을 개선하기 위하여, 한국등록특허공보 제10-2233157호는 딥러닝기반의 재실자 포즈 분류를 이용한 재실자 활동량 산출 방법을 제시하였다. 이러한 종래기술에서, 재실자의 실제 활동에 따른 활동량(대사량)을 산출하는 시도인 점에서 차이점이 있었다.In order to improve this problem, Korea Patent Registration No. 10-2233157 suggested a method for calculating occupant activity using deep learning-based occupant pose classification. In this prior art, there is a difference in that it is an attempt to calculate the amount of activity (metabolism) according to the actual activity of the occupant.

다만, 한국등록특허공보 제10-2233157호의 경우, 분류모델(Classification model)을 사용하여, 재실자의 활동을 구체적으로 분류하여 해당 활동 시 정해진 대사량 값이 산출되는 형식이다. 따라서, 여기서의 딥러닝은 재실자 이미지를 실내활동 포즈 분류에 사용된 것에 불과하고, 재실자의 포즈를 분류한 후, 특정 포즈에는 특정 활동량(대사량)을 고정값으로 적용하고 있었다. 따라서, 재실자의 수시로 바뀌는 실시간 동작 변화를 특정 값으로 고정하는 것은 실제 재실자의 행동 변화에 따른 자연스러운 대사랑 변화를 예측하지 못하는 문제점이 여전히 있다.However, in the case of Korean Patent Registration No. 10-2233157, a classification model is used to specifically classify an occupant's activity, and a metabolic value determined during the activity is calculated. Therefore, deep learning here is only used to classify the occupant's image as an indoor activity pose, and after classifying the occupant's pose, a specific activity (metabolic amount) is applied as a fixed value to a specific pose. Therefore, there is still a problem in that fixing the real-time motion change of the occupant to a specific value does not predict the natural change of speech according to the actual occupant's behavior change.

(문헌 1) 한국등록특허공보 제10-2233157호 (2021.03.23)(Document 1) Korea Patent Registration No. 10-2233157 (2021.03.23)

본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측시스템 및 예측방법은 다음과 같은 해결과제를 가진다.The deep learning-based occupant-customized metabolic rate prediction system and prediction method according to the present invention have the following challenges.

첫째, 재실자의 실시간 심박수를 이용하여 실시간 대사량을 산출하고자 한다.First, real-time metabolic rate is calculated using the real-time heart rate of occupants.

둘째, 재실자의 실시간 활동 이미지와, 실시간 대사량을 딥러닝 학습시켜 실시간 활동 이미지에 따른 실시간 대사량을 산출하고자 한다.Second, real-time activity images of occupants and real-time metabolism are deep-learned to calculate real-time metabolism according to real-time activity images.

셋째, 재실자를 제외한 배경을 삭제하는 데이터 전처리를 통해, 재실자에 대한 활동 이미지에 집중하여 분석하고자 한다.Third, through data pre-processing that deletes the background excluding occupants, the analysis is focused on the activity images of occupants.

넷째, 딥러닝학습을 통해 도출된 실시간 활동변화 대사량 산출모델로 심박수 정보없이 실시간 활동 이미지만 입력하여 실시간 대사량을 예측하고자 한다.Fourth, with the real-time activity change metabolic rate calculation model derived through deep learning learning, real-time metabolic rate is predicted by inputting only real-time activity images without heart rate information.

본 발명의 해결과제는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명은 컴퓨터에 의해 수행되는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템으로서, 심박수 측정이 가능한 웨어러블 디바이스로 측정된 재실자의 실시간 심박수를 전송받고, 재실자의 실시간 대사량을 산출하는 대사량 취득부; 카메라를 통해 획득된 재실자의 실시간 활동 이미지를 전송받는 이미지 취득부; 상기 이미지 취득부의 이미지에 대한 전처리를 하는 데이터 전처리부; 상기 대사량 취득부의 실시간 대사량과 전처리된 상기 활동 이미지를 입력값으로 하는 딥러닝 학습을 통해 재실자의 실시간 대사량 산출모델을 생성하는 딥러닝 학습부; 및 상기 이미지 취득부에서 실시간으로 취득되는 재실자의 활동 이미지를 상기 실시간 대사량 산출모델에 입력하여, 재실자의 실시간 대사량을 예측하는 딥러닝 예측부를 포함하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템이다.The present invention is a deep learning-based occupant-customized metabolic rate prediction system performed by a computer, comprising: a metabolic acquisition unit that receives a real-time heart rate of an occupant measured by a wearable device capable of measuring heart rate and calculates a real-time metabolic amount of the occupant; an image acquisition unit that receives real-time activity images of occupants acquired through the camera; a data pre-processing unit that pre-processes the image of the image acquiring unit; a deep learning learning unit generating a real-time metabolic rate calculation model of a occupant through deep learning using the real-time metabolic rate of the metabolic rate acquisition unit and the preprocessed activity image as input values; and a deep learning prediction unit for predicting the real-time metabolic rate of the occupant by inputting the activity image of the occupant acquired in real time by the image acquisition unit to the real-time metabolic calculation model. .

본 발명에 있어서, 상기 웨어러블 디바이스는 시계형 디바이스, 밴드형 디바이스, 안경형 디바이스, 목걸이형 디바이스, 헬멧형 디바이스 및 의복형 디바이스를 포함하며, 상기 카메라는 키넥트 카메라를 포함할 수 있다.In the present invention, the wearable device includes a watch-type device, a band-type device, a glasses-type device, a necklace-type device, a helmet-type device, and a clothing-type device, and the camera may include a Kinect camera.

본 발명에 있어서, 상기 대사량 취득부는 전송받은 재실자의 실시간 심박수 정보와, 기 입력된 재실자의 성별, 체중 및 연령 정보를 이용하여 재실자의 실시간 대사량을 산출할 수 있다.In the present invention, the metabolic rate obtaining unit may calculate the real-time metabolic rate of the occupant by using the received real-time heart rate information of the occupant and previously input sex, weight, and age information of the occupant.

본 발명에 있어서, 상기 데이터 전처리부는 상기 이미지 취득부에서 취득된 활동 이미지에서, 재실자를 제외한 부분을 삭제할 수 있다.In the present invention, the data pre-processing unit may delete a portion of the activity image acquired by the image acquiring unit, except for occupants.

본 발명에 있어서, 상기 카메라는 키넥트 카메라를 사용하며, 키넥트 카메라를 통해 RGB영상과 원근감을 표시하는 깊이(Depth) 영상을 획득하며, 획득한 깊이 영상을 토대로 입력된 영상에서 재실자를 검출하고, RGB 영상에 마스킹하여 재실자를 제외한 부분을 제거할 수 있다.In the present invention, the camera uses a Kinect camera, acquires an RGB image and a depth image indicating perspective through the Kinect camera, detects an occupant from an input image based on the obtained depth image, , By masking to the RGB image, parts other than occupants can be removed.

본 발명에 있어서, 상기 딥러닝 학습부의 실시간 대사량 산출모델은 In the present invention, the real-time metabolic calculation model of the deep learning learning unit

ReLU를 수학식 1의 활성화 함수로 채택하고, 배치 정규화(Batch Normalization) 및 SGD 최적기를 채택하며, 상기 실시간 대사량 산출모델의 초기 목표함수는 수학식 2를 가질 수 있다.ReLU is adopted as the activation function of Equation 1, batch normalization and SGD optimizer are adopted, and the initial target function of the real-time metabolic rate calculation model may have Equation 2.

본 발명에 있어서, 상기 실시간 대사량 산출모델은 아래 수학식 3의 정규화 함수를 추가하여, 수학식 4의 최종 목표함수를 가질 수 있다.In the present invention, the real-time metabolic rate calculation model may have a final target function of Equation 4 by adding the normalization function of Equation 3 below.

본 발명은 컴퓨터에 의해 수행되는 딥러닝 기반 재실자 맞춤형 대사량 예측방법으로서, 대사량 취득부가 심박수 측정이 가능한 웨어러블 디바이스로 측정된 재실자의 실시간 심박수를 전송받고, 재실자의 실시간 대사량을 산출하는 S100 단계; 이미지 취득부가 카메라를 통해 획득된 재실자의 실시간 활동 이미지를 전송받는 S200 단계; 데이터 전처리부가 상기 이미지 취득부의 이미지에 대한 전처리를 하는 S300 단계; 딥러닝 학습부가 상기 대사량 취득부의 실시간 대사량과 전처리된 활동 이미지를 입력값으로 하는 딥러닝 학습을 통해 재실자의 실시간 대사량 산출모델이 생성되는 S400 단계; 및 딥러닝 예측부가 상기 이미지 취득부에서 실시간으로 취득되는 재실자의 활동 이미지를 상기 실시간 대사량 산출모델에 입력하여, 재실자의 실시간 대사량을 예측하는 S500 단계를 포함할 수 있다.The present invention is a deep learning-based occupant-customized metabolic rate prediction method performed by a computer, wherein a metabolic rate acquisition unit receives the real-time heart rate of an occupant measured by a wearable device capable of measuring heart rate, and calculates the real-time metabolic rate of the occupant; S100; Step S200 of receiving real-time activity images of occupants obtained through a camera by an image acquisition unit; S300 step of pre-processing the image of the image acquisition unit by the data pre-processing unit; Step S400 in which a real-time metabolic rate calculation model of an occupant is generated by a deep learning learning unit through deep learning using the real-time metabolic rate of the metabolic acquisition unit and the preprocessed activity image as input values; and a step S500 of predicting the real-time metabolic rate of the occupant by the deep learning prediction unit by inputting the activity image of the occupant acquired in real time by the image acquisition unit to the real-time metabolic rate calculation model.

본 발명에 따른 S100 단계에서, 상기 대사량 취득부는 전송받은 재실자의 실시간 심박수 정보와, 기 입력된 재실자의 성별, 체중 및 연령 정보를 이용하여 재실자의 실시간 대사량을 산출할 수 있다.In step S100 according to the present invention, the metabolic rate obtaining unit may calculate the real-time metabolic rate of the occupant by using the received real-time heart rate information of the occupant and previously input sex, weight, and age information of the occupant.

본 발명에 따른 S300 단계에서, 상기 데이터 전처리부는 상기 이미지 취득부에서 취득된 활동 이미지에서, 재실자를 제외한 부분을 삭제할 수 있다.In step S300 according to the present invention, the data pre-processing unit may delete a part except for occupants from the activity image obtained by the image acquisition unit.

본 발명에 있어서, 상기 카메라는 키넥트 카메라를 사용하며, 키넥트 카메라를 통해 RGB영상과 원근감을 표시하는 깊이(Depth) 영상을 ??득하며, ??득한 깊이 영상을 토대로 입력된 영상에서 재실자를 검출하고, RGB 영상에 마스킹하여 재실자를 제외한 부분을 제거할 수 있다.In the present invention, the camera uses a Kinect camera, obtains an RGB image and a depth image displaying a sense of perspective through the Kinect camera, and based on the acquired depth image, occupants are captured in the input image. can be detected and masked on the RGB image to remove parts other than occupants.

본 발명은 하드웨어와 결합되어, 청구항 8에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측방법을 컴퓨터에 의해 실행시키기 위하여 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.The present invention may be combined with hardware and implemented as a computer program stored in a computer-readable recording medium in order to execute the deep learning-based occupant-customized metabolic rate prediction method according to claim 8 by a computer.

본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측시스템 및 예측방법은 다음과 같은 효과를 가진다.The deep learning-based occupant-customized metabolic rate prediction system and prediction method according to the present invention have the following effects.

첫째, 재실자의 실시간 심박수를 이용하여, 고정된 대사량이 아니라 실시간 대사량을 산출하는 효과가 있다.First, there is an effect of calculating the real-time metabolic rate, not the fixed metabolic rate, using the real-time heart rate of the occupant.

둘째, 재실자의 실시간 활동 이미지와, 실시간 대사량을 딥러닝 학습시켜 실시간 활동 이미지에 따른 실시간 대사량을 산출하는 효과가 있다.Second, there is an effect of calculating the real-time metabolic amount according to the real-time activity image by deep learning the real-time activity image of the occupant and the real-time metabolic amount.

셋째, 재실자를 제외한 배경을 삭제하는 데이터 전처리를 통해, 재실자에 대한 활동 이미지에 집중하여 분석하는 효과가 있다.Third, through data pre-processing that deletes the background except for occupants, there is an effect of focusing on the activity images of occupants and analyzing them.

넷째, 딥러닝학습을 통해 도출된 실시간 활동변화 대사량 산출모델로 심박수 정보없이 실시간 활동 이미지만 입력하여 실시간 대사량을 예측하는 효과가 있다.Fourth, a real-time activity change metabolic rate calculation model derived through deep learning learning has the effect of predicting real-time metabolic rate by inputting only real-time activity images without heart rate information.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측시스템의 일 실시예를 나타낸다.
도 2는 딥러닝 학습과정 및 딥러닝 예측과정의 개요도이다.
도 3은 본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측방법의 순서도를 나타낸다.
도 4는 본 발명에 따른 데이터 전처리의 일 실시예를 나타낸다.
도 5a 내지 도 5c는 데이터 전처리부에서 재실자를 제외한 배경을 삭제하는 일 실시예로서, 도 5a는 입력영상, 도 5b는 재실자 영상, 도 5c는 배경제거 영상을 나타낸다.
도 6a 내지 도 6h는 재실자의 실제 다양한 활동의 일 실시예를 나타낸다.
도 7은 재실자의 다양한 활동 변화에 따른 실제 대사량값(Ground truth)과 인공지능 예측값(Predicted value)을 나타낸 예시다.
도 8은 도 5의 이미지를 대상으로 배경 제외 전, 후를 비교한 실시예를 나타낸다.
도 9는 인공신경망의 잔여 블록(Residual Block)의 일 실시예를 나타낸다.
도 10은 METNet 모델 구조의 일 실시예를 나타낸다.
1 shows an embodiment of a deep learning-based occupant-customized metabolic rate prediction system according to the present invention.
2 is a schematic diagram of a deep learning learning process and a deep learning prediction process.
3 shows a flow chart of a deep learning-based occupant-customized metabolic rate prediction method according to the present invention.
4 shows an embodiment of data pre-processing according to the present invention.
5A to 5C are examples of deleting a background except for a occupant in a data pre-processing unit. FIG. 5A shows an input image, FIG. 5B shows an occupant image, and FIG. 5C shows a background removal image.
6A to 6H show an embodiment of various actual activities of occupants.
7 is an example of an actual metabolic value (Ground truth) and an artificial intelligence predicted value according to various activity changes of occupants.
FIG. 8 shows an example in which the image of FIG. 5 is compared before and after excluding the background.
9 shows an embodiment of a residual block of an artificial neural network.
10 shows one embodiment of the METNet model structure.

이하, 첨부한 도면을 참조하여, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 설명한다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 이해할 수 있는 바와 같이, 후술하는 실시예는 본 발명의 개념과 범위를 벗어나지 않는 한도 내에서 다양한 형태로 변형될 수 있다. 가능한 한 동일하거나 유사한 부분은 도면에서 동일한 도면부호를 사용하여 나타낸다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described so that those skilled in the art can easily practice it. As can be easily understood by those skilled in the art to which the present invention pertains, the embodiments described below may be modified in various forms without departing from the concept and scope of the present invention. Where possible, identical or similar parts are indicated using the same reference numerals in the drawings.

본 명세서에서 사용되는 전문용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지는 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다.The terminology used in this specification is only for referring to specific embodiments and is not intended to limit the present invention. As used herein, the singular forms also include the plural forms unless the phrases clearly indicate the opposite.

본 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특정 특성, 영역, 정수, 단계, 동작, 요소, 성분 및/또는 군의 존재나 부가를 제외시키는 것은 아니다.As used herein, the meaning of "comprising" specifies particular characteristics, regions, integers, steps, operations, elements, and/or components, and other specific characteristics, regions, integers, steps, operations, elements, components, and/or components. It does not exclude the presence or addition of groups.

본 명세서에서 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.All terms including technical terms and scientific terms used in this specification have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. The terms defined in the dictionary are additionally interpreted as having a meaning consistent with the related technical literature and the currently disclosed content, and are not interpreted in an ideal or very formal meaning unless defined.

본 명세서에서 사용되는 방향에 관한 표현, 예를 들어 전/후/좌/우의 표현, 상/하의 표현, 종방향/횡방향의 표현은 도면에 개시된 방향을 참고하여 해석될 수 있다.Expressions related to directions used in this specification, for example, expressions of front/back/left/right, top/bottom, and longitudinal/lateral directions may be interpreted with reference to directions disclosed in the drawings.

본 발명의 경우, 재실자의 심박수를 활용한 대사량 값을 선정하는 맞춤형 모델로서 실제 재실자의 대사량에 더욱 가까운 값을 제시한다. In the case of the present invention, as a customized model that selects the metabolic rate value using the heart rate of the occupant, a value closer to the actual occupant's metabolic rate is presented.

재실자는 실내에서 다양한 활동들을 실시하는데, 인공지능 딥러닝 기술을 활용하여 학습을 실시하고, 학습된 내용을 바탕으로 행동별 대사량 값을 예측하며, 최종적으로 실시간 맞춤형 대사량 예측이 가능하다.Occupants perform various activities indoors, and learning is performed using artificial intelligence deep learning technology, and based on the learned contents, metabolic rate values are predicted for each action, and finally, customized metabolic rate prediction is possible in real time.

본 발명에서는 딥러닝 컴퓨터 비전 기술과 심박수 측정이 가능한 웨어러블디바이스를 활용하여, 재실자 맞춤형 대사량 검출 기술을 제안한다.In the present invention, we propose a metabolic detection technology tailored to occupants by utilizing deep learning computer vision technology and a wearable device capable of measuring heart rate.

본 발명을 활용하면 일반화된 표 형식의 대사량 평균값이 아닌 재실자 맞춤형 대사량 값을 도출 가능하여 보다 나은 열환경 조성에 도움이 될 수 있다.If the present invention is used, it is possible to derive a metabolic value customized for occupants rather than a generalized tabular average metabolic value, which can help create a better thermal environment.

본 발명에서 활용가능한 키넥트(Kinect) 카메라는 거주자를 제외한 배경을 제외하는 기술을 내제 함으로써, 재실자의 공간(주변환경) 변화에 관여 받지 않고 높은 정밀도를 확보할 수 있다.The Kinect camera usable in the present invention can secure high precision without being involved in changes in the occupant's space (surrounding environment) by incorporating a technology for excluding the background except for the occupants.

도 2는 딥러닝 학습과정 및 딥러닝 예측과정의 개요도이다. 도 3은 본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측방법의 순서도를 나타낸다.2 is a schematic diagram of a deep learning learning process and a deep learning prediction process. 3 shows a flow chart of a deep learning-based occupant-customized metabolic rate prediction method according to the present invention.

전체 프로세스는 아래와 같다. 실시간으로 웨어러블 디바이스를 통해 대사량(MET)을 산출하며, 카메라를 통해 해당 이미지를 동시에 촬영한다. 촬영된 이미지와 해당 이미지에 따른 대사량 값을 학습(Deep Learing)한다. 이후, 웨어러블 디바이스 없이도 재실자의 활동에 따라 실시간으로 맞춤형 대사량이 산출될 수 있다.The whole process is as follows. The metabolic rate (MET) is calculated in real time through a wearable device, and the corresponding image is simultaneously taken through a camera. It learns (Deep Learning) the metabolic value according to the captured image and the corresponding image. After that, customized metabolic rate can be calculated in real time according to the occupant's activity without a wearable device.

이하에서는 도면을 참고하여 본 발명을 설명하고자 한다. 참고로, 도면은 본 발명의 특징을 설명하기 위하여, 일부 과장되게 표현될 수도 있다. 이 경우, 본 명세서의 전 취지에 비추어 해석되는 것이 바람직하다.Hereinafter, the present invention will be described with reference to the drawings. For reference, the drawings may be partially exaggerated in order to explain the features of the present invention. In this case, it is preferable to interpret in light of the whole purpose of this specification.

도 1은 본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측시스템의 일 실시예를 나타낸다.1 shows an embodiment of a deep learning-based occupant-customized metabolic rate prediction system according to the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측시스템은 대사량 취득부(100), 이미지 취득부(200), 데이터 전처리부(300), 딥러닝 학습부(400) 및 딥러닝 예측부(500)를 포함한다.As shown in FIG. 1, the deep learning-based occupant-customized metabolic rate prediction system according to the present invention includes a metabolic amount acquisition unit 100, an image acquisition unit 200, a data pre-processing unit 300, a deep learning learning unit 400, and It includes a deep learning prediction unit 500.

본 발명은 컴퓨터에 의해 수행되는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템으로서, 심박수 측정이 가능한 웨어러블 디바이스(10)로 측정된 재실자의 실시간 심박수를 전송받고, 재실자의 실시간 대사량을 산출하는 대사량 취득부(100); 카메라(20)를 통해 획득된 재실자의 실시간 활동 이미지를 전송받는 이미지 취득부(200); 상기 이미지 취득부(200)의 이미지에 대한 전처리를 하는 데이터 전처리부(300); 상기 대사량 취득부(100)의 실시간 대사량과 전처리된 상기 활동 이미지를 입력값으로 하는 딥러닝 학습을 통해 재실자의 실시간 대사량 산출모델이 생성되는 딥러닝 학습부(400); 및 상기 이미지 취득부(200)에서 실시간으로 취득되는 재실자의 활동 이미지를 상기 실시간 대사량 산출모델에 입력하여, 재실자의 실시간 대사량을 예측하는 딥러닝 예측부(500)를 포함한다.The present invention is a deep learning-based occupant customized metabolic rate prediction system performed by a computer. The metabolic rate acquisition unit (100 ); an image acquisition unit 200 that receives real-time activity images of occupants acquired through the camera 20; a data pre-processing unit 300 that pre-processes the image of the image acquiring unit 200; a deep learning learning unit 400 for generating a real-time metabolic rate calculation model of an occupant through deep learning using the real-time metabolic rate of the metabolic acquisition unit 100 and the preprocessed activity image as input values; and a deep learning prediction unit 500 that predicts the real-time metabolic rate of the occupant by inputting the activity image of the occupant acquired in real time by the image acquisition unit 200 to the real-time metabolic calculation model.

본 발명에 따른 웨어러블(wearable) 디바이스(10)는 시계형 디바이스, 밴드형 디바이스, 안경형 디바이스, 목걸이형 디바이스, 헬멧형 디바이스 및 의복형 디바이스를 포함한다.The wearable device 10 according to the present invention includes a watch-type device, a band-type device, a glasses-type device, a necklace-type device, a helmet-type device, and a clothing-type device.

본 발명에 따른 대사량 취득부(100)는 심박수 측정이 가능한 웨어러블 디바이스(10)로 측정된 재실자의 실시간 심박수를 전송받고, 재실자의 실시간 대사량을 산출한다.The metabolic rate acquisition unit 100 according to the present invention receives the real-time heart rate of an occupant measured by the wearable device 10 capable of measuring the heart rate, and calculates the real-time metabolic rate of the occupant.

본 발명에 따른 대사량 취득부(100)는 전송받은 재실자의 실시간 심박수 정보와, 기 입력된 재실자의 성별, 체중 및 연령 정보를 이용하여 재실자의 실시간 대사량을 산출할 수 있다.The metabolic rate acquisition unit 100 according to the present invention may calculate the real-time metabolic rate of the occupant by using the transmitted real-time heart rate information of the occupant and previously input sex, weight, and age information of the occupant.

본 발명에 따른 '대사량'은 기초대사량과 활동대사량을 포함하는 총 대사량을 의미한다.The 'metabolic amount' according to the present invention means the total metabolic amount including the basal metabolic rate and the active metabolic rate.

본 발명에서, 심박수를 이용한 대사량 변환은 국제 표준기구 ISO 8996의 대사량 평가 방법 Level 3 기준을 따른다.In the present invention, metabolic conversion using heart rate follows the metabolic evaluation method Level 3 standard of ISO 8996, an international standard organization.

대사량 평가식은 다음과 같다.The metabolic rate evaluation formula is as follows.

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
은 대사량 값이다.
Figure pat00003
는 휴식시 대사량값이고, 단위는 W/
Figure pat00004
이다.
Figure pat00005
는 심박수이다.
Figure pat00006
는 휴식시 열적 중립상태의 심박수이다. RM은 심박수의 증가를 나타낸 수이다. here,
Figure pat00002
is the metabolic value.
Figure pat00003
is the resting metabolic rate, and the unit is W/
Figure pat00004
am.
Figure pat00005
is the heart rate.
Figure pat00006
is the thermally neutral heart rate at rest. RM is a number representing an increase in heart rate.

RM 계산 식은 다음과 같다.The RM calculation formula is as follows.

Figure pat00007
Figure pat00007

여기서, MWC는 최대 일 수용력(working capacity)을 말한다. 이때 성별, 나이, 체중이 계산된다. A는 나이이다. P 는 몸무게이다.Here, MWC refers to the maximum working capacity. At this time, gender, age, and weight are calculated. A is the age P is the weight.

Figure pat00008
Figure pat00008

대사량 값이 W/㎡ 단위로 계산되면, ANSI/ASHRAE Standard 55 기준에 따라, 대사량 값은 1 MET는 58.2W/㎡로 비례하여 변환한다. When the metabolic value is calculated in W/m2, according to ANSI/ASHRAE Standard 55, the metabolic value is proportionally converted to 58.2 W/m2 for 1 MET.

본 발명에 따른 이미지 취득부(200)는 카메라(20)를 통해 획득된 재실자의 실시간 활동 이미지를 전송받을 수 있다.The image acquisition unit 200 according to the present invention may receive real-time activity images of occupants acquired through the camera 20 .

본 발명에 따른 카메라(20)는 키넥트(Kinect) 카메라를 포함한다. 키넥트 센서는 저가의 깊이 카메라로써, 실시간으로 깊이 정보뿐만 아니라 RGB 영상과 관절 추적 정보를 제공할 수 있다.The camera 20 according to the present invention includes a Kinect camera. The Kinect sensor is a low-cost depth camera that can provide not only depth information but also RGB images and joint tracking information in real time.

본 발명에 따른 데이터 전처리부(300)는 이미지 취득부(200)의 이미지에 대한 전처리를 할 수 있다.The data pre-processing unit 300 according to the present invention may pre-process the image of the image acquiring unit 200 .

도 4는 본 발명에 따른 데이터 전처리의 일 실시예를 나타낸다.4 shows an embodiment of data pre-processing according to the present invention.

데이터 전처리는 이전 활동이 다음 활동의 MET에 미치는 영향을 최소화하기 위한 작업이다. 도 4의 실시예의 경우, 1개의 활동 당 앞의 1분과 뒤쪽 2분 동안의 데이터를 제거하였다. Data preprocessing is to minimize the impact of the previous activity on the MET of the next activity. In the case of the embodiment of FIG. 4 , data for the preceding 1 minute and the following 2 minutes per activity were removed.

도 5a 내지 도 5c는 데이터 전처리부에서 재실자를 제외한 배경을 삭제하는 일 실시예로서, 도 5a는 입력영상, 도 5b는 재실자 영상, 도 5c는 배경제거 영상을 나타낸다.5A to 5C are examples of deleting a background except for a occupant in a data pre-processing unit. FIG. 5A shows an input image, FIG. 5B shows an occupant image, and FIG. 5C shows a background removal image.

도 8은 도 5의 이미지를 대상으로 배경 제외 전, 후를 비교한 실시예를 나타낸다.FIG. 8 shows an example in which the image of FIG. 5 is compared before and after excluding the background.

본 발명에 따른 데이터 전처리부(300)는 상기 이미지 취득부(200)에서 취득된 활동 이미지에서, 재실자를 제외한 부분을 삭제할 수 있다.The data pre-processing unit 300 according to the present invention may delete parts other than occupants from the activity image obtained by the image acquisition unit 200 .

본 발명은 시각 주의(Visual Attention)를 활용하여 행동 인식 성능의 저하 원인이 되는 영상의 배경 부분 제거 기술을 활용한다. 시각 주의를 활용하여 배경을 제거한 영상을 본 연구에서 개발한 딥 러닝 모델에 사용하여 행동 인식 기술의 성능을 향상시킬 수 있다.The present invention utilizes a technique for removing a background portion of an image that causes deterioration in action recognition performance by utilizing visual attention. The performance of the action recognition technology can be improved by using the image with the background removed using visual attention for the deep learning model developed in this study.

본 발명에서는 재실자의 행동 인식에 불필요한 정보를 담고 있는 배경 부분을 제거하기 위하여, 일 실시예로서 마이크로소프트(Microsoft)의 키넥트 카메라를 활용하였다. 도 5와 같이, 키넥트 카메라를 통해 RGB영상과 원근감을 표시하는 깊이(Depth) 영상을 획득하며, 획득한 깊이 영상을 토대로 입력된 영상에서 재실자를 검출하고, RGB 영상에 마스킹하여 재실자를 제외한 부분을 제거할 수 있다. In the present invention, Microsoft's Kinect camera is used as an embodiment in order to remove a background portion containing unnecessary information for recognizing an occupant's behavior. As shown in FIG. 5, an RGB image and a depth image displaying perspective are obtained through the Kinect camera, and a occupant is detected from the input image based on the acquired depth image, and the part except for the occupant is masked in the RGB image can be removed.

참고로, 본 명세서와 도면에서 이미지의 '배경'이라는 용어는 이미지에서 '재실자'를 제외한 부분을 의미한다.For reference, in this specification and drawings, the term 'background' of an image means a part of the image excluding 'occupant'.

본 발명에 활용된 키넥트 카메라는 재실자를 제외한 배경을 제외하는 기술을 적용함으로써, 재실자의 공간(주변환경) 변화에 관여 받지 않고 높은 정밀도를 확보할 수 있다.The Kinect camera used in the present invention can secure high precision without being involved in changes in the occupant's space (surrounding environment) by applying a technology that excludes the background except occupants.

본 발명에 따른 딥러닝 학습부(400)의 학습단계로서, 재실자는 다양한 활동을 실시하며, 카메라는 이 모습을 이미지 데이터로 획득하게 된다. 또한, 웨어러블디바이스를 통하여 얻은 재실자의 실시간 심박수 데이터, 재실자의 성별, 몸무게, 나이를 계산하여 실시간 대사량(MET)을 산출한다. 그 후 이미지와 대사량을 입력값으로 하여, 딥러닝 기술을 활용하여 해당 이미지에 대사량을 학습한다.As a learning step of the deep learning learning unit 400 according to the present invention, the occupant performs various activities, and the camera acquires this appearance as image data. In addition, real-time metabolic rate (MET) is calculated by calculating the occupant's real-time heart rate data obtained through the wearable device and the occupant's sex, weight, and age. Then, using the image and the amount of metabolism as input values, deep learning technology is used to learn the amount of metabolism in the image.

본 발명에 따른 딥러닝 예측부(500)의 예측단계의 경우, 웨어러블 디바이스 없이도, 카메라를 통해 얻어지는 실시간 이미지 만으로 재실자 맞춤형 대사량 산출하는 것이 가능하다.In the case of the prediction step of the deep learning prediction unit 500 according to the present invention, it is possible to calculate the metabolic rate tailored to the occupant only with real-time images obtained through a camera without a wearable device.

도 2는 딥러닝 학습과정 및 딥러닝 예측과정의 개요도이다.2 is a schematic diagram of a deep learning learning process and a deep learning prediction process.

본 발명의 MET 예측방법은 도 2와 같다. 우선 센싱(Sensing) 단계에서 ㅋ키키넥트 카메라를 이용해 재실자의 다양한 생활 활동들을 관측하고 동시에 웨어러블 디바이스에서 재실자의 정보를 얻는다. AI(인공지능) 에서는 딥러닝(Deep Learning)을 활용하여 행동에 대한 이미지 정보와 대사량 정보를 학습한다. AI의 축적된 데이터 베이스를 기반으로 이후 웨어러블 디바이스의 도움 없이, AI는 비접촉식 센서인 키넥트 카메라만으로 대사량(MET: Metabolic Equivalent Task) 예측을 가능하게 한다. The MET prediction method of the present invention is shown in FIG. 2. First of all, in the sensing stage, various life activities of occupants are observed using the ㅋKiKinect camera, and at the same time, occupant information is obtained from wearable devices. In AI (artificial intelligence), deep learning is used to learn image information and metabolic information about behavior. Based on AI's accumulated database, without the help of any wearable device, AI enables Metabolic Equivalent Task (MET) prediction with only the Kinect camera, a non-contact sensor.

도 3은 본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측방법의 순서도를 나타낸다.3 shows a flow chart of a deep learning-based occupant-customized metabolic rate prediction method according to the present invention.

구체적인 MET 예측방법은 도 3과 같다. 먼저 키넥트 카메라를 이용하여 재실자의 행동을 센싱하여 초당 5개의 이미지를 얻는다. 동시에 웨어러블 디바이스를 통해 심박수 데이터를 수집한다. 수집된 심박수 데이터와 실험자의 변하지 않는 정보인 성별(Gender), 체중(Weight) 및 연령(Age)을 입력 데이터로 이용하여 국제 대사량 기준 ISO 8996 Level 3 method에 맞게 MET 값을 계산한다. 이렇게 계산된 MET값과 키넥트 카메라를 통해 얻어진 이미지 파일을 인공지능 시스템(AI System)에서 학습(Deep learning)시킨다. 최종적으로, 웨어러블 디바이스의 정보 없이도 비 접촉 센서인 키넥트 카메라만으로 사람의 MET를 예측할 수 있다A detailed MET prediction method is shown in FIG. 3 . First, by using the Kinect camera to sense the occupant's behavior, five images per second are obtained. At the same time, heart rate data is collected through a wearable device. The MET value is calculated according to the international metabolic rate standard ISO 8996 Level 3 method using the collected heart rate data and the experimenter's unchanging information such as gender, weight, and age as input data. The calculated MET value and the image file obtained through the Kinect camera are deep-learned in an AI system. Finally, a person's MET can be predicted with only the Kinect camera, a non-contact sensor, without information from a wearable device.

본 발명에 따른 딥러닝 학습부(400)는 상기 대사량 취득부(100)의 실시간 대사량과 전처리된 상기 활동 이미지를 입력값으로 하는 딥러닝 학습을 통해 재실자의 실시간 대사량 산출모델을 생성할 수 있다.The deep learning learning unit 400 according to the present invention may generate a real-time metabolic rate calculation model of an occupant through deep learning using the real-time metabolic rate of the metabolic rate acquisition unit 100 and the preprocessed activity image as input values.

도 9는 인공신경망의 잔여 블록(Residual Block)의 일 실시예를 나타낸다. 도 10은 METNet 모델 구조의 일 실시예를 나타낸다.9 shows an embodiment of a residual block of an artificial neural network. 10 shows one embodiment of the METNet model structure.

대사량 산출모델의 안정성을 향상시키기 위해, Rectified Linear Unit(ReLU)를 활성화 함수로 채택하고, 배치 정규화(Batch Normalization) 및 Stochastic Gradient Descent(SGD) 최적기를 채택했다. To improve the stability of the metabolic calculation model, Rectified Linear Unit (ReLU) was adopted as the activation function, and batch normalization and stochastic gradient descent (SGD) optimizers were adopted.

ReLU는 비선형성을 갖기 때문에, Gradient Vanishing 및 Gradient Exploding 문제를 완화할 수 있다. 또한, 배치 정규화(Batch Normalization)를 이용함으로써 배치 정규화(Batch Normalization)에서 증명된 바와 같이 인공 신경망 내부의 공분산 이동 문제를 감소시킨다. 마지막으로, SGD 최적기를 채택했다. Since ReLU has non-linearity, it can alleviate the problems of gradient vanishing and gradient explosion. In addition, by using batch normalization, we reduce the covariance shift problem inside artificial neural networks, as demonstrated in batch normalization. Finally, we adopted the SGD optimizer.

이는 모델을 안정적이고 빠르게 학습하는데 매우 효과적이다. 전체 모델의 최초 목표함수는 L1 Loss(수학식 2)ld고, SGD 최적기는 목표함수를 최소한으로 줄이는 최적화 문제를 해결할 수 있다.This is very effective to train a model stably and quickly. The initial target function of the entire model is L1 Loss (Equation 2) ld , and the SGD optimizer can solve an optimization problem that reduces the target function to a minimum.

Figure pat00009
Figure pat00009

여기서, f(x)는 활성화 함수이고, x는 입력값이다.Here, f(x) is an activation function and x is an input value.

Figure pat00010
Figure pat00010

여기서, L1Loss는 초기 목표함수이고, x는 입력값이고, n은 입력값의 개수(batchsize)이고, y는 레이블이고,

Figure pat00011
는 n개의 입력값 x 중에서 i번째 입력값이다.where L1Loss is the initial target function, x is the input value, n is the number of input values (batchsize), y is the label,
Figure pat00011
is the ith input value among n input values x.

하지만, 대사량 산출모델은 아직 학습에 사용된 데이터와 가장 유사한 예측을 하는 편향성을 가지고 있다. 산출모델은 목표함수에 의해 학습데이터의 중간값을 예측하여 평균 절대 오차를 최소화하는 방향으로 학습되어, 기대와는 다른 결과를 야기할 수 있다. 따라서, 수학식 3의 정규화 함수를 추가한다. 이 함수는 학습과정에서 모델이 비슷한 값으로 동시에 예측하면 불이익을 준다. However, the metabolic rate calculation model still has a bias to make predictions that are most similar to the data used for learning. The output model is trained in the direction of minimizing the average absolute error by predicting the median value of the training data by the target function, which may cause a different result than expected. Therefore, the normalization function of Equation 3 is added. This function penalizes models that simultaneously predict similar values during the learning process.

즉, 본 발명에 따른 실시간 대사량 산출모델은 아래 수학식 3의 정규화 함수를 추가하여, 아래 수학식 4의 최종 목표함수를 가질 수 있다.That is, the real-time metabolic rate calculation model according to the present invention may have a final target function of Equation 4 below by adding the normalization function of Equation 3 below.

Figure pat00012
Figure pat00012

여기서, REG는 정규화함수이고, n은 입력값의 개수(batchsize)이고,

Figure pat00013
는 n개의 입력값 x 중에서 i번째 입력값이고,
Figure pat00014
는 n개의 x평균이다.Here, REG is a regularization function, n is the number of input values (batchsize),
Figure pat00013
is the ith input value among n input values x,
Figure pat00014
is the x mean of n.

따라서, 본 발명에 따른 최종 목표 함수는 다음 수학식 4와 같다.Therefore, the final target function according to the present invention is shown in Equation 4 below.

Figure pat00015
Figure pat00015

여기서, O는 최종 목표함수이고, L1Loss는 초기 목표함수이고, REG는 정규화함수이다.Here, O is the final target function, L1Loss is the initial target function, and REG is the regularization function.

본 발명에 따른 METNet의 경우, 모든 CNN 층은 ReLU를 활성화 함수로 가지고 있다. 각 잔존블럭(Residual Block)의 첫번째 CNN 층은 다운 샘플링을 위해 필터의 이동간격을 2 픽셀로 한다. 그리고 배치 정규화(Batch Normalization)를 적용한다. 본 발명에 있어서, 학습 속도는 5e-5, 모멘텀은 0.9, 변수 감소비율이 5e-4인 SGD 최적기를 사용한다. In the case of METNet according to the present invention, all CNN layers have ReLU as an activation function. The first CNN layer of each residual block sets the filter movement interval to 2 pixels for downsampling. And apply batch normalization. In the present invention, an SGD optimizer with a learning rate of 5e-5, a momentum of 0.9, and a variable reduction ratio of 5e-4 is used.

한편, 본 발명은 대사량 예측방법으로 구현될 수도 있다. 예측방법 발명은 전술한 예측시스템 발명과 실질적인 기술구성은 동일하나, 발명의 카테고리가 상이하다. 이에 중복되는 세부 내용은 예측시스템 발명에서 차용가능하며, 이하에서는 기술구성을 위주로 설명하고자 한다.Meanwhile, the present invention may be implemented as a method for predicting metabolic rate. The prediction method invention has the same practical technical configuration as the prediction system invention described above, but the category of the invention is different. The overlapping details can be borrowed from the prediction system invention, and hereinafter, the technical configuration will be mainly described.

본 발명은 컴퓨터에 의해 수행되는 딥러닝 기반 재실자 맞춤형 대사량 예측방법으로서, 대사량 취득부(100)가 심박수 측정이 가능한 웨어러블 디바이스(10)로 측정된 재실자의 실시간 심박수를 전송받고, 재실자의 실시간 대사량을 산출하는 S100 단계; 이미지 취득부(200)가 카메라(20)를 통해 획득된 재실자의 실시간 활동 이미지를 전송받는 S200 단계; 데이터 전처리부(300)가 상기 이미지 취득부(200)의 이미지에 대한 전처리를 하는 S300 단계; 딥러닝 학습부(400)가 상기 대사량 취득부(100)의 실시간 대사량과 전처리된 활동 이미지를 입력값으로 하는 딥러닝 학습을 통해 재실자의 실시간 대사량 산출모델이 생성되는 S400 단계; 및 딥러닝 예측부(500)가 상기 이미지 취득부(200)에서 실시간으로 취득되는 재실자의 활동 이미지를 상기 실시간 대사량 산출모델에 입력하여, 재실자의 실시간 대사량을 예측하는 S500 단계를 포함한다.The present invention is a deep learning-based occupant-customized metabolic rate prediction method performed by a computer, in which the metabolic rate acquisition unit 100 receives the real-time heart rate of the occupant measured by the wearable device 10 capable of measuring the heart rate, and measures the real-time metabolic rate of the occupant S100 step of calculating; Step S200 in which the image acquisition unit 200 receives the real-time activity image of the occupant acquired through the camera 20; A step S300 in which the data pre-processing unit 300 pre-processes the image of the image acquisition unit 200; Step S400 in which the deep learning learning unit 400 generates a real-time metabolic rate calculation model of the occupant through deep learning using the real-time metabolic rate of the metabolic rate acquisition unit 100 and the preprocessed activity image as input values; and a step S500 in which the deep learning prediction unit 500 inputs the activity image of the occupant acquired in real time by the image acquisition unit 200 to the real-time metabolic rate calculation model to predict the real-time metabolic rate of the occupant.

S100 단계와 S200 단계는 실시간 정보를 취득하는 것이므로, 동시에 수행되는 것이 바람직하다.Since steps S100 and S200 are to acquire real-time information, it is preferable to perform them simultaneously.

S100 단계에서, 상기 대사량 취득부(100)는 전송받은 재실자의 실시간 심박수 정보와, 기 입력된 재실자의 성별, 체중 및 연령 정보를 이용하여 재실자의 실시간 대사량을 산출할 수 있다.In step S100, the metabolic rate acquisition unit 100 may calculate the real-time metabolic rate of the occupant by using the transmitted real-time heart rate information of the occupant and previously input sex, weight, and age information of the occupant.

300 단계에서, 상기 데이터 전처리부(300)는 상기 이미지 취득부(200)에서 취득된 활동 이미지에서, 재실자를 제외한 부분을 삭제할 수 있다.In step 300, the data pre-processing unit 300 may delete a portion of the activity image acquired by the image acquisition unit 200, except for occupants.

상기 카메라는 키넥트 카메라를 사용하며, 키넥트 카메라를 통해 RGB영상과 원근감을 표시하는 깊이(Depth) 영상을 ??득하며, ??득한 깊이 영상을 토대로 입력된 영상에서 재실자를 검출하고, RGB 영상에 마스킹하여 재실자를 제외한 부분을 제거할 수 있다.The camera uses a Kinect camera, obtains an RGB image and a depth image indicating perspective through the Kinect camera, detects an occupant from the input image based on the obtained depth image, and RGB By masking the image, parts other than occupants can be removed.

상기 딥러닝 학습부(400)의 실시간 대사량 산출모델은 ReLU를 수학식 1의 활성화 함수로 채택하고, 배치 정규화(Batch Normalization) 및 SGD 최적기를 채택하며, 상기 실시간 대사량 산출모델의 초기 목표함수는 수학식 2를 가질 수 있다.The real-time metabolic calculation model of the deep learning learning unit 400 adopts ReLU as an activation function of Equation 1, adopts batch normalization and an SGD optimizer, and the initial target function of the real-time metabolic calculation model is mathematical You can have Equation 2.

상기 실시간 대사량 산출모델은 아래 수학식 3의 정규화 함수를 추가하여, 아래 수학식 4의 최종 목표함수를 가질 수 있다.The real-time metabolic rate calculation model may have a final target function of Equation 4 below by adding a normalization function of Equation 3 below.

한편, 본 발명은 컴퓨터프로그램으로 구현될 수도 있다. Meanwhile, the present invention may be implemented as a computer program.

구체적으로, 본 발명은 하드웨어와 결합되어, 본 발명에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측방법을 컴퓨터에 의해 실행시키기 위하여 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.Specifically, the present invention may be implemented as a computer program stored in a computer-readable recording medium in order to execute the deep learning-based occupant-customized metabolic rate prediction method according to the present invention by a computer in combination with hardware.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Methods according to embodiments of the present invention may be implemented in the form of programs readable by various computer means and recorded on computer-readable recording media. Here, the recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in computer software. For example, recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CDROMs and DVDs, and magneto-optical media such as floptical disks. optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of the program command may include a high-level language that can be executed by a computer using an interpreter, as well as a machine language generated by a compiler. These hardware devices may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

본 명세서에서 설명되는 실시예와 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아님은 자명하다. 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The embodiments described in this specification and the accompanying drawings merely illustrate some of the technical ideas included in the present invention by way of example. Therefore, since the embodiments disclosed in this specification are intended to explain rather than limit the technical spirit of the present invention, it is obvious that the scope of the technical spirit of the present invention is not limited by these embodiments. All modified examples and specific examples that can be easily inferred by those skilled in the art within the scope of the technical idea included in the specification and drawings of the present invention should be construed as being included in the scope of the present invention.

10 : 웨어러블 디바이스
20 : 카메라
100 : 대사량 취득부
200 : 이미지 취득부
300 : 데이터 전처리부
400 : 딥러닝 학습부
500 : 딥러닝 예측부
10: wearable device
20 : camera
100: metabolic rate acquisition unit
200: image acquisition unit
300: data pre-processing unit
400: deep learning learning unit
500: deep learning prediction unit

Claims (14)

컴퓨터에 의해 수행되는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템으로서,
심박수 측정이 가능한 웨어러블 디바이스로 측정된 재실자의 실시간 심박수를 전송받고, 재실자의 실시간 대사량을 산출하는 대사량 취득부;
카메라를 통해 획득된 재실자의 실시간 활동 이미지를 전송받는 이미지 취득부;
상기 이미지 취득부의 이미지에 대한 전처리를 하는 데이터 전처리부;
상기 대사량 취득부의 실시간 대사량과 전처리된 상기 활동 이미지를 입력값으로 하는 딥러닝 학습을 통해 재실자의 실시간 대사량 산출모델을 생성하는 딥러닝 학습부; 및
상기 이미지 취득부에서 실시간으로 취득되는 재실자의 활동 이미지를 상기 실시간 대사량 산출모델에 입력하여, 재실자의 실시간 대사량을 예측하는 딥러닝 예측부를 포함하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템.
As a deep learning-based occupant-customized metabolic rate prediction system performed by a computer,
a metabolic rate acquisition unit receiving a real-time heart rate of an occupant measured by a wearable device capable of measuring heart rate and calculating a real-time metabolic rate of the occupant;
an image acquisition unit that receives real-time activity images of occupants acquired through the camera;
a data pre-processing unit that pre-processes the image of the image acquiring unit;
a deep learning learning unit generating a real-time metabolic rate calculation model of a occupant through deep learning using the real-time metabolic rate of the metabolic rate acquisition unit and the preprocessed activity image as input values; and
A deep learning-based occupant customized metabolic rate prediction system comprising a deep learning prediction unit for predicting the real-time metabolic rate of the occupant by inputting the activity image of the occupant acquired in real time by the image acquisition unit to the real-time metabolic calculation model.
청구항 1에 있어서,
상기 웨어러블 디바이스는 시계형 디바이스, 밴드형 디바이스, 안경형 디바이스, 목걸이형 디바이스, 헬멧형 디바이스 및 의복형 디바이스를 포함하며,
상기 카메라는 키넥트 카메라를 포함하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템.
The method of claim 1,
The wearable device includes a watch-type device, a band-type device, a glasses-type device, a necklace-type device, a helmet-type device, and a clothing-type device,
The camera is a deep learning-based occupant-customized metabolic rate prediction system, characterized in that it comprises a Kinect camera.
청구항 1에 있어서,
상기 대사량 취득부는 전송받은 재실자의 실시간 심박수 정보와, 기 입력된 재실자의 성별, 체중 및 연령 정보를 이용하여 재실자의 실시간 대사량을 산출하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템.
The method of claim 1,
The metabolic rate acquisition unit calculates the real-time metabolic rate of the occupant using the transmitted real-time heart rate information of the occupant and previously input sex, weight and age information of the occupant. Deep learning-based occupant customized metabolic rate prediction system.
청구항 1에 있어서, 상기 데이터 전처리부는
상기 이미지 취득부에서 취득된 활동 이미지에서, 재실자를 제외한 부분을 삭제하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템.
The method according to claim 1, wherein the data pre-processing unit
Deep learning-based occupant-customized metabolic rate prediction system, characterized in that in the activity image acquired by the image acquisition unit, deleting parts other than the occupant.
청구항 4에 있어서,
상기 카메라는 키넥트 카메라를 사용하며,
키넥트 카메라를 통해 RGB영상과 원근감을 표시하는 깊이(Depth) 영상을 획득하며, 획득한 깊이 영상을 토대로 입력된 영상에서 재실자를 검출하고, RGB 영상에 마스킹하여 재실자를 제외한 부분을 제거하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템.
The method of claim 4,
The camera uses a Kinect camera,
Acquires RGB image and depth image that displays perspective through Kinect camera, detects occupants in the input image based on the acquired depth image, and removes parts other than the occupant by masking the RGB image A deep learning-based metabolic rate prediction system customized for occupants.
청구항 1에 있어서,
상기 딥러닝 학습부의 실시간 대사량 산출모델은
ReLU를 수학식 1의 활성화 함수로 채택하고, 배치 정규화(Batch Normalization) 및 SGD 최적기를 채택하며,
상기 실시간 대사량 산출모델의 초기 목표함수는 아래 수학식 2를 가지는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템.
[수학식 1]
Figure pat00016

(여기서, f(x)는 활성화 함수이고, x는 입력값이다.)

[수학식 2]
Figure pat00017

(여기서, L1Loss는 초기 목표함수이고, x는 입력값이고, n은 입력값의 개수(batchsize)이고, y는 레이블이고,
Figure pat00018
는 n개의 입력값 x 중에서 i번째 입력값이다.)
The method of claim 1,
The real-time metabolic rate calculation model of the deep learning learning unit is
Adopting ReLU as the activation function in Equation 1, adopting Batch Normalization and the SGD optimizer,
The initial target function of the real-time metabolic calculation model is a deep learning-based occupant-customized metabolic prediction system, characterized in that it has Equation 2 below.
[Equation 1]
Figure pat00016

(Where f(x) is the activation function and x is the input value.)

[Equation 2]
Figure pat00017

(Where L1Loss is the initial target function, x is the input value, n is the number of input values (batchsize), y is the label,
Figure pat00018
is the ith input value among n input values x.)
청구항 6에 있어서,
상기 실시간 대사량 산출모델은 아래 수학식 3의 정규화 함수를 추가하여, 아래 수학식 4의 최종 목표함수를 가지는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측시스템.
[수학식 3]
Figure pat00019

(여기서, REG는 정규화함수이고, n은 입력값의 개수(batchsize)이고,
Figure pat00020
는 n개의 입력값 x 중에서 i번째 입력값이고,
Figure pat00021
는 n개의 x평균이다.)
[수학식 4]
Figure pat00022

(여기서, O는 최종 목표함수이고, L1Loss는 초기 목표함수이고, REG는 정규화함수이다.)
The method of claim 6,
The real-time metabolic rate calculation model is characterized in that it has a final target function of Equation 4 below by adding the normalization function of Equation 3 below.
[Equation 3]
Figure pat00019

(Where REG is the regularization function, n is the number of input values (batchsize),
Figure pat00020
is the ith input value among n input values x,
Figure pat00021
is the x mean of n.)
[Equation 4]
Figure pat00022

(Where O is the final target function, L1Loss is the initial target function, and REG is the regularization function.)
컴퓨터에 의해 수행되는 딥러닝 기반 재실자 맞춤형 대사량 예측방법으로서,
대사량 취득부가 심박수 측정이 가능한 웨어러블 디바이스로 측정된 재실자의 실시간 심박수를 전송받고, 재실자의 실시간 대사량을 산출하는 S100 단계;
이미지 취득부가 카메라를 통해 획득된 재실자의 실시간 활동 이미지를 전송받는 S200 단계;
데이터 전처리부가 상기 이미지 취득부의 이미지에 대한 전처리를 하는 S300 단계;
딥러닝 학습부가 상기 대사량 취득부의 실시간 대사량과 전처리된 활동 이미지를 입력값으로 하는 딥러닝 학습을 통해 재실자의 실시간 대사량 산출모델이 생성되는 S400 단계; 및
딥러닝 예측부가 상기 이미지 취득부에서 실시간으로 취득되는 재실자의 활동 이미지를 상기 실시간 대사량 산출모델에 입력하여, 재실자의 실시간 대사량을 예측하는 S500 단계를 포함하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측방법.
As a deep learning-based occupant-specific metabolic prediction method performed by a computer,
Step S100 in which the metabolic rate obtaining unit receives the real-time heart rate of the occupant measured by the wearable device capable of measuring the heart rate and calculates the real-time metabolic rate of the occupant;
Step S200 of receiving real-time activity images of occupants obtained through a camera by an image acquisition unit;
S300 step of pre-processing the image of the image acquisition unit by the data pre-processing unit;
Step S400 in which a real-time metabolic rate calculation model of an occupant is generated by a deep learning learning unit through deep learning using the real-time metabolic rate of the metabolic acquisition unit and the preprocessed activity image as input values; and
Deep learning based occupant customized metabolic rate prediction, characterized in that it comprises a step S500 of predicting real-time metabolic rate of the occupant by inputting the activity image of the occupant acquired in real time by the image acquisition unit to the real-time metabolic rate calculation model by the deep learning prediction unit. method.
청구항 8에 있어서,
S100 단계에서, 상기 대사량 취득부는 전송받은 재실자의 실시간 심박수 정보와, 기 입력된 재실자의 성별, 체중 및 연령 정보를 이용하여 재실자의 실시간 대사량을 산출하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측방법.
The method of claim 8,
In step S100, the metabolic rate acquisition unit calculates the real-time metabolic rate of the occupant using the received real-time heart rate information of the occupant and previously input sex, weight, and age information of the occupant. .
청구항 8에 있어서,
S300 단계에서, 상기 데이터 전처리부는 상기 이미지 취득부에서 취득된 활동 이미지에서, 재실자를 제외한 부분을 삭제하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측방법.
The method of claim 8,
In step S300, the data pre-processing unit deletes a part except for the occupant from the activity image acquired by the image acquisition unit.
청구항 10에 있어서,
상기 카메라는 키넥트 카메라를 사용하며,
키넥트 카메라를 통해 RGB영상과 원근감을 표시하는 깊이(Depth) 영상을 ??득하며, ??득한 깊이 영상을 토대로 입력된 영상에서 재실자를 검출하고, RGB 영상에 마스킹하여 재실자를 제외한 부분을 제거하는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측방법.
The method of claim 10,
The camera uses a Kinect camera,
Through the Kinect camera, an RGB image and a depth image that displays perspective are obtained, and based on the obtained depth image, an occupant is detected from the input image, and the part except for the occupant is removed by masking the RGB image. Deep learning-based occupant-customized metabolic rate prediction method, characterized in that.
청구항 8에 있어서,
상기 딥러닝 학습부의 실시간 대사량 산출모델은
ReLU를 수학식 1의 활성화 함수로 채택하고, 배치 정규화(Batch Normalization) 및 SGD 최적기를 채택하며,
상기 실시간 대사량 산출모델의 초기 목표함수는 아래 수학식 2인 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측방법.
[수학식 1]
Figure pat00023

(여기서, f(x)는 활성화 함수이고, x는 입력값이다.)

[수학식 2]
Figure pat00024

(여기서, L1Loss는 초기 목표함수이고, x는 입력값이고, n은 입력값의 개수(batchsize)이고, y는 레이블이고,
Figure pat00025
는 n개의 입력값 x 중에서 i번째 입력값이다.)
The method of claim 8,
The real-time metabolic rate calculation model of the deep learning learning unit is
Adopting ReLU as the activation function in Equation 1, adopting Batch Normalization and the SGD optimizer,
The deep learning-based occupant-customized metabolic rate prediction method, characterized in that the initial target function of the real-time metabolic rate calculation model is Equation 2 below.
[Equation 1]
Figure pat00023

(Where f(x) is the activation function and x is the input value.)

[Equation 2]
Figure pat00024

(Where L1Loss is the initial target function, x is the input value, n is the number of input values (batchsize), y is the label,
Figure pat00025
is the ith input value among n input values x.)
청구항 12에 있어서,
상기 실시간 대사량 산출모델은 아래 수학식 3의 정규화 함수를 추가하여, 아래 수학식 4의 최종 목표함수를 가지는 것을 특징으로 하는 딥러닝 기반 재실자 맞춤형 대사량 예측방법.
[수학식 3]
Figure pat00026

(여기서, REG는 정규화함수이고, n은 입력값의 개수(batchsize)이고,
Figure pat00027
는 n개의 입력값 x 중에서 i번째 입력값이고,
Figure pat00028
는 n개의 x평균이다.)
[수학식 4]
Figure pat00029

(여기서, O는 최종 목표함수이고, L1Loss는 초기 목표함수이고, REG는 정규화함수이다.)
The method of claim 12,
The real-time metabolic rate calculation model is characterized in that it has a final target function of Equation 4 below by adding the normalization function of Equation 3 below.
[Equation 3]
Figure pat00026

(Where REG is the regularization function, n is the number of input values (batchsize),
Figure pat00027
is the ith input value among n input values x,
Figure pat00028
is the x mean of n.)
[Equation 4]
Figure pat00029

(Where O is the final target function, L1Loss is the initial target function, and REG is the regularization function.)
하드웨어와 결합되어, 청구항 8에 따른 딥러닝 기반 재실자 맞춤형 대사량 예측방법을 컴퓨터에 의해 실행시키기 위하여 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium in order to execute the deep learning-based occupant-customized metabolic rate prediction method according to claim 8 by a computer, combined with hardware.
KR1020210114528A 2021-08-30 2021-08-30 Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method KR102593722B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210114528A KR102593722B1 (en) 2021-08-30 2021-08-30 Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210114528A KR102593722B1 (en) 2021-08-30 2021-08-30 Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method

Publications (2)

Publication Number Publication Date
KR20230032101A true KR20230032101A (en) 2023-03-07
KR102593722B1 KR102593722B1 (en) 2023-10-24

Family

ID=85512939

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210114528A KR102593722B1 (en) 2021-08-30 2021-08-30 Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method

Country Status (1)

Country Link
KR (1) KR102593722B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190034568A (en) * 2017-06-02 2019-04-02 애플 인크. Wearable computer with fitness machine connectivity for improved activity monitoring
KR20190065635A (en) * 2017-12-04 2019-06-12 중앙대학교 산학협력단 Occupant MET measurement method and apparatus
KR20200000091A (en) * 2018-06-22 2020-01-02 (주)아이디엘 Target activity monitoring system and method using tracking terminal and mornitoring camera
KR20200082689A (en) * 2018-12-31 2020-07-08 중앙대학교 산학협력단 Method and system for calculating occupant activity using occupant pose classification based on deep learning
KR20210060246A (en) * 2019-11-18 2021-05-26 삼성전자주식회사 The arraprus for obtaining biometiric data and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190034568A (en) * 2017-06-02 2019-04-02 애플 인크. Wearable computer with fitness machine connectivity for improved activity monitoring
KR20190065635A (en) * 2017-12-04 2019-06-12 중앙대학교 산학협력단 Occupant MET measurement method and apparatus
KR20200000091A (en) * 2018-06-22 2020-01-02 (주)아이디엘 Target activity monitoring system and method using tracking terminal and mornitoring camera
KR20200082689A (en) * 2018-12-31 2020-07-08 중앙대학교 산학협력단 Method and system for calculating occupant activity using occupant pose classification based on deep learning
KR102233157B1 (en) 2018-12-31 2021-03-26 중앙대학교 산학협력단 Method and system for calculating occupant activity using occupant pose classification based on deep learning
KR20210060246A (en) * 2019-11-18 2021-05-26 삼성전자주식회사 The arraprus for obtaining biometiric data and method thereof

Also Published As

Publication number Publication date
KR102593722B1 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
US20210406609A1 (en) Meta-learning for multi-task learning for neural networks
CN109117731B (en) Classroom teaching cognitive load measurement system
KR102668240B1 (en) Method and device for estimating physical state of a user
KR20180057096A (en) Device and method to perform recognizing and training face expression
CN111832393B (en) Video target detection method and device based on deep learning
KR101697476B1 (en) Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method
Chu et al. Thermal facial landmark detection by deep multi-task learning
CN109447096B (en) Glance path prediction method and device based on machine learning
Jingchao et al. Recognition of classroom student state features based on deep learning algorithms and machine learning
Shi et al. An integrated neural network model for pupil detection and tracking
Wimmer et al. Facial expression recognition for human-robot interaction–a prototype
KR102593722B1 (en) Deep learning-based In-person Customized Metabolic Rate Prediction System and Prediction Method
CN116958740A (en) Zero sample target detection method based on semantic perception and self-adaptive contrast learning
CN114020881B (en) Topic positioning method and system
JP2012008949A (en) Face expression amplification device, expression recognition device, face expression amplification method, expression recognition method and program
KR101326644B1 (en) Full-body joint image tracking method using evolutionary exemplar-based particle filter
Sharma et al. Real Time Object Detection for Assisting Visually Impaired People
Du et al. A preliminary study of modeling driver situational awareness based on SEEV and ACT-R Models
Ren et al. Optimization for image stereo-matching using deep reinforcement learning in rule constraints and parallax estimation
CN117058627B (en) Public place crowd safety distance monitoring method, medium and system
Janhavi et al. Real Time Human Activity Recognition with Video Classification
US20230377374A1 (en) Action series determination device, method, and non-transitory recording medium
CN113658218B (en) Dual-template intensive twin network tracking method, device and storage medium
KR102493790B1 (en) Artificial intelligence-based place-linked facial recognition information generation method, device and system
KR102669921B1 (en) Method, system and non-transitory computer-readable recording medium for providing information on user's conceptual understanding

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant