KR20210099876A - prsonalized nutrition and disease management system and method using deep learning food image recognition - Google Patents
prsonalized nutrition and disease management system and method using deep learning food image recognition Download PDFInfo
- Publication number
- KR20210099876A KR20210099876A KR1020200013763A KR20200013763A KR20210099876A KR 20210099876 A KR20210099876 A KR 20210099876A KR 1020200013763 A KR1020200013763 A KR 1020200013763A KR 20200013763 A KR20200013763 A KR 20200013763A KR 20210099876 A KR20210099876 A KR 20210099876A
- Authority
- KR
- South Korea
- Prior art keywords
- food
- nutrition
- information
- image recognition
- user terminal
- Prior art date
Links
- 235000013305 food Nutrition 0.000 title claims abstract description 176
- 235000016709 nutrition Nutrition 0.000 title claims abstract description 125
- 230000035764 nutrition Effects 0.000 title claims abstract description 102
- 201000010099 disease Diseases 0.000 title claims abstract description 37
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 title claims abstract description 37
- 238000013135 deep learning Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title claims abstract description 31
- 235000013373 food additive Nutrition 0.000 claims abstract description 35
- 239000002778 food additive Substances 0.000 claims abstract description 35
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 27
- 238000007726 management method Methods 0.000 claims description 81
- 235000005911 diet Nutrition 0.000 claims description 12
- 230000037213 diet Effects 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 26
- 235000015220 hamburgers Nutrition 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 239000000654 additive Substances 0.000 description 7
- 230000000996 additive effect Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 235000012041 food component Nutrition 0.000 description 6
- 238000011176 pooling Methods 0.000 description 5
- 108090000623 proteins and genes Proteins 0.000 description 5
- 102000004169 proteins and genes Human genes 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 235000021449 cheeseburger Nutrition 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 239000002994 raw material Substances 0.000 description 4
- DGAQECJNVWCQMB-PUAWFVPOSA-M Ilexoside XXIX Chemical compound C[C@@H]1CC[C@@]2(CC[C@@]3(C(=CC[C@H]4[C@]3(CC[C@@H]5[C@@]4(CC[C@@H](C5(C)C)OS(=O)(=O)[O-])C)C)[C@@H]2[C@]1(C)O)C)C(=O)O[C@H]6[C@@H]([C@H]([C@@H]([C@H](O6)CO)O)O)O.[Na+] DGAQECJNVWCQMB-PUAWFVPOSA-M 0.000 description 3
- 150000001720 carbohydrates Chemical class 0.000 description 3
- 235000014633 carbohydrates Nutrition 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 235000019197 fats Nutrition 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 235000018102 proteins Nutrition 0.000 description 3
- 235000015424 sodium Nutrition 0.000 description 3
- 239000011734 sodium Substances 0.000 description 3
- 229910052708 sodium Inorganic materials 0.000 description 3
- 235000000346 sugar Nutrition 0.000 description 3
- 235000013343 vitamin Nutrition 0.000 description 3
- 229940088594 vitamin Drugs 0.000 description 3
- 229930003231 vitamin Natural products 0.000 description 3
- 239000011782 vitamin Substances 0.000 description 3
- 208000017667 Chronic Disease Diseases 0.000 description 2
- 241000238557 Decapoda Species 0.000 description 2
- 241000287828 Gallus gallus Species 0.000 description 2
- 206010020751 Hypersensitivity Diseases 0.000 description 2
- 241000234295 Musa Species 0.000 description 2
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 208000026935 allergic disease Diseases 0.000 description 2
- 230000007815 allergy Effects 0.000 description 2
- 235000013325 dietary fiber Nutrition 0.000 description 2
- 235000018823 dietary intake Nutrition 0.000 description 2
- 235000021245 dietary protein Nutrition 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000037406 food intake Effects 0.000 description 2
- 235000012020 french fries Nutrition 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 235000021003 saturated fats Nutrition 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 241000143060 Americamysis bahia Species 0.000 description 1
- OYPRJOBELJOOCE-UHFFFAOYSA-N Calcium Chemical compound [Ca] OYPRJOBELJOOCE-UHFFFAOYSA-N 0.000 description 1
- 101100453790 Drosophila melanogaster Kebab gene Proteins 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 208000031226 Hyperlipidaemia Diseases 0.000 description 1
- 206010020772 Hypertension Diseases 0.000 description 1
- 208000008589 Obesity Diseases 0.000 description 1
- 239000011575 calcium Substances 0.000 description 1
- 229910052791 calcium Inorganic materials 0.000 description 1
- 235000001465 calcium Nutrition 0.000 description 1
- 235000013351 cheese Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 230000006806 disease prevention Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 235000012631 food intake Nutrition 0.000 description 1
- 235000001497 healthy food Nutrition 0.000 description 1
- 235000015231 kebab Nutrition 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000006286 nutrient intake Nutrition 0.000 description 1
- 235000020824 obesity Nutrition 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 150000003722 vitamin derivatives Chemical class 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/60—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Abstract
Description
본 발명은 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법에 관한 것으로, 보다 상세하게는 스마트 디바이스 내 카메라를 이용하여 식품(음식) 영상을 획득하고 획득한 딥러닝 알고리즘 기반 식품(음식)을 판별한 후 음식물에 따른 관리 정보를 생성하여 이를 바탕으로 개인 맞춤형 영양 및 질병 관리 솔루션을 제시할 수 있는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for personalized nutrition and disease management through food image recognition based on a deep learning algorithm, and more particularly, a deep learning algorithm obtained by acquiring a food (food) image using a camera in a smart device A personalized nutrition and disease management system through deep learning algorithm-based food image recognition that can provide personalized nutrition and disease management solutions based on the generation of food-dependent management information after determining the food (food); it's about how
기대수명이 증가하고 있는 만큼 건강한 식품 섭취에 대한 관심도 함께 증가하고 있다.As life expectancy increases, interest in healthy food intake is also increasing.
사람들의 삶의 질이 향상됨에 따라 평균 신장이 커지고 평균 수명이 늘어나고 있지만, 개인에 맞춤화된 영양정보 및 질병예방 관련한 식품(음식)에 대한 지식이 부족하고 이에 따른 올바르지 못한 건강관리가 발생하고 있는 현실이다.As people's quality of life improves, average height increases and life expectancy increases, but the reality is that there is a lack of knowledge about food (food) related to individualized nutritional information and disease prevention, resulting in incorrect health management. am.
영양섭취가 과다한 경우도 발생하고 있고, 이에 따른 비만, 당뇨, 고혈압, 고지혈증 같은 질병들의 발생 빈도가 증가하고 있다.Excessive nutritional intake is also occurring, and accordingly, the incidence of diseases such as obesity, diabetes, high blood pressure, and hyperlipidemia is increasing.
이러한 문제점을 해결하기 위한 다양한 플랫폼이 출시되었으나 건강관리를 위한 영양섭취 정보는 취약하며 음식의 칼로리 관리 등 단순한 다이어트 위주의 기능으로 구성되어 있는 실정이다.Various platforms have been released to solve this problem, but nutritional intake information for health management is weak and consists of simple diet-oriented functions such as calorie management of food.
또한, 섭취한 음식물의 정보를 텍스트 위주 입력 방식으로 사용해야 하는 불편함 때문에 사용률이 저조한 실정이며 사용자 중심의 단순한 입력방식의 플랫폼 구축이 필요한 상황이다. In addition, the usage rate is low due to the inconvenience of using the information on the food consumed in a text-oriented input method, and a user-centered simple input method platform construction is required.
영양관리에 있어 개인별 맞춤화 된 정보제공이 필요하지만, 현재 서비스들은 단편화된 정보만을 기반으로 하고 있다.Although it is necessary to provide customized information for each individual in nutrition management, current services are based only on fragmented information.
식품(음식) 섭취에 대한 관심과 함께 식품 첨가물 및 원재료, 원산지 등에 대한 관심이 급증하였다. 하지만 현재 식품첨가물 및 원재료에 대한 자세한 정보나 첨가물 안전성의 평가는 쉽게 찾아볼 수 없다.Along with the interest in food (food) consumption, interest in food additives, raw materials, and country of origin has rapidly increased. However, it is not easy to find detailed information on food additives and raw materials or evaluation of additive safety at present.
또한, 식품 첨가물 및 원재료에 대한 자세한 정보가 제공된다고 하더라도, 어려운 용어로 기재되어 있는 식품 첨가물의 유해성 여부를 판단하기 쉽지 않은 실정이다.In addition, even if detailed information on food additives and raw materials is provided, it is not easy to determine whether food additives described in difficult terms are harmful.
본 발명은 이와 같은 문제점을 해결하기 위해 창안된 것으로서, 사용자가 섭취한 식품(음식) 사진을 찍어 서버로 전송하면 식품(음식)의 영상 정보 기반으로 Nutri-Score 영양 등급 및 EWG 식품 첨가물 등급을 제공함으로 사용자 맞춤형 질병관리 정보를 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.The present invention was devised to solve such a problem, and when a user takes a picture of the food (food) eaten by the user and transmits it to the server, Nutri-Score nutritional grade and EWG food additive grade are provided based on the image information of the food (food) The purpose of this program is to provide a personalized nutrition and disease management system and method through deep learning algorithm-based food image recognition that can provide customized disease management information.
또한, 본 발명은 식품(음식)의 영상을 픽셀로 표현하고 이를 기반으로 딥러닝 기법을 적용하여 가장 유사한 식품(음식) 정보를 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.In addition, the present invention expresses the image of food (food) in pixels, and based on this, a deep learning technique is applied to provide the most similar food (food) information. Personalized through food image recognition based on a deep learning algorithm. It aims to provide a nutritional and disease management system and method.
또한, 본 발명은 영상 내에서 식품(음식)의 정보가 일치하지 않을 경우 유사도가 높은 순으로 원하는 식품(음식)으로 선택하도록 정보를 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.In addition, the present invention provides an individual through food image recognition based on a deep learning algorithm that can provide information to select a desired food (food) in the order of high similarity when information on food (food) does not match within the image. It aims to provide customized nutrition and disease management systems and methods.
또한, 본 발명은 여러가지의 식품(음식)의 영상을 각 개체별로 인식하고 Nutri-Score 영양 등급 및 EWG 식품 첨가물 등급 기반 알고리즘 계산을 통해 영양 등급 및 질병 관리 방법을 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.In addition, the present invention is based on a deep learning algorithm that recognizes images of various foods (foods) for each individual and provides nutritional grades and disease management methods through Nutri-Score nutritional grade and EWG food additive grade-based algorithm calculation. It aims to provide a personalized nutrition and disease management system and method through food image recognition of
또한, 본 발명은 빅데이터와 연동되어 사용자 영양소 섭취량의 균형을 고려하면서 사용자의 기호, 건강 상태 및 체질, 종교에 맞는 현실적인 식단을 추천할 수 있는 인공 지능 기반 영상 처리 방법을 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.In addition, the present invention provides an artificial intelligence-based image processing method that can recommend a realistic diet suitable for the user's taste, health condition, constitution, and religion while considering the balance of user's nutrient intake in conjunction with big data. The purpose of this study is to provide a personalized nutrition and disease management system and method through food image recognition based on a learning algorithm.
상기한 목적을 달성하기 위한 본 발명에 따른 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법의 일측면에 따르면, 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계; 상기 인식된 적어도 하나 이상의 식품에 대한 식품 첨가물 및 영양 정보를 분석하는 단계; 상기 해당 식품에 대한 식품 첨가물 및 영양 분석 결과를 상기 사용자 단말로 전송하는 단계; 및 기저장된 사용자 영양정보에 기초하여 추천된 맞춤형 식단정보를 상기 사용자 단말로 전송하는 단계를 포함할 수 있다.According to one aspect of a method for managing personalized nutrition and disease through food image recognition based on a deep learning algorithm according to the present invention for achieving the above object, at least one or more foods included in the food image information transmitted from the user terminal recognizing; analyzing food additives and nutritional information for the recognized at least one food; transmitting food additives and nutritional analysis results for the corresponding food to the user terminal; and transmitting, to the user terminal, customized diet information recommended based on pre-stored user nutritional information.
또한, 상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계는, 상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품의 관심영역을 지정하여 추출하는 단계; 및 상기 추출된 관심영역을 바탕으로 학습된 머신러닝 모델을 이용하여 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계를 포함할 수 있다.In addition, the step of recognizing at least one or more foods included in the food image information transmitted from the user terminal may include: extracting by designating a region of interest of at least one or more foods included in the food image information transmitted from the user terminal; and recognizing at least one food included in the food image information using a machine learning model learned based on the extracted region of interest.
한편, 상기한 목적을 달성하기 위한 본 발명에 따른 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템의 일측면에 따르면, 영양 및 질병 관리 서비스를 제공받기 위한 사용자 단말; 및 상기 사용자 단말로부터 전송된 식품 영상 정보를 분석하고 분석된 결과 및 사용자 영양정보에 기초하여 상기 사용자 단말로 맞춤형 식단정보를 전송하는 영양관리서버를 포함할 수 있다.On the other hand, according to one aspect of the personalized nutrition and disease management system through food image recognition based on a deep learning algorithm according to the present invention for achieving the above object, a user terminal for receiving nutrition and disease management services; and a nutrition management server that analyzes the food image information transmitted from the user terminal and transmits customized diet information to the user terminal based on the analyzed result and user nutrition information.
또한, 상기 영양관리서버는 상기 사용자 단말과 통신하기 위한 네트워크 인터페이스; 상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품의 관심영역을 지정하여 추출하는 영상 인식부; 상기 영상 인식부에서 추출된 관심영역을 바탕으로 학습된 머신러닝 모델을 이용하여 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 영상 인식모델부; 및 상기 영상 인식 모델부에서 인식된 적어도 하나 이상의 식품에 대한 식품 첨가물 및 영양 정보를 분석하고 기저장된 사용자 영양정보에 기초하여 맞춤형 식단정보를 추천하는 영양 관리부를 포함할 수 있다.In addition, the nutrition management server is a network interface for communicating with the user terminal; an image recognition unit for designating and extracting a region of interest of at least one food included in the food image information transmitted from the user terminal; an image recognition model unit for recognizing at least one food included in food image information using a machine learning model learned based on the region of interest extracted from the image recognition unit; and a nutrition management unit that analyzes food additives and nutritional information for at least one food recognized by the image recognition model unit and recommends customized diet information based on pre-stored user nutritional information.
본 발명에 의하면, 스마트폰 어플리케이션을 통한 서비스로 디바이스 카메라의 촬영 영상을 사물인식 알고리즘을 활용하여 식품(음식)의 첨가물 데이터베이스, 영양 데이터 베이스 기반 영양관리 및 질병관리 서비스를 제공할 수 있는 효과가 있다.According to the present invention, there is an effect of providing a food (food) additive database, nutrition database-based nutrition management and disease management service by using an object recognition algorithm for a photographed image of a device camera as a service through a smartphone application. .
또한, 사용자가 촬영한 영상을 기반으로 인공 지능의 딥 러닝 기술을 활용하여 영양 등급 산정 방법 및 식품 첨가물 등급 산정에 접목하여 사용자에게 식단 평가 데이터를 실시간으로 제공하고, 인공 지능 기반 영상처리 방법에 의해 사용자에게 맞춤형 식단을 추천할 수 있는 효과가 있다.In addition, based on the image taken by the user, by using deep learning technology of artificial intelligence, it is grafted to the nutrition rating method and food additive rating calculation to provide the user with diet evaluation data in real time, and by artificial intelligence-based image processing method It has the effect of recommending a customized diet to the user.
도 1은 본 발명의 일실시예에 따른 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템의 전체 구성을 나타내는 도면.
도 2는 도 1의 시스템을 통한 영상 인식 및 영양 및 비율 정보 분석의 일예를 나타내는 도면.
도 3은 딥러닝 기술에 의한 객체 인식의 일예를 나타내는 도면.
도 4는 합성곱 신경망(Convolutional Neural Network, CNN) 구조를 나타내는 도면.
도 5는 도 1의 시스템에서 영상인식부 및 영상인식모델에 대한 작동 플로우를 나타내는 도면.
도 6 및 도 7은 스마트 디바이스에서 촬영된 음식 이미지 정보의 일예를 나타내는 도면.
도 8은 사용자 단말과 영양관리서버 간의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 과정을 나타내는 도면.
도 9는 브랜드별 제품의 Nutri-Score의 일예를 나타내는 도면.
도 10은 식품별 화학첨가물 등급 디스플레이 예시 화면.
도 11은 먹으면 안되는 10대 식품첨가물 표지의 일예를 나타내는 도면.
도 12는 특정 음식에 대한 영양성분 분석의 일예를 나타내는 도면.
도 13은 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법의 다른 예를 나타내는 도면.1 is a view showing the overall configuration of a personalized nutrition and disease management system through food image recognition based on a deep learning algorithm according to an embodiment of the present invention.
Figure 2 is a diagram showing an example of image recognition and nutritional and ratio information analysis through the system of Figure 1;
3 is a diagram showing an example of object recognition by deep learning technology.
4 is a diagram illustrating a structure of a convolutional neural network (CNN).
Figure 5 is a view showing an operation flow for the image recognition unit and the image recognition model in the system of Figure 1;
6 and 7 are views showing an example of food image information photographed in a smart device.
8 is a view showing a personalized nutrition and disease management process through food image recognition between a user terminal and a nutrition management server.
9 is a view showing an example of Nutri-Score of products by brand.
10 is an example screen of the chemical additive grade display for each food.
11 is a view showing an example of the top 10 food additive labels that should not be eaten.
12 is a view showing an example of a nutritional component analysis for a specific food.
13 is a view showing another example of a method for personalized nutrition and disease management through food image recognition.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, and the inventor should properly understand the concept of the term in order to best describe his invention. Based on the principle that it can be defined, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the configuration shown in the embodiments and drawings described in the present specification is only the most preferred embodiment of the present invention and does not represent all the technical spirit of the present invention, so at the time of the present application, various It should be understood that there may be equivalents and variations.
도 1은 본 발명의 일실시예에 따른 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템의 전체 구성을 나타내는 도면이고, 도 2는 도 1의 시스템을 통한 영상 인식 및 영양 및 비율 정보 분석의 일예를 나타내는 도면이며, 도 3은 딥러닝 기술에 의한 객체 인식의 일예를 나타내는 도면이고, 도 4는 합성곱 신경망(Convolutional Neural Network, CNN) 구조를 나타내는 도면이며, 도 5는 도 1의 시스템에서 영상인식부 및 영상인식모델에 대한 작동 플로우를 나타내는 도면이고, 도 6 및 도 7은 스마트 디바이스에서 촬영된 음식 이미지 정보의 일예를 나타내는 도면이다.1 is a view showing the overall configuration of a personalized nutrition and disease management system through food image recognition based on a deep learning algorithm according to an embodiment of the present invention, and FIG. 2 is image recognition and nutrition and It is a diagram showing an example of ratio information analysis, FIG. 3 is a diagram showing an example of object recognition by deep learning technology, FIG. 4 is a diagram showing the structure of a convolutional neural network (CNN), and FIG. 5 is FIG. It is a view showing the operation flow for the image recognition unit and the image recognition model in the system of 1, Figures 6 and 7 are views showing an example of the food image information photographed in the smart device.
도시된 바와 같이, 본 발명의 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템은 사용자 단말인 스마트 디바이스(100)와 영양 관리 서버(200)를 포함할 수 있다.As shown, the personalized nutrition and disease management system through the deep learning algorithm-based food image recognition of the present invention may include a
스마트 디바이스(100)는 인터넷이 가능한 사용자의 휴대용 단말기로써 영양 관리 서버(200)와 통신하여 식품 및 음식 인식을 기반으로 한 개인별 영양 및 질병 관리 솔루션을 제공받을 수 있다.The
스마트 디바이스(100)는 음식 및 식품을 촬영하거나 기존 촬영된 이미지를 서버로 전송할 수 있다. 예를 들어, 도 6 및 도 7에 예시된 바와 같이 스마트 디바이스(100)에서 촬영된 음식 이미지(P10)가 디스플레이될 수 있으며, 촬영된 음식 이미지(P10)의 하단에는 햄버거(11), 타코(12), 케밥(13), 불고기버거(111), 새우버거(121), 치킨버거(131) 등이 표시될 수 있다.The
스마트 디바이스(100)는 영양 관리 서버(200)로부터 인식된 이미지와 관련된 이미지 인식 정보를 수신하고, 영양 관리 서버(200)로부터 촬영된 식물 이미지에 대한 이미지 인식 정보를 수신하여 디스플레이할 수 있다.The
영양 관리 서버(200)는 스마트 디바이스(100)의 요청에 따라 식품 및 음식 인식을 기반으로 한 개인별 영양 및 질병 관리 서비스를 제공할 수 있으며, 서버 내부 구성에 대해서는 하기에서 보다 상세하게 설명하기로 한다.The
영양 관리 서버(200)는 네트워크 인터페이스(210)와, 영양 관리부(220)와, 사용자별 영양 데이터 데이터베이스(230)와, 음식 영양 데이터 데이터베이스(240)와, 식품첨가물 데이터 데이터베이스(250)와, 영상 인식부(260)와, 영상인식모델(270)을 포함할 수 있다.The
네트워크 인터페이스(210)는 통신망을 통해 스마트 디바이스(100)와 통신하여 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 정보를 송수신할 수 있다.The
영양 관리부(220)는 어플리케이션을 통해 전송받은 음식 및 식품에 대한 이미지를 수신하고, 영상 인식부(260)로 이미지를 전달할 수 있다.The
영양 관리부(220)는 영상인식모델(270)로부터 전송받은 음식 및 식품 리스트를 바탕으로 음식영양 DB(240)와 첨가물 DB(250)를 활용하여 음식 및 식품명을 key로 기존 데이터(식품 첨가물 정보 및 영양 성분 정보)를 매핑할 수 있다.The
영양 관리부(220)는 사용자의 섭취 기록을 사용자 영양 DB(230)에 저장하고 인식된 이미지와 관련된 이미지 인식 정보를 앱 클라이언트에 전송할 수 있다.The
영양 관리부(220)는 도 2에 예시된 바와 같이 영상 인식부(260)에서 인식된 치즈버거 및 감자튀김에 대한 영양 및 비율 정보를 분석하여 제공할 수 있다. 예를 들어, 치즈버거는 영양 및 비율이 각각 탄수화물 50.0g, 단백질 40.0g, 지방 20.0g으로 분석하고, 감자튀김은 영양 및 비율이 각각 탄수화물 0.3g, 단백질 4.0g, 지방 3.0g으로 분석하여 관리할 수 있다.As illustrated in FIG. 2 , the
사용자별 영양 데이터 데이터베이스(230)는 사용자별 영양 데이터를 저장할 수 있다.The user-specific
음식 영양 데이터 데이터베이스(240)는 음식 영양 데이터를 저장할 수 있다.The food
식품첨가물 데이터 데이터베이스(250)는 식품첨가물 데이터를 저장할 수 있다.The food
영상 인식부(260)는 음식 및 식품 이미지를 전달받고, 도 5에 예시된 바와 같이 영상 처리를 이용해 영상에서 식품 및 음식의 관심영역(ROI)를 지정하여 추출할 수 있다.The
영상인식모델(270)은 영상 인식부(260)로부터 전달받은 영상의 관심영역(ROI)을 바탕으로 학습된 머신러닝 모델을 이용하여 음식 및 식품의 이미지를 인식할 수 있다.The
영상인식모델(270)은 신경망 학습을 할 수 있는 표준적 프레임워크인 케라스(Keras) 프레임워크로 합성곱 신경망(CNN)을 이용하여 트레이닝할 수 있으며, 이러한 트레이닝을 통해 음식정보를 가진 영상분석 학습모델을 생성할 수 있다.The
영상인식모델(270)은 딥러닝 모델로부터 영상의 식품 및 음식 정보를 리스트로 출력할 수 있으며, 모델을 통해 추출한 음식 및 식품 이미지 리스트를 영양 관리부(220)로 전달할 수 있다.The
영상인식모델(270)은 도 2에 예시된 바와 같이 영상 인식된 이미지로부터 음식에 대한 확률을 인식하여 제공할 수 있다. 예를 들어, 도 2의 음식 이미지에서 치즈버거 85%, 햄버거 12%, 타코 3%, 감자튀김 70%, 치즈스틱 20%, 새우깡 10%로 인식할 수 있다.The
영상인식모델(270)은 구글 전자장치로부터 인식된 이미지와 관련된 이미지 인식 정보를 전달받고, 자체적으로 처리하거나 고객 핸드폰으로 전달할 수 있다.The
특히, 전술한 영상 인식부(260)와 영상인식모델(270)에서의 영상인식 방법은 도 3에 예시된 바와 같이 객체 인식에 사용되는 딥러닝 기술이 적용될 수 있다. 이러한 객체 인식에 사용되는 딥러닝 기술로서 합성곱 신경망(Convolutional Neural Network, CNN)이 이용되어 이미지 분석이 가능할 수 있다.In particular, the image recognition method in the
예를 들어, 도 3에서는 특정 이미지인 바나나 이미지를 합성곱 신경망(Convolutional Neural Network, CNN)에 의해 바나나로 인식하는 일 예에 대해 나타내고 있다.For example, FIG. 3 shows an example of recognizing a banana image, which is a specific image, as a banana by a convolutional neural network (CNN).
즉, 본 발명에서는 딥 네트워크를 훈련시키기 위해 레이블이 지정된 방대한 식품 데이터를 기반으로 네트워크 아키텍처를 설계하여 합성곱 신경망(Convolutional Neural Network, CNN)을 기반으로 학습하고 모델을 설계할 수 있다. 합성곱 신경망(Convolutional Neural Network, CNN)의 구조는 첨부된 도 4를 참조하여 보다 구체적으로 설명하기로 한다.That is, in the present invention, in order to train a deep network, a network architecture can be designed based on a large amount of labeled food data to learn based on a convolutional neural network (CNN) and design a model. The structure of a convolutional neural network (CNN) will be described in more detail with reference to FIG. 4 attached thereto.
합성곱 신경망(Convolutional Neural Network, CNN)의 구조는 도 4에 나타난 바와 같이, CNN은 Feature Learning 과정에서 Convolution 연산, Activation 연산(대부분 ReLU), Pooling 연산의 반복으로 구성될 수 있으며, 일정 회수 이상의 Feature Learning 과정 이후에는 Flatten 과정을 통해 이미지가 1차원의 벡터로 변환될 수 있다.As shown in FIG. 4, the structure of a convolutional neural network (CNN) can be composed of repetition of a convolution operation, an activation operation (mostly ReLU), and a pooling operation in the feature learning process, and features more than a certain number of times. After the learning process, the image can be converted into a one-dimensional vector through the flattening process.
즉, 합성곱 신경망(CNN : Convolutional Neural Network)은 음성 인식이나 이미지 인식에서 주로 사용되는 신경망의 한 종류이다. 다차원 배열 데이터를 처리하도록 구성되어 있어 컬러 이미지와 같은 다차원 배열 처리에 특화되어 있다. 따라서 이미지 인식 분야에서 딥러닝을 활용한 기법은 대부분 합성곱 신경망(CNN)을 기초로 한다.That is, a convolutional neural network (CNN) is a type of neural network mainly used in speech recognition or image recognition. It is configured to process multi-dimensional array data, and is specialized in multi-dimensional array processing such as color images. Therefore, most of the techniques using deep learning in the image recognition field are based on convolutional neural networks (CNNs).
일반 신경망의 경우 이미지 데이터를 그대로 처리한다. 즉, 이미지 전체를 하나의 데이터로 생각해서 입력으로 받아들이기 때문에 이미지의 특성을 찾지 못하고 이미지의 위치가 조금만 달라지거나 왜곡된 경우에 올바른 성능을 내지 않는다. 그러나, 합성곱 신경망(CNN)은 이미지를 하나의 데이터가 아닌 여러 개로 분할하여 처리할 수 있다. 이렇게 하면 이미지가 왜곡되더라도 이미지의 부분적 특성을 추출할 수 있어 올바른 성능을 낼 수 있다.In the case of a general neural network, image data is processed as it is. In other words, since the entire image is considered as one data and accepted as an input, the characteristics of the image cannot be found, and the correct performance is not obtained when the position of the image is slightly changed or distorted. However, a convolutional neural network (CNN) can process an image by dividing it into several pieces instead of one piece of data. In this way, even if the image is distorted, it is possible to extract the partial characteristics of the image, so that the correct performance can be achieved.
합성곱 신경망(CNN)의 경우에도 여태까지의 신경망과 마찬가지로 여러 계층을 조합하여 만들어질 수 있다. 다만 일반적인 신경망과는 다르게 합성곱 계층(Convolutional Layer)과 풀링 계층(Pooling Layer)이 추가될 수 있다.In the case of a convolutional neural network (CNN), it can be created by combining several layers like the previous neural networks. However, unlike a general neural network, a convolutional layer and a pooling layer may be added.
합성곱 신경망(CNN)의 특징 중 하나는 합성곱 계층과 풀링 계층이 추가되긴 하였지만 출력과 가까운 층에서는 여태껏 사용했던 'Affine-ReLU' 계층 구성을 사용할 수 있다. 또한 마지막 계층에서는 'Affine-Softmax' 조합을 그대로 사용할 수 있다.One of the characteristics of a convolutional neural network (CNN) is that a convolutional layer and a pooling layer are added, but the 'Affine-ReLU' hierarchical structure used so far can be used in the layer close to the output. Also, in the last layer, the 'Affine-Softmax' combination can be used as it is.
특히, 컨벌루션(convolution)의 주요 작업은 컨텐츠 특징점을 추출하고 하나 이상의 컨벌루션 레이어와 하나 이상의 완전히 연결된 레이어로 구성될 수 있다. 컨벌루션을 통하여 컨텐츠의 크기를 줄이고 컨텐츠의 노이즈를 줄일 수 있다.In particular, the main task of convolution is to extract content feature points and may consist of one or more convolutional layers and one or more fully connected layers. Through convolution, the size of the content can be reduced and the noise of the content can be reduced.
ReLU는 비선형 연산을 위한 Rectified Linear Unit을 나타내고 출력은 f(x)=max(0,x)로서, ReLU 대신 사용할 수 있는 tanh 또는 sigmoid와 같은 다른 비선형 함수가 있으나 성능면에서는 ReLU가 다른 두 개보다 낫기 때문에 ReLU이 사용될 수 있다.ReLU represents a Rectified Linear Unit for nonlinear operation and the output is f(x)=max(0,x). There are other nonlinear functions such as tanh or sigmoid that can be used instead of ReLU. Because it is better, ReLU can be used.
풀링 계층(Pooling Layer) 섹션은 이미지가 너무 클 때 매개 변수 수를 줄일 수 있다. 공간 풀링은 서브 샘플링 또는 다운 샘플링이라고도 하며 각 맵의 차원을 줄이지만 중요한 정보는 유지할 수 있다.The Pooling Layer section can reduce the number of parameters when the image is too large. Spatial pooling, also known as subsampling or downsampling, reduces the dimension of each map, but retains important information.
풀리 커넥티드(fully connected)는 2차원 영상을 컨벌루션(convolution)과 서브 샘플링 없이 바로 신경망의 입력에 붙인다면 학습시간증가, 망의 크기, 변수의 개수가 많아질 수 있으므로 이를 방지하기 위해 줄이고 줄여 1차원 행렬이 되도록 하여 신경망의 입력단에 각각 하나씩 하여 모두를 매핑할 수 있다.In fully connected mode, if the 2D image is directly attached to the input of the neural network without convolution and subsampling, the learning time may increase, the size of the network, and the number of variables may increase. By making it a dimensional matrix, we can map them all, one for each input end of the neural network.
이어서, Softmax 활성화 기능을 통해 클래스를 출력하고 이미지를 분류할 수 있다.You can then output the class and classify the image through the Softmax activation function.
도 8은 사용자 단말과 영양관리서버 간의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 과정을 나타내는 도면이고, 도 9는 브랜드별 제품의 Nutri-Score의 일예를 나타내는 도면이며, 도 10은 식품별 화학첨가물 등급 디스플레이 예시 화면이고, 도 11은 먹으면 안되는 10대 식품첨가물 표지의 일예를 나타내는 도면이며, 도 12는 특정 음식에 대한 영양성분 분석의 일예를 나타내는 도면이다.8 is a diagram illustrating a personalized nutrition and disease management process through food image recognition between a user terminal and a nutrition management server, FIG. 9 is a diagram illustrating an example of Nutri-Score of a product by brand, and FIG. It is an example of an additive grade display screen, Figure 11 is a diagram showing an example of the top 10 food additive labels that should not be eaten, Figure 12 is a diagram showing an example of a nutritional component analysis for a specific food.
도시된 바와 같이, 영양관리서버(200)는 사용자 단말(100)로부터 음식 영상을 수신(S11)할 수 있다.As shown, the
이어서, 영양관리서버(200)는 확률에 따른 이미지를 분석(S12)할 수 있다.Then, the
이어서, 영양관리서버(200)는 확률에 따른 이미지 분석 결과에 따른 음식 리스트 정보를 사용자 단말(100)로 전송(S13)할 수 있다.Subsequently, the
이어서, 영양관리서버(200)는 사용자 단말(100)로부터 사용자에 의해 선택된 섭취 음식 정보를 제공(S14)받을 수 있다.Subsequently, the
이어서, 영양관리서버(200)는 사용자에 의해 선택된 음식의 음식량을 설정(S15)할 수 있다.Subsequently, the
이어서, 영양관리서버(200)는 사용자에 의해 선택된 음식의 포함된 식품 첨가물 정보를 분석(S16)할 수 있다.Subsequently, the
이어서, 영양관리서버(200)는 분석된 식품첨가물 정보에 기초하여 사용자가 선택한 음식 설정에 대하여 중재 여부를 판단(S17)할 수 있다.Subsequently, the
이어서, 영양관리서버(200)는 중재 여부 판단 결과에 따라 사용자가 선택한 음식 설정에 대한 중재 메시지를 사용자 단말(100)로 전송(S18)할 수 있다. 여기서, 중재 메시지는 사용자가 선택한 음식의 음식량이나 식품첨가물이 부적절한 경우 사용자 영양정보에 기초하여 사용자에게 맞춤형 식단 정보를 제공하기 위한 것일 수 있다.Subsequently, the
이어서, 사용자 단말(100)은 영양관리서버(200)로부터 수신한 중재 메시지에 대한 피드백 정보를 영양관리서버(200)로 전송(S19)할 수 있다. 여기서, 중재 메시지에 대한 피드백 정보는 영양관리서버(200)로부터 제공된 맞춤형 식단 정보에 대한 응답 정보로서 사용자가 맞춤형 식단 정보에 대하여 추가로 요청하는 정보가 포함될 수 있다.Then, the
이어서, 영양관리서버(200)는 사용자 단말(100)로부터 전송된 중재 메시지에 대한 피드백 정보에 따라 사용자의 식품(음식) 섭취 이력을 저장(S20)할 수 있다.Subsequently, the
즉, 본 발명에서는 하나 이상의 프로세서들로 하여금 이하의 동작들을 수행하도록 할 수 있다.That is, the present invention may cause one or more processors to perform the following operations.
먼저, 영양관리서버(200)는 사용자로부터 위해성 정보를 확인하고자 하는 식품(음식) 정보를 수신할 수 있다.First, the
이어서, 영양관리서버(200)는 수신한 정보에 대응하는 식품에 함유된 식품의약품안전처 등급 및 EWG 등급의 식품 첨가물 정보를 점수 산출 알고리즘에 기초하여 등급을 결정할 수 있다.Subsequently, the
이어서, 영양관리서버(200)는 수신한 정보에 대응하는 Nutri-Score 영양 정보를 점수 산출 알고리즘에 기초하여 등급을 결정할 수 있다.Subsequently, the
이어서, 영양관리서버(200)는 빅데이터를 이용한 딥러닝 알고리즘을 이용하여 식품(음식)을 판별하고, 사전에 학습한 유사도 값 이상을 획득한 항목을 클라이언트로 전송할 수 있다.Subsequently, the
이와 같이, 본 발명에서는 사용자로부터 위해성 정보를 확인하고자 하는 식품 정보를 수신하고 영양관리서버(200)에 저장된 사용자별 영양 데이터 베이스, 음식 영상 데이터, 식품 첨가물 데이터를 분석하여 사용자 디바이스에 전송할 수 있다.As described above, in the present invention, it is possible to receive food information for which risk information is to be confirmed from the user, analyze the user-specific nutrition database, food image data, and food additive data stored in the
다시 말해, 본 발명은 음식 식품(음식) 정보가 포함된 영상을 사용자 디바이스 내 카메라로 획득할 수 있다.In other words, according to the present invention, an image including food (food) information may be acquired by a camera in the user device.
이에 따라, 영양관리서버(200)는 사용자 디바이스에서 획득된 영상에서 포함된 음식물을 인공지능 기반으로 판별할 수 있다.Accordingly, the
이어서, 영양관리서버(200)는 영상에 포함된 음식물을 EWG 식품 첨가물 등급 및 Nutri-score 등급 정보를 생성할 수 있다. 이때, 음식물의 종류를 판별할 수 없는 경우, 미리 정해진 유사도가 높은 값으로 사용자가 항목을 선택하여 네트워크 인터페이스에 전송하고, 재 전송된 값을 최종 사용자가 선택한 식품(음식)으로 판단할 수 있다.Subsequently, the
예를 들어, 영양관리서버(200)에서 음식물의 종류를 판별할 수 없는 경우 도 6 및 도 7에 예시된 바와 같이 적어도 하나 이상의 후보군 식품(음식)을 스마트 디바이스(100)로 전송함으로써 적어도 하나 이상의 후보군 식품(음식)이 사용자 단말에 표시될 수 있다.For example, when the
이에 따라, 사용자가 디스플레이된 화면 상에서 어느 하나의 식품(음식)을 선택할 수 있으며, 또한, 영양관리서버(200)에서 햄버거인 것으로 인식하였으나 햄버거의 종류를 알지 못하는 경우에는 '불고기 버거', '새우 버거', '치킨 버거' 등 적어도 하나 이상의 햄버거 종류 정보를 제공함으로써 사용자가 이 중에서 어느 하나의 햄버거를 선택함으로써, 선택된 정보가 영양관리서버(200)로 전송될 수 있다.Accordingly, the user can select any one food (food) on the displayed screen, and when the
상기 판별하는 단계에서, 식품(음식)의 영상 정보가 복수의 결과물을 포함하고 있는 경우, 인식 가능한 영상을 추출하고 이미지를 오버랩 시켜 네트워크 인터페이스로 전송할 수 있다.In the determining step, when the image information of food (food) includes a plurality of results, it is possible to extract a recognizable image, overlap the image, and transmit it to the network interface.
또한, 상기 판별하는 단계와 관리 정보를 생성하는 단계 사이에 식품(음식) 섭취량을 사용자가 직접 선택할 수 있는 단계를 포함할 수 있다.In addition, it may include a step in which the user can directly select the amount of food (food) intake between the step of determining and the step of generating the management information.
또한, 영상에 포함된 집기의 모서리(edge) 영역을 검출하고, 상기 집기의 크기(길이, 면적)를 기준으로 음식물의 양을 추정할 수 있다.Also, it is possible to detect an edge region of the household items included in the image, and estimate the amount of food based on the size (length, area) of the household items.
예를 들어, 도 9에서 나타난 바와 같이 적어도 하나 이상의 브랜드별 제품에 대한 Nutri-Score는 제품별로 Nutriscore_A ~ Nutriscore_E 로 표시될 수 있다.For example, as shown in FIG. 9 , Nutri-Scores for at least one product by brand may be expressed as Nutriscore_A to Nutriscore_E for each product.
즉, 프랑스, 영국 등 EU의 영양 정보 라벨링을 바탕으로 음식 및 식품 정보를 분석하여 각각의 등급화 실시가 가능할 수 있다.That is, it may be possible to perform each grading by analyzing food and food information based on the nutritional information labeling of EU, such as France and the UK.
또한, 음식 및 식품의 칼로리, 포화 지방, 당류, 나트륨, 비타민, 식이섬유, 단백질 등 영양성분을 100g 기준으로 각각의 수치를 환산하여 Nutritional score을 계산하여 A~E 등급으로 구간화하여 표시될 수 있다.In addition, the nutritional components such as calories, saturated fat, sugar, sodium, vitamins, dietary fiber, and protein of food and food are converted to each value based on 100 g, and the nutritional score is calculated and displayed by segmenting them into grades A to E. there is.
또한, Nutri-Score로 등급 환산에 대해 설명하면, 하기의 표 1 내지 표 3에서와 같이, N 성분은 칼로리, 포화 지방, 당류, 나트륨 점수의 합을 나타내고, N을 구성하는 성분은 100g을 기준으로 구간별로 점수를 부여할 수 있다.In addition, when explaining grade conversion with Nutri-Score, as in Tables 1 to 3 below, N component represents the sum of calories, saturated fat, sugar, and sodium score, and components constituting N are based on 100 g points can be assigned for each section.
P는 비타민, 식이섬유, 단백질의 점수의 합을 나타내며, Nutritional score = total N points - total P points 일 수 있다.P represents the sum of scores of vitamins, dietary fiber, and protein, and may be nutritional score = total N points - total P points.
하기의 표 1은 N 등급 산정표를 나타내고, 표 2는 P 등급 산정표를 나타내며, 표 3은 뉴트리스 등급 산정표를 나타낸다.Table 1 below shows the N grade calculation table, Table 2 shows the P grade calculation table, and Table 3 shows the Nutris grade calculation table.
[표 1][Table 1]
[표 2][Table 2]
[표 3][Table 3]
한편, 식품의 첨가물 등급 산정에 대해서 살펴보면, 하기의 표 4에서와 같이,미국의 비영리단체인 EWG(The Environmental Working Group) 등급을 기반으로 식품 첨가물 등급을 산정할 수 있다.On the other hand, looking at the additive grade calculation of food, as shown in Table 4 below, the food additive grade can be calculated based on the EWG (The Environmental Working Group) grade, a non-profit organization in the United States.
[표 4][Table 4]
즉, No Concern과 Lower Concern을 A등급으로 분류하고, Moderate는 B등급으로 분류할 수 있으며, Higher Concern의 경우 C등급으로 분류하여 EWG 기반의 식품 첨가물 등급을 세단계로 시각적으로 디스플레이할 수 있다.That is, No Concern and Lower Concern can be classified into A grade, Moderate can be classified into B grade, and Higher Concern can be classified into C grade, so that EWG-based food additive grade can be displayed visually in three stages.
예를 들어, 도 10에서와 같이 식품별 화학첨가물 등급이 디스플레이될 수 있으며, 도 11에서는 <먹으면 안되는 10대 식품 첨가물>을 기준으로 소비자에게 정보를 제공함으로써 효과적으로 위험한 식품첨가물을 걸러서 소비 및 섭취할 수 있도록 제시할 수 있다.For example, chemical additive grades for each food may be displayed as shown in FIG. 10, and in FIG. 11, by providing information to consumers based on the <
또한, 도 12에서와 같이 특정 음식에 대한 영양성분 분석 정보를 제공할 수 있다. 예를 들어, 치즈버거에 대한 식품첨가물과 영양성분이 각각 C등급과 E등급으로 표시될 수 있으며, 영양성분은 지방, 탄수화물, 단백질, 칼슘, 비타민으로 구분하여 적당 섭취 또는 초과/미만 섭취 등으로 표시될 수 있다. 또한, 당이나 나트륨에 대한 정보도 시각적으로 확인할 수 있도록 표시될 수 있다.In addition, as shown in FIG. 12 , it is possible to provide nutritional component analysis information for a specific food. For example, food additives and nutritional components for cheeseburgers may be labeled as C and E grades, respectively. Nutritional components are divided into fat, carbohydrate, protein, calcium, and vitamin, and can be consumed in moderation or over/under intake, etc. can be displayed. In addition, information on sugar or sodium may be displayed so that it can be visually confirmed.
도 13은 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법의 다른 예를 나타내는 도면으로서, 개인별 신체정보와 나이를 입력받고 환경성/만성질환 및 알러지 정보를 입력받아 개인별 맞춤 영양정보를 출력 후 개인별 맞춤식품 및 식품첨가물 등급을 제공할 수 있다.13 is a view showing another example of a method for managing personalized nutrition and disease through food image recognition, receiving individual body information and age, receiving environmental/chronic disease and allergy information, outputting personalized nutrition information, and then individual customization Food and food additive grades can be provided.
특히, 개인별 신체정보와 나이를 입력받은 후 연령대별 건강정보와 사용자가 선택한 식품 정보, 식품 원재료 정보, 식품 영양정보 및 식품 첨가물 정보를 확인할 수 있다.In particular, after receiving individual body information and age, it is possible to check health information by age group, food information selected by the user, food raw material information, food nutrition information, and food additive information.
또한, 환경성/만성질환 및 알러지 정보를 입력받은 후 사용자가 선택한 식품 정보, 선택한 식품의 조리방법 및 지역 정보들을 확인하여 개인별 맞춤 영양정보를 출력할 수 있다.In addition, after receiving environmental/chronic disease and allergy information, it is possible to check the information on the food selected by the user, the cooking method of the selected food, and information on the region, so that nutritional information tailored to each individual can be output.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described with reference to the limited embodiments and drawings, the present invention is not limited thereto, and the technical idea of the present invention and the following by those of ordinary skill in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.
100 : 스마트 디바이스
200 : 영양 관리 서버
210 : 네트워크 인터페이스
220 : 영양 관리부
230 : 사용자별 영양 데이터 데이터베이스
240 : 음식 영양 데이터 데이터베이스
250 : 식품첨가물 데이터 데이터베이스
260 : 영상 인식부
270 : 영상인식모델100: smart device
200: Nutrition Management Server
210: network interface
220: nutrition management department
230: Nutritional data database by user
240: Food Nutrition Data Database
250: food additive data database
260: image recognition unit
270: image recognition model
Claims (4)
사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계;
상기 인식된 적어도 하나 이상의 식품에 대한 식품 첨가물 및 영양 정보를 분석하는 단계;
상기 해당 식품에 대한 식품 첨가물 및 영양 분석 결과를 상기 사용자 단말로 전송하는 단계; 및
기저장된 사용자 영양정보에 기초하여 추천된 맞춤형 식단정보를 상기 사용자 단말로 전송하는 단계를 포함하는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법.As a personalized nutrition and disease management method through food image recognition based on a deep learning algorithm in a nutrition management server,
Recognizing at least one food included in the food image information transmitted from the user terminal;
analyzing food additives and nutritional information for the recognized at least one food;
transmitting food additives and nutritional analysis results for the corresponding food to the user terminal; and
A personalized nutrition and disease management method through deep learning algorithm-based food image recognition comprising the step of transmitting, to the user terminal, customized diet information recommended based on pre-stored user nutritional information.
상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계는,
상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품의 관심영역을 지정하여 추출하는 단계; 및
상기 추출된 관심영역을 바탕으로 학습된 머신러닝 모델을 이용하여 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계를 포함하는 것을 특징으로 하는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법.The method according to claim 1,
Recognizing at least one food included in the food image information transmitted from the user terminal comprises:
designating and extracting a region of interest of at least one food included in the food image information transmitted from the user terminal; and
Personalized nutrition through food image recognition based on a deep learning algorithm, characterized in that it comprises the step of recognizing at least one or more foods included in food image information using a machine learning model learned based on the extracted region of interest and disease management methods.
영양 및 질병 관리 서비스를 제공받기 위한 사용자 단말; 및
상기 사용자 단말로부터 전송된 식품 영상 정보를 분석하고 분석된 결과 및 사용자 영양정보에 기초하여 상기 사용자 단말로 맞춤형 식단정보를 전송하는 영양관리서버를 포함하는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템.As a personalized nutrition and disease management system through food image recognition based on deep learning algorithms,
a user terminal for receiving nutrition and disease management services; and
Personalization through deep learning algorithm-based food image recognition including a nutrition management server that analyzes food image information transmitted from the user terminal and transmits customized diet information to the user terminal based on the analyzed result and user nutrition information Nutrition and disease management system.
상기 영양관리서버는,
상기 사용자 단말과 통신하기 위한 네트워크 인터페이스;
상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품의 관심영역을 지정하여 추출하는 영상 인식부;
상기 영상 인식부에서 추출된 관심영역을 바탕으로 학습된 머신러닝 모델을 이용하여 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 영상 인식모델부; 및
상기 영상 인식 모델부에서 인식된 적어도 하나 이상의 식품에 대한 식품 첨가물 및 영양 정보를 분석하고 기저장된 사용자 영양정보에 기초하여 맞춤형 식단정보를 추천하는 영양 관리부를 포함하는 것을 특징으로 하는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템.4. The method according to claim 3,
The nutrition management server,
a network interface for communicating with the user terminal;
an image recognition unit for designating and extracting a region of interest of at least one food included in the food image information transmitted from the user terminal;
an image recognition model unit for recognizing at least one food included in food image information using a machine learning model learned based on the region of interest extracted from the image recognition unit; and
Deep learning algorithm-based, characterized in that it comprises a nutrition management unit that analyzes food additives and nutritional information for at least one food recognized by the image recognition model unit and recommends customized diet information based on pre-stored user nutritional information Personalized nutrition and disease management system through food image recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200013763A KR20210099876A (en) | 2020-02-05 | 2020-02-05 | prsonalized nutrition and disease management system and method using deep learning food image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200013763A KR20210099876A (en) | 2020-02-05 | 2020-02-05 | prsonalized nutrition and disease management system and method using deep learning food image recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210099876A true KR20210099876A (en) | 2021-08-13 |
Family
ID=77313756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200013763A KR20210099876A (en) | 2020-02-05 | 2020-02-05 | prsonalized nutrition and disease management system and method using deep learning food image recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210099876A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115131783A (en) * | 2022-06-23 | 2022-09-30 | 贵州大学 | User diet nutrient component information autonomous perception method based on machine vision |
KR102473072B1 (en) * | 2022-08-25 | 2022-12-01 | 주식회사 두잉랩 | System and method for measuring tableware size and providing nutritional information using artificial intelligence-based image recognition and augmented reality |
KR102473284B1 (en) * | 2022-08-25 | 2022-12-02 | 주식회사 두잉랩 | System and method for providing nutritional information using food detection based on image analysis using artificial intelligence |
KR102473282B1 (en) * | 2022-08-25 | 2022-12-02 | 주식회사 두잉랩 | System and method for providing nutritional information based on image analysis using artificial intelligence |
KR102473283B1 (en) * | 2022-08-25 | 2022-12-02 | 주식회사 두잉랩 | System and method for providing nutritional information considering weight information based on image analysis using artificial intelligence |
CN115497601A (en) * | 2022-09-27 | 2022-12-20 | 时代特殊医学用途配方食品(深圳)有限公司 | Clinical nutrition intelligent management system, method, device, equipment and storage medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102065657B1 (en) | 2018-09-07 | 2020-01-13 | 엔에이치엔 주식회사 | Mobile terminal and system for providing information of food nutrition based on augmented reality |
-
2020
- 2020-02-05 KR KR1020200013763A patent/KR20210099876A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102065657B1 (en) | 2018-09-07 | 2020-01-13 | 엔에이치엔 주식회사 | Mobile terminal and system for providing information of food nutrition based on augmented reality |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115131783A (en) * | 2022-06-23 | 2022-09-30 | 贵州大学 | User diet nutrient component information autonomous perception method based on machine vision |
CN115131783B (en) * | 2022-06-23 | 2024-02-20 | 贵州大学 | Autonomous sensing method of user diet nutrition ingredient information based on machine vision |
KR102473072B1 (en) * | 2022-08-25 | 2022-12-01 | 주식회사 두잉랩 | System and method for measuring tableware size and providing nutritional information using artificial intelligence-based image recognition and augmented reality |
KR102473284B1 (en) * | 2022-08-25 | 2022-12-02 | 주식회사 두잉랩 | System and method for providing nutritional information using food detection based on image analysis using artificial intelligence |
KR102473282B1 (en) * | 2022-08-25 | 2022-12-02 | 주식회사 두잉랩 | System and method for providing nutritional information based on image analysis using artificial intelligence |
KR102473283B1 (en) * | 2022-08-25 | 2022-12-02 | 주식회사 두잉랩 | System and method for providing nutritional information considering weight information based on image analysis using artificial intelligence |
US11688187B1 (en) | 2022-08-25 | 2023-06-27 | doinglab Corp. | System and method for measuring dish size and providing nutrition information using image recognition and augmented reality based on artificial intelligence |
US11830603B1 (en) | 2022-08-25 | 2023-11-28 | doinglab Corp. | System and method for providing nutrition information using artificial intelligence |
CN115497601A (en) * | 2022-09-27 | 2022-12-20 | 时代特殊医学用途配方食品(深圳)有限公司 | Clinical nutrition intelligent management system, method, device, equipment and storage medium |
CN115497601B (en) * | 2022-09-27 | 2023-05-02 | 时代特殊医学用途配方食品(深圳)有限公司 | Method, device, equipment and storage medium for intelligent management of clinical nutrition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210099876A (en) | prsonalized nutrition and disease management system and method using deep learning food image recognition | |
US9977980B2 (en) | Food logging from images | |
Mezgec et al. | Mixed deep learning and natural language processing method for fake-food image recognition and standardization to help automated dietary assessment | |
US11393133B2 (en) | Emoji manipulation using machine learning | |
US9734426B2 (en) | Automated food recognition and nutritional estimation with a personal mobile electronic device | |
US10832094B2 (en) | Generating hyperspectral image database by machine learning and mapping of color images to hyperspectral domain | |
KR101959762B1 (en) | An artificial intelligence based image and speech recognition nutritional assessment method | |
Allegra et al. | A review on food recognition technology for health applications | |
WO2022133190A9 (en) | Food and nutrient estimation, dietary assessment, evaluation, prediction and management | |
CN109933782A (en) | User emotion prediction technique and device | |
CN110675389A (en) | Food recommendation method, storage medium and intelligent household equipment | |
Zhang et al. | Understanding and predicting cross-cultural food preferences with online recipe images | |
CN109659007A (en) | Dining room dining method of servicing, device, computer equipment and storage medium | |
Qiu | Food recognition and nutrition analysis using deep CNNs | |
CN114556444A (en) | Training method of combined model and object information processing method, device and system | |
Hussain et al. | User-biased food recognition for health monitoring | |
CN112766020A (en) | Screen device identification method, screen device, menu recommendation system and storage medium | |
Dijkstra | Cross-modal recipe analysis for fine-grained geographical mapping of food consumption from images and supermarket sales | |
CN113990444B (en) | Intelligent nutrition diet management method and system based on data analysis and deep learning | |
US20230162617A1 (en) | Indication-dependent nutrient calculation and preservation platform | |
CN117078955B (en) | Health management method based on image recognition | |
CN115237966A (en) | Food path recommendation method and device, electronic equipment and storage medium | |
Sharma et al. | Analysis & Numerical Simulation of Indian Food Image Classification Using Convolutional Neural Network | |
CN112289409A (en) | Diet health prediction system based on diet receipt | |
Qiu et al. | Battling Diabetes through Food Photography: An Image-Based Utility Maximization Framework for Diet Diagnostics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |