KR20210099876A - prsonalized nutrition and disease management system and method using deep learning food image recognition - Google Patents

prsonalized nutrition and disease management system and method using deep learning food image recognition Download PDF

Info

Publication number
KR20210099876A
KR20210099876A KR1020200013763A KR20200013763A KR20210099876A KR 20210099876 A KR20210099876 A KR 20210099876A KR 1020200013763 A KR1020200013763 A KR 1020200013763A KR 20200013763 A KR20200013763 A KR 20200013763A KR 20210099876 A KR20210099876 A KR 20210099876A
Authority
KR
South Korea
Prior art keywords
food
nutrition
information
image recognition
user terminal
Prior art date
Application number
KR1020200013763A
Other languages
Korean (ko)
Inventor
김양원
Original Assignee
주식회사 아이앤아이솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이앤아이솔루션 filed Critical 주식회사 아이앤아이솔루션
Priority to KR1020200013763A priority Critical patent/KR20210099876A/en
Publication of KR20210099876A publication Critical patent/KR20210099876A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Abstract

The present invention relates to a personalized nutrition and disease management system using deep learning-based food image recognition and a method thereof and, more specifically, to a personalized nutrition and disease management system using deep learning-based food image recognition, which acquires a food image by using a camera in a smart device, determines the acquired food on the basis of a deep learning algorithm, generating management information according to the food, and providing personalized nutrition and disease management solutions based on the management information, and a method thereof. According to the present invention, the system provides an effect of providing nutrition management and disease management services based on a food additive database and a nutrition database as a service through a smartphone application by using an object recognition algorithm for an image captured by a camera. The system comprises a user terminal and a nutrition management server.

Description

딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법{prsonalized nutrition and disease management system and method using deep learning food image recognition}Personalized nutrition and disease management system and method using deep learning algorithm-based food image recognition {prsonalized nutrition and disease management system and method using deep learning food image recognition}

본 발명은 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법에 관한 것으로, 보다 상세하게는 스마트 디바이스 내 카메라를 이용하여 식품(음식) 영상을 획득하고 획득한 딥러닝 알고리즘 기반 식품(음식)을 판별한 후 음식물에 따른 관리 정보를 생성하여 이를 바탕으로 개인 맞춤형 영양 및 질병 관리 솔루션을 제시할 수 있는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for personalized nutrition and disease management through food image recognition based on a deep learning algorithm, and more particularly, a deep learning algorithm obtained by acquiring a food (food) image using a camera in a smart device A personalized nutrition and disease management system through deep learning algorithm-based food image recognition that can provide personalized nutrition and disease management solutions based on the generation of food-dependent management information after determining the food (food); it's about how

기대수명이 증가하고 있는 만큼 건강한 식품 섭취에 대한 관심도 함께 증가하고 있다.As life expectancy increases, interest in healthy food intake is also increasing.

사람들의 삶의 질이 향상됨에 따라 평균 신장이 커지고 평균 수명이 늘어나고 있지만, 개인에 맞춤화된 영양정보 및 질병예방 관련한 식품(음식)에 대한 지식이 부족하고 이에 따른 올바르지 못한 건강관리가 발생하고 있는 현실이다.As people's quality of life improves, average height increases and life expectancy increases, but the reality is that there is a lack of knowledge about food (food) related to individualized nutritional information and disease prevention, resulting in incorrect health management. am.

영양섭취가 과다한 경우도 발생하고 있고, 이에 따른 비만, 당뇨, 고혈압, 고지혈증 같은 질병들의 발생 빈도가 증가하고 있다.Excessive nutritional intake is also occurring, and accordingly, the incidence of diseases such as obesity, diabetes, high blood pressure, and hyperlipidemia is increasing.

이러한 문제점을 해결하기 위한 다양한 플랫폼이 출시되었으나 건강관리를 위한 영양섭취 정보는 취약하며 음식의 칼로리 관리 등 단순한 다이어트 위주의 기능으로 구성되어 있는 실정이다.Various platforms have been released to solve this problem, but nutritional intake information for health management is weak and consists of simple diet-oriented functions such as calorie management of food.

또한, 섭취한 음식물의 정보를 텍스트 위주 입력 방식으로 사용해야 하는 불편함 때문에 사용률이 저조한 실정이며 사용자 중심의 단순한 입력방식의 플랫폼 구축이 필요한 상황이다. In addition, the usage rate is low due to the inconvenience of using the information on the food consumed in a text-oriented input method, and a user-centered simple input method platform construction is required.

영양관리에 있어 개인별 맞춤화 된 정보제공이 필요하지만, 현재 서비스들은 단편화된 정보만을 기반으로 하고 있다.Although it is necessary to provide customized information for each individual in nutrition management, current services are based only on fragmented information.

식품(음식) 섭취에 대한 관심과 함께 식품 첨가물 및 원재료, 원산지 등에 대한 관심이 급증하였다. 하지만 현재 식품첨가물 및 원재료에 대한 자세한 정보나 첨가물 안전성의 평가는 쉽게 찾아볼 수 없다.Along with the interest in food (food) consumption, interest in food additives, raw materials, and country of origin has rapidly increased. However, it is not easy to find detailed information on food additives and raw materials or evaluation of additive safety at present.

또한, 식품 첨가물 및 원재료에 대한 자세한 정보가 제공된다고 하더라도, 어려운 용어로 기재되어 있는 식품 첨가물의 유해성 여부를 판단하기 쉽지 않은 실정이다.In addition, even if detailed information on food additives and raw materials is provided, it is not easy to determine whether food additives described in difficult terms are harmful.

KR10-2065657B1KR10-2065657B1

본 발명은 이와 같은 문제점을 해결하기 위해 창안된 것으로서, 사용자가 섭취한 식품(음식) 사진을 찍어 서버로 전송하면 식품(음식)의 영상 정보 기반으로 Nutri-Score 영양 등급 및 EWG 식품 첨가물 등급을 제공함으로 사용자 맞춤형 질병관리 정보를 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.The present invention was devised to solve such a problem, and when a user takes a picture of the food (food) eaten by the user and transmits it to the server, Nutri-Score nutritional grade and EWG food additive grade are provided based on the image information of the food (food) The purpose of this program is to provide a personalized nutrition and disease management system and method through deep learning algorithm-based food image recognition that can provide customized disease management information.

또한, 본 발명은 식품(음식)의 영상을 픽셀로 표현하고 이를 기반으로 딥러닝 기법을 적용하여 가장 유사한 식품(음식) 정보를 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.In addition, the present invention expresses the image of food (food) in pixels, and based on this, a deep learning technique is applied to provide the most similar food (food) information. Personalized through food image recognition based on a deep learning algorithm. It aims to provide a nutritional and disease management system and method.

또한, 본 발명은 영상 내에서 식품(음식)의 정보가 일치하지 않을 경우 유사도가 높은 순으로 원하는 식품(음식)으로 선택하도록 정보를 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.In addition, the present invention provides an individual through food image recognition based on a deep learning algorithm that can provide information to select a desired food (food) in the order of high similarity when information on food (food) does not match within the image. It aims to provide customized nutrition and disease management systems and methods.

또한, 본 발명은 여러가지의 식품(음식)의 영상을 각 개체별로 인식하고 Nutri-Score 영양 등급 및 EWG 식품 첨가물 등급 기반 알고리즘 계산을 통해 영양 등급 및 질병 관리 방법을 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.In addition, the present invention is based on a deep learning algorithm that recognizes images of various foods (foods) for each individual and provides nutritional grades and disease management methods through Nutri-Score nutritional grade and EWG food additive grade-based algorithm calculation. It aims to provide a personalized nutrition and disease management system and method through food image recognition of

또한, 본 발명은 빅데이터와 연동되어 사용자 영양소 섭취량의 균형을 고려하면서 사용자의 기호, 건강 상태 및 체질, 종교에 맞는 현실적인 식단을 추천할 수 있는 인공 지능 기반 영상 처리 방법을 제공할 수 있도록 한 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템 및 방법을 제공함을 목적으로 한다.In addition, the present invention provides an artificial intelligence-based image processing method that can recommend a realistic diet suitable for the user's taste, health condition, constitution, and religion while considering the balance of user's nutrient intake in conjunction with big data. The purpose of this study is to provide a personalized nutrition and disease management system and method through food image recognition based on a learning algorithm.

상기한 목적을 달성하기 위한 본 발명에 따른 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법의 일측면에 따르면, 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계; 상기 인식된 적어도 하나 이상의 식품에 대한 식품 첨가물 및 영양 정보를 분석하는 단계; 상기 해당 식품에 대한 식품 첨가물 및 영양 분석 결과를 상기 사용자 단말로 전송하는 단계; 및 기저장된 사용자 영양정보에 기초하여 추천된 맞춤형 식단정보를 상기 사용자 단말로 전송하는 단계를 포함할 수 있다.According to one aspect of a method for managing personalized nutrition and disease through food image recognition based on a deep learning algorithm according to the present invention for achieving the above object, at least one or more foods included in the food image information transmitted from the user terminal recognizing; analyzing food additives and nutritional information for the recognized at least one food; transmitting food additives and nutritional analysis results for the corresponding food to the user terminal; and transmitting, to the user terminal, customized diet information recommended based on pre-stored user nutritional information.

또한, 상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계는, 상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품의 관심영역을 지정하여 추출하는 단계; 및 상기 추출된 관심영역을 바탕으로 학습된 머신러닝 모델을 이용하여 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계를 포함할 수 있다.In addition, the step of recognizing at least one or more foods included in the food image information transmitted from the user terminal may include: extracting by designating a region of interest of at least one or more foods included in the food image information transmitted from the user terminal; and recognizing at least one food included in the food image information using a machine learning model learned based on the extracted region of interest.

한편, 상기한 목적을 달성하기 위한 본 발명에 따른 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템의 일측면에 따르면, 영양 및 질병 관리 서비스를 제공받기 위한 사용자 단말; 및 상기 사용자 단말로부터 전송된 식품 영상 정보를 분석하고 분석된 결과 및 사용자 영양정보에 기초하여 상기 사용자 단말로 맞춤형 식단정보를 전송하는 영양관리서버를 포함할 수 있다.On the other hand, according to one aspect of the personalized nutrition and disease management system through food image recognition based on a deep learning algorithm according to the present invention for achieving the above object, a user terminal for receiving nutrition and disease management services; and a nutrition management server that analyzes the food image information transmitted from the user terminal and transmits customized diet information to the user terminal based on the analyzed result and user nutrition information.

또한, 상기 영양관리서버는 상기 사용자 단말과 통신하기 위한 네트워크 인터페이스; 상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품의 관심영역을 지정하여 추출하는 영상 인식부; 상기 영상 인식부에서 추출된 관심영역을 바탕으로 학습된 머신러닝 모델을 이용하여 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 영상 인식모델부; 및 상기 영상 인식 모델부에서 인식된 적어도 하나 이상의 식품에 대한 식품 첨가물 및 영양 정보를 분석하고 기저장된 사용자 영양정보에 기초하여 맞춤형 식단정보를 추천하는 영양 관리부를 포함할 수 있다.In addition, the nutrition management server is a network interface for communicating with the user terminal; an image recognition unit for designating and extracting a region of interest of at least one food included in the food image information transmitted from the user terminal; an image recognition model unit for recognizing at least one food included in food image information using a machine learning model learned based on the region of interest extracted from the image recognition unit; and a nutrition management unit that analyzes food additives and nutritional information for at least one food recognized by the image recognition model unit and recommends customized diet information based on pre-stored user nutritional information.

본 발명에 의하면, 스마트폰 어플리케이션을 통한 서비스로 디바이스 카메라의 촬영 영상을 사물인식 알고리즘을 활용하여 식품(음식)의 첨가물 데이터베이스, 영양 데이터 베이스 기반 영양관리 및 질병관리 서비스를 제공할 수 있는 효과가 있다.According to the present invention, there is an effect of providing a food (food) additive database, nutrition database-based nutrition management and disease management service by using an object recognition algorithm for a photographed image of a device camera as a service through a smartphone application. .

또한, 사용자가 촬영한 영상을 기반으로 인공 지능의 딥 러닝 기술을 활용하여 영양 등급 산정 방법 및 식품 첨가물 등급 산정에 접목하여 사용자에게 식단 평가 데이터를 실시간으로 제공하고, 인공 지능 기반 영상처리 방법에 의해 사용자에게 맞춤형 식단을 추천할 수 있는 효과가 있다.In addition, based on the image taken by the user, by using deep learning technology of artificial intelligence, it is grafted to the nutrition rating method and food additive rating calculation to provide the user with diet evaluation data in real time, and by artificial intelligence-based image processing method It has the effect of recommending a customized diet to the user.

도 1은 본 발명의 일실시예에 따른 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템의 전체 구성을 나타내는 도면.
도 2는 도 1의 시스템을 통한 영상 인식 및 영양 및 비율 정보 분석의 일예를 나타내는 도면.
도 3은 딥러닝 기술에 의한 객체 인식의 일예를 나타내는 도면.
도 4는 합성곱 신경망(Convolutional Neural Network, CNN) 구조를 나타내는 도면.
도 5는 도 1의 시스템에서 영상인식부 및 영상인식모델에 대한 작동 플로우를 나타내는 도면.
도 6 및 도 7은 스마트 디바이스에서 촬영된 음식 이미지 정보의 일예를 나타내는 도면.
도 8은 사용자 단말과 영양관리서버 간의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 과정을 나타내는 도면.
도 9는 브랜드별 제품의 Nutri-Score의 일예를 나타내는 도면.
도 10은 식품별 화학첨가물 등급 디스플레이 예시 화면.
도 11은 먹으면 안되는 10대 식품첨가물 표지의 일예를 나타내는 도면.
도 12는 특정 음식에 대한 영양성분 분석의 일예를 나타내는 도면.
도 13은 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법의 다른 예를 나타내는 도면.
1 is a view showing the overall configuration of a personalized nutrition and disease management system through food image recognition based on a deep learning algorithm according to an embodiment of the present invention.
Figure 2 is a diagram showing an example of image recognition and nutritional and ratio information analysis through the system of Figure 1;
3 is a diagram showing an example of object recognition by deep learning technology.
4 is a diagram illustrating a structure of a convolutional neural network (CNN).
Figure 5 is a view showing an operation flow for the image recognition unit and the image recognition model in the system of Figure 1;
6 and 7 are views showing an example of food image information photographed in a smart device.
8 is a view showing a personalized nutrition and disease management process through food image recognition between a user terminal and a nutrition management server.
9 is a view showing an example of Nutri-Score of products by brand.
10 is an example screen of the chemical additive grade display for each food.
11 is a view showing an example of the top 10 food additive labels that should not be eaten.
12 is a view showing an example of a nutritional component analysis for a specific food.
13 is a view showing another example of a method for personalized nutrition and disease management through food image recognition.

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, and the inventor should properly understand the concept of the term in order to best describe his invention. Based on the principle that it can be defined, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the configuration shown in the embodiments and drawings described in the present specification is only the most preferred embodiment of the present invention and does not represent all the technical spirit of the present invention, so at the time of the present application, various It should be understood that there may be equivalents and variations.

도 1은 본 발명의 일실시예에 따른 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템의 전체 구성을 나타내는 도면이고, 도 2는 도 1의 시스템을 통한 영상 인식 및 영양 및 비율 정보 분석의 일예를 나타내는 도면이며, 도 3은 딥러닝 기술에 의한 객체 인식의 일예를 나타내는 도면이고, 도 4는 합성곱 신경망(Convolutional Neural Network, CNN) 구조를 나타내는 도면이며, 도 5는 도 1의 시스템에서 영상인식부 및 영상인식모델에 대한 작동 플로우를 나타내는 도면이고, 도 6 및 도 7은 스마트 디바이스에서 촬영된 음식 이미지 정보의 일예를 나타내는 도면이다.1 is a view showing the overall configuration of a personalized nutrition and disease management system through food image recognition based on a deep learning algorithm according to an embodiment of the present invention, and FIG. 2 is image recognition and nutrition and It is a diagram showing an example of ratio information analysis, FIG. 3 is a diagram showing an example of object recognition by deep learning technology, FIG. 4 is a diagram showing the structure of a convolutional neural network (CNN), and FIG. 5 is FIG. It is a view showing the operation flow for the image recognition unit and the image recognition model in the system of 1, Figures 6 and 7 are views showing an example of the food image information photographed in the smart device.

도시된 바와 같이, 본 발명의 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템은 사용자 단말인 스마트 디바이스(100)와 영양 관리 서버(200)를 포함할 수 있다.As shown, the personalized nutrition and disease management system through the deep learning algorithm-based food image recognition of the present invention may include a smart device 100 as a user terminal and a nutrition management server 200 .

스마트 디바이스(100)는 인터넷이 가능한 사용자의 휴대용 단말기로써 영양 관리 서버(200)와 통신하여 식품 및 음식 인식을 기반으로 한 개인별 영양 및 질병 관리 솔루션을 제공받을 수 있다.The smart device 100 communicates with the nutrition management server 200 as a portable terminal of a user capable of the Internet, and may be provided with an individual nutrition and disease management solution based on food and food recognition.

스마트 디바이스(100)는 음식 및 식품을 촬영하거나 기존 촬영된 이미지를 서버로 전송할 수 있다. 예를 들어, 도 6 및 도 7에 예시된 바와 같이 스마트 디바이스(100)에서 촬영된 음식 이미지(P10)가 디스플레이될 수 있으며, 촬영된 음식 이미지(P10)의 하단에는 햄버거(11), 타코(12), 케밥(13), 불고기버거(111), 새우버거(121), 치킨버거(131) 등이 표시될 수 있다.The smart device 100 may photograph food and food or transmit an existing photographed image to a server. For example, as illustrated in FIGS. 6 and 7 , the food image P10 photographed in the smart device 100 may be displayed, and at the bottom of the photographed food image P10, a hamburger 11, a taco ( 12), kebab 13, bulgogi burger 111, shrimp burger 121, chicken burger 131, and the like may be displayed.

스마트 디바이스(100)는 영양 관리 서버(200)로부터 인식된 이미지와 관련된 이미지 인식 정보를 수신하고, 영양 관리 서버(200)로부터 촬영된 식물 이미지에 대한 이미지 인식 정보를 수신하여 디스플레이할 수 있다.The smart device 100 may receive image recognition information related to an image recognized from the nutrition management server 200 , and may receive and display image recognition information about a plant image photographed from the nutrition management server 200 .

영양 관리 서버(200)는 스마트 디바이스(100)의 요청에 따라 식품 및 음식 인식을 기반으로 한 개인별 영양 및 질병 관리 서비스를 제공할 수 있으며, 서버 내부 구성에 대해서는 하기에서 보다 상세하게 설명하기로 한다.The nutrition management server 200 may provide individual nutrition and disease management services based on food and food recognition at the request of the smart device 100, and the internal configuration of the server will be described in more detail below. .

영양 관리 서버(200)는 네트워크 인터페이스(210)와, 영양 관리부(220)와, 사용자별 영양 데이터 데이터베이스(230)와, 음식 영양 데이터 데이터베이스(240)와, 식품첨가물 데이터 데이터베이스(250)와, 영상 인식부(260)와, 영상인식모델(270)을 포함할 수 있다.The nutrition management server 200 includes a network interface 210 , a nutrition management unit 220 , a user-specific nutrition data database 230 , a food nutrition data database 240 , a food additive data database 250 , and an image It may include a recognition unit 260 and an image recognition model 270 .

네트워크 인터페이스(210)는 통신망을 통해 스마트 디바이스(100)와 통신하여 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 정보를 송수신할 수 있다.The network interface 210 may communicate with the smart device 100 through a communication network to transmit/receive personalized nutrition and disease management information through deep learning algorithm-based food image recognition.

영양 관리부(220)는 어플리케이션을 통해 전송받은 음식 및 식품에 대한 이미지를 수신하고, 영상 인식부(260)로 이미지를 전달할 수 있다.The nutrition management unit 220 may receive the food and the food image transmitted through the application, and transmit the image to the image recognition unit 260 .

영양 관리부(220)는 영상인식모델(270)로부터 전송받은 음식 및 식품 리스트를 바탕으로 음식영양 DB(240)와 첨가물 DB(250)를 활용하여 음식 및 식품명을 key로 기존 데이터(식품 첨가물 정보 및 영양 성분 정보)를 매핑할 수 있다.The nutrition management unit 220 utilizes the food and nutrition DB 240 and the additive DB 250 based on the food and food list received from the image recognition model 270 to set the food and food name as the key to the existing data (food additive information and nutritional information) can be mapped.

영양 관리부(220)는 사용자의 섭취 기록을 사용자 영양 DB(230)에 저장하고 인식된 이미지와 관련된 이미지 인식 정보를 앱 클라이언트에 전송할 수 있다.The nutrition management unit 220 may store the user's intake record in the user nutrition DB 230 and transmit image recognition information related to the recognized image to the app client.

영양 관리부(220)는 도 2에 예시된 바와 같이 영상 인식부(260)에서 인식된 치즈버거 및 감자튀김에 대한 영양 및 비율 정보를 분석하여 제공할 수 있다. 예를 들어, 치즈버거는 영양 및 비율이 각각 탄수화물 50.0g, 단백질 40.0g, 지방 20.0g으로 분석하고, 감자튀김은 영양 및 비율이 각각 탄수화물 0.3g, 단백질 4.0g, 지방 3.0g으로 분석하여 관리할 수 있다.As illustrated in FIG. 2 , the nutrition management unit 220 may analyze and provide nutrition and ratio information for the cheeseburger and french fries recognized by the image recognition unit 260 . For example, the nutrition and ratio of cheeseburger are analyzed as carbohydrate 50.0g, protein 40.0g, and fat 20.0g, respectively, and the nutrition and ratio are analyzed as 0.3g carbohydrate, 4.0g protein, and 3.0g fat, respectively. can do.

사용자별 영양 데이터 데이터베이스(230)는 사용자별 영양 데이터를 저장할 수 있다.The user-specific nutrition data database 230 may store user-specific nutrition data.

음식 영양 데이터 데이터베이스(240)는 음식 영양 데이터를 저장할 수 있다.The food nutrition data database 240 may store food nutrition data.

식품첨가물 데이터 데이터베이스(250)는 식품첨가물 데이터를 저장할 수 있다.The food additive data database 250 may store food additive data.

영상 인식부(260)는 음식 및 식품 이미지를 전달받고, 도 5에 예시된 바와 같이 영상 처리를 이용해 영상에서 식품 및 음식의 관심영역(ROI)를 지정하여 추출할 수 있다.The image recognition unit 260 may receive food and food images, and may extract by designating a region of interest (ROI) of food and food from the image using image processing as illustrated in FIG. 5 .

영상인식모델(270)은 영상 인식부(260)로부터 전달받은 영상의 관심영역(ROI)을 바탕으로 학습된 머신러닝 모델을 이용하여 음식 및 식품의 이미지를 인식할 수 있다.The image recognition model 270 may recognize an image of food and food using a machine learning model learned based on a region of interest (ROI) of the image received from the image recognition unit 260 .

영상인식모델(270)은 신경망 학습을 할 수 있는 표준적 프레임워크인 케라스(Keras) 프레임워크로 합성곱 신경망(CNN)을 이용하여 트레이닝할 수 있으며, 이러한 트레이닝을 통해 음식정보를 가진 영상분석 학습모델을 생성할 수 있다.The image recognition model 270 can be trained using a convolutional neural network (CNN) as a Keras framework, which is a standard framework for neural network learning, and through this training, image analysis with food information You can create a learning model.

영상인식모델(270)은 딥러닝 모델로부터 영상의 식품 및 음식 정보를 리스트로 출력할 수 있으며, 모델을 통해 추출한 음식 및 식품 이미지 리스트를 영양 관리부(220)로 전달할 수 있다.The image recognition model 270 may output the food and food information of the image from the deep learning model as a list, and may transmit the food and food image list extracted through the model to the nutrition management unit 220 .

영상인식모델(270)은 도 2에 예시된 바와 같이 영상 인식된 이미지로부터 음식에 대한 확률을 인식하여 제공할 수 있다. 예를 들어, 도 2의 음식 이미지에서 치즈버거 85%, 햄버거 12%, 타코 3%, 감자튀김 70%, 치즈스틱 20%, 새우깡 10%로 인식할 수 있다.The image recognition model 270 may recognize and provide a probability for food from the image recognized image as illustrated in FIG. 2 . For example, in the food image of FIG. 2 , cheeseburgers 85%, hamburgers 12%, tacos 3%, french fries 70%, cheese sticks 20%, and shrimp crackers 10% can be recognized.

영상인식모델(270)은 구글 전자장치로부터 인식된 이미지와 관련된 이미지 인식 정보를 전달받고, 자체적으로 처리하거나 고객 핸드폰으로 전달할 수 있다.The image recognition model 270 may receive image recognition information related to the recognized image from the Google electronic device, process it itself, or transmit it to the customer's mobile phone.

특히, 전술한 영상 인식부(260)와 영상인식모델(270)에서의 영상인식 방법은 도 3에 예시된 바와 같이 객체 인식에 사용되는 딥러닝 기술이 적용될 수 있다. 이러한 객체 인식에 사용되는 딥러닝 기술로서 합성곱 신경망(Convolutional Neural Network, CNN)이 이용되어 이미지 분석이 가능할 수 있다.In particular, the image recognition method in the image recognition unit 260 and the image recognition model 270 described above, as illustrated in FIG. 3 , a deep learning technique used for object recognition may be applied. As a deep learning technique used for such object recognition, a convolutional neural network (CNN) may be used to perform image analysis.

예를 들어, 도 3에서는 특정 이미지인 바나나 이미지를 합성곱 신경망(Convolutional Neural Network, CNN)에 의해 바나나로 인식하는 일 예에 대해 나타내고 있다.For example, FIG. 3 shows an example of recognizing a banana image, which is a specific image, as a banana by a convolutional neural network (CNN).

즉, 본 발명에서는 딥 네트워크를 훈련시키기 위해 레이블이 지정된 방대한 식품 데이터를 기반으로 네트워크 아키텍처를 설계하여 합성곱 신경망(Convolutional Neural Network, CNN)을 기반으로 학습하고 모델을 설계할 수 있다. 합성곱 신경망(Convolutional Neural Network, CNN)의 구조는 첨부된 도 4를 참조하여 보다 구체적으로 설명하기로 한다.That is, in the present invention, in order to train a deep network, a network architecture can be designed based on a large amount of labeled food data to learn based on a convolutional neural network (CNN) and design a model. The structure of a convolutional neural network (CNN) will be described in more detail with reference to FIG. 4 attached thereto.

합성곱 신경망(Convolutional Neural Network, CNN)의 구조는 도 4에 나타난 바와 같이, CNN은 Feature Learning 과정에서 Convolution 연산, Activation 연산(대부분 ReLU), Pooling 연산의 반복으로 구성될 수 있으며, 일정 회수 이상의 Feature Learning 과정 이후에는 Flatten 과정을 통해 이미지가 1차원의 벡터로 변환될 수 있다.As shown in FIG. 4, the structure of a convolutional neural network (CNN) can be composed of repetition of a convolution operation, an activation operation (mostly ReLU), and a pooling operation in the feature learning process, and features more than a certain number of times. After the learning process, the image can be converted into a one-dimensional vector through the flattening process.

즉, 합성곱 신경망(CNN : Convolutional Neural Network)은 음성 인식이나 이미지 인식에서 주로 사용되는 신경망의 한 종류이다. 다차원 배열 데이터를 처리하도록 구성되어 있어 컬러 이미지와 같은 다차원 배열 처리에 특화되어 있다. 따라서 이미지 인식 분야에서 딥러닝을 활용한 기법은 대부분 합성곱 신경망(CNN)을 기초로 한다.That is, a convolutional neural network (CNN) is a type of neural network mainly used in speech recognition or image recognition. It is configured to process multi-dimensional array data, and is specialized in multi-dimensional array processing such as color images. Therefore, most of the techniques using deep learning in the image recognition field are based on convolutional neural networks (CNNs).

일반 신경망의 경우 이미지 데이터를 그대로 처리한다. 즉, 이미지 전체를 하나의 데이터로 생각해서 입력으로 받아들이기 때문에 이미지의 특성을 찾지 못하고 이미지의 위치가 조금만 달라지거나 왜곡된 경우에 올바른 성능을 내지 않는다. 그러나, 합성곱 신경망(CNN)은 이미지를 하나의 데이터가 아닌 여러 개로 분할하여 처리할 수 있다. 이렇게 하면 이미지가 왜곡되더라도 이미지의 부분적 특성을 추출할 수 있어 올바른 성능을 낼 수 있다.In the case of a general neural network, image data is processed as it is. In other words, since the entire image is considered as one data and accepted as an input, the characteristics of the image cannot be found, and the correct performance is not obtained when the position of the image is slightly changed or distorted. However, a convolutional neural network (CNN) can process an image by dividing it into several pieces instead of one piece of data. In this way, even if the image is distorted, it is possible to extract the partial characteristics of the image, so that the correct performance can be achieved.

합성곱 신경망(CNN)의 경우에도 여태까지의 신경망과 마찬가지로 여러 계층을 조합하여 만들어질 수 있다. 다만 일반적인 신경망과는 다르게 합성곱 계층(Convolutional Layer)과 풀링 계층(Pooling Layer)이 추가될 수 있다.In the case of a convolutional neural network (CNN), it can be created by combining several layers like the previous neural networks. However, unlike a general neural network, a convolutional layer and a pooling layer may be added.

합성곱 신경망(CNN)의 특징 중 하나는 합성곱 계층과 풀링 계층이 추가되긴 하였지만 출력과 가까운 층에서는 여태껏 사용했던 'Affine-ReLU' 계층 구성을 사용할 수 있다. 또한 마지막 계층에서는 'Affine-Softmax' 조합을 그대로 사용할 수 있다.One of the characteristics of a convolutional neural network (CNN) is that a convolutional layer and a pooling layer are added, but the 'Affine-ReLU' hierarchical structure used so far can be used in the layer close to the output. Also, in the last layer, the 'Affine-Softmax' combination can be used as it is.

특히, 컨벌루션(convolution)의 주요 작업은 컨텐츠 특징점을 추출하고 하나 이상의 컨벌루션 레이어와 하나 이상의 완전히 연결된 레이어로 구성될 수 있다. 컨벌루션을 통하여 컨텐츠의 크기를 줄이고 컨텐츠의 노이즈를 줄일 수 있다.In particular, the main task of convolution is to extract content feature points and may consist of one or more convolutional layers and one or more fully connected layers. Through convolution, the size of the content can be reduced and the noise of the content can be reduced.

ReLU는 비선형 연산을 위한 Rectified Linear Unit을 나타내고 출력은 f(x)=max(0,x)로서, ReLU 대신 사용할 수 있는 tanh 또는 sigmoid와 같은 다른 비선형 함수가 있으나 성능면에서는 ReLU가 다른 두 개보다 낫기 때문에 ReLU이 사용될 수 있다.ReLU represents a Rectified Linear Unit for nonlinear operation and the output is f(x)=max(0,x). There are other nonlinear functions such as tanh or sigmoid that can be used instead of ReLU. Because it is better, ReLU can be used.

풀링 계층(Pooling Layer) 섹션은 이미지가 너무 클 때 매개 변수 수를 줄일 수 있다. 공간 풀링은 서브 샘플링 또는 다운 샘플링이라고도 하며 각 맵의 차원을 줄이지만 중요한 정보는 유지할 수 있다.The Pooling Layer section can reduce the number of parameters when the image is too large. Spatial pooling, also known as subsampling or downsampling, reduces the dimension of each map, but retains important information.

풀리 커넥티드(fully connected)는 2차원 영상을 컨벌루션(convolution)과 서브 샘플링 없이 바로 신경망의 입력에 붙인다면 학습시간증가, 망의 크기, 변수의 개수가 많아질 수 있으므로 이를 방지하기 위해 줄이고 줄여 1차원 행렬이 되도록 하여 신경망의 입력단에 각각 하나씩 하여 모두를 매핑할 수 있다.In fully connected mode, if the 2D image is directly attached to the input of the neural network without convolution and subsampling, the learning time may increase, the size of the network, and the number of variables may increase. By making it a dimensional matrix, we can map them all, one for each input end of the neural network.

이어서, Softmax 활성화 기능을 통해 클래스를 출력하고 이미지를 분류할 수 있다.You can then output the class and classify the image through the Softmax activation function.

도 8은 사용자 단말과 영양관리서버 간의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 과정을 나타내는 도면이고, 도 9는 브랜드별 제품의 Nutri-Score의 일예를 나타내는 도면이며, 도 10은 식품별 화학첨가물 등급 디스플레이 예시 화면이고, 도 11은 먹으면 안되는 10대 식품첨가물 표지의 일예를 나타내는 도면이며, 도 12는 특정 음식에 대한 영양성분 분석의 일예를 나타내는 도면이다.8 is a diagram illustrating a personalized nutrition and disease management process through food image recognition between a user terminal and a nutrition management server, FIG. 9 is a diagram illustrating an example of Nutri-Score of a product by brand, and FIG. It is an example of an additive grade display screen, Figure 11 is a diagram showing an example of the top 10 food additive labels that should not be eaten, Figure 12 is a diagram showing an example of a nutritional component analysis for a specific food.

도시된 바와 같이, 영양관리서버(200)는 사용자 단말(100)로부터 음식 영상을 수신(S11)할 수 있다.As shown, the nutrition management server 200 may receive a food image from the user terminal 100 (S11).

이어서, 영양관리서버(200)는 확률에 따른 이미지를 분석(S12)할 수 있다.Then, the nutrition management server 200 may analyze the image according to the probability (S12).

이어서, 영양관리서버(200)는 확률에 따른 이미지 분석 결과에 따른 음식 리스트 정보를 사용자 단말(100)로 전송(S13)할 수 있다.Subsequently, the nutrition management server 200 may transmit food list information according to the image analysis result according to the probability to the user terminal 100 (S13).

이어서, 영양관리서버(200)는 사용자 단말(100)로부터 사용자에 의해 선택된 섭취 음식 정보를 제공(S14)받을 수 있다.Subsequently, the nutrition management server 200 may receive information on the food intake selected by the user from the user terminal 100 ( S14 ).

이어서, 영양관리서버(200)는 사용자에 의해 선택된 음식의 음식량을 설정(S15)할 수 있다.Subsequently, the nutrition management server 200 may set the food amount of the food selected by the user (S15).

이어서, 영양관리서버(200)는 사용자에 의해 선택된 음식의 포함된 식품 첨가물 정보를 분석(S16)할 수 있다.Subsequently, the nutrition management server 200 may analyze (S16) information on food additives included in the food selected by the user.

이어서, 영양관리서버(200)는 분석된 식품첨가물 정보에 기초하여 사용자가 선택한 음식 설정에 대하여 중재 여부를 판단(S17)할 수 있다.Subsequently, the nutrition management server 200 may determine whether to mediate with respect to the food setting selected by the user based on the analyzed food additive information (S17).

이어서, 영양관리서버(200)는 중재 여부 판단 결과에 따라 사용자가 선택한 음식 설정에 대한 중재 메시지를 사용자 단말(100)로 전송(S18)할 수 있다. 여기서, 중재 메시지는 사용자가 선택한 음식의 음식량이나 식품첨가물이 부적절한 경우 사용자 영양정보에 기초하여 사용자에게 맞춤형 식단 정보를 제공하기 위한 것일 수 있다.Subsequently, the nutrition management server 200 may transmit a mediation message for the food setting selected by the user to the user terminal 100 according to the result of determining whether to mediate (S18). Here, the intervention message may be for providing customized diet information to the user based on the user nutritional information when the amount of food or food additives of the food selected by the user is inappropriate.

이어서, 사용자 단말(100)은 영양관리서버(200)로부터 수신한 중재 메시지에 대한 피드백 정보를 영양관리서버(200)로 전송(S19)할 수 있다. 여기서, 중재 메시지에 대한 피드백 정보는 영양관리서버(200)로부터 제공된 맞춤형 식단 정보에 대한 응답 정보로서 사용자가 맞춤형 식단 정보에 대하여 추가로 요청하는 정보가 포함될 수 있다.Then, the user terminal 100 may transmit the feedback information on the intervention message received from the nutrition management server 200 to the nutrition management server 200 (S19). Here, the feedback information for the intervention message is response information to the customized diet information provided from the nutrition management server 200 , and may include information that the user additionally requests for the customized diet information.

이어서, 영양관리서버(200)는 사용자 단말(100)로부터 전송된 중재 메시지에 대한 피드백 정보에 따라 사용자의 식품(음식) 섭취 이력을 저장(S20)할 수 있다.Subsequently, the nutrition management server 200 may store the food (food) intake history of the user according to the feedback information for the intervention message transmitted from the user terminal 100 (S20).

즉, 본 발명에서는 하나 이상의 프로세서들로 하여금 이하의 동작들을 수행하도록 할 수 있다.That is, the present invention may cause one or more processors to perform the following operations.

먼저, 영양관리서버(200)는 사용자로부터 위해성 정보를 확인하고자 하는 식품(음식) 정보를 수신할 수 있다.First, the nutrition management server 200 may receive food (food) information to check the risk information from the user.

이어서, 영양관리서버(200)는 수신한 정보에 대응하는 식품에 함유된 식품의약품안전처 등급 및 EWG 등급의 식품 첨가물 정보를 점수 산출 알고리즘에 기초하여 등급을 결정할 수 있다.Subsequently, the nutrition management server 200 may determine a grade based on a score calculation algorithm for food additive information of the Ministry of Food and Drug Safety and EWG grade contained in food corresponding to the received information.

이어서, 영양관리서버(200)는 수신한 정보에 대응하는 Nutri-Score 영양 정보를 점수 산출 알고리즘에 기초하여 등급을 결정할 수 있다.Subsequently, the nutrition management server 200 may determine a grade based on a score calculation algorithm for Nutri-Score nutrition information corresponding to the received information.

이어서, 영양관리서버(200)는 빅데이터를 이용한 딥러닝 알고리즘을 이용하여 식품(음식)을 판별하고, 사전에 학습한 유사도 값 이상을 획득한 항목을 클라이언트로 전송할 수 있다.Subsequently, the nutrition management server 200 may determine food (food) using a deep learning algorithm using big data, and transmit an item obtained above the previously learned similarity value to the client.

이와 같이, 본 발명에서는 사용자로부터 위해성 정보를 확인하고자 하는 식품 정보를 수신하고 영양관리서버(200)에 저장된 사용자별 영양 데이터 베이스, 음식 영상 데이터, 식품 첨가물 데이터를 분석하여 사용자 디바이스에 전송할 수 있다.As described above, in the present invention, it is possible to receive food information for which risk information is to be confirmed from the user, analyze the user-specific nutrition database, food image data, and food additive data stored in the nutrition management server 200, and transmit it to the user device.

다시 말해, 본 발명은 음식 식품(음식) 정보가 포함된 영상을 사용자 디바이스 내 카메라로 획득할 수 있다.In other words, according to the present invention, an image including food (food) information may be acquired by a camera in the user device.

이에 따라, 영양관리서버(200)는 사용자 디바이스에서 획득된 영상에서 포함된 음식물을 인공지능 기반으로 판별할 수 있다.Accordingly, the nutrition management server 200 may determine the food included in the image obtained from the user device based on artificial intelligence.

이어서, 영양관리서버(200)는 영상에 포함된 음식물을 EWG 식품 첨가물 등급 및 Nutri-score 등급 정보를 생성할 수 있다. 이때, 음식물의 종류를 판별할 수 없는 경우, 미리 정해진 유사도가 높은 값으로 사용자가 항목을 선택하여 네트워크 인터페이스에 전송하고, 재 전송된 값을 최종 사용자가 선택한 식품(음식)으로 판단할 수 있다.Subsequently, the nutrition management server 200 may generate EWG food additive grade and Nutri-score grade information for food included in the image. In this case, when the type of food cannot be determined, the user selects an item with a predetermined high similarity value, transmits the selected item to the network interface, and determines that the retransmitted value is the food (food) selected by the end user.

예를 들어, 영양관리서버(200)에서 음식물의 종류를 판별할 수 없는 경우 도 6 및 도 7에 예시된 바와 같이 적어도 하나 이상의 후보군 식품(음식)을 스마트 디바이스(100)로 전송함으로써 적어도 하나 이상의 후보군 식품(음식)이 사용자 단말에 표시될 수 있다.For example, when the nutrition management server 200 cannot determine the type of food, at least one or more candidate foods (foods) are transmitted to the smart device 100 as illustrated in FIGS. 6 and 7 . Candidate group food (food) may be displayed on the user terminal.

이에 따라, 사용자가 디스플레이된 화면 상에서 어느 하나의 식품(음식)을 선택할 수 있으며, 또한, 영양관리서버(200)에서 햄버거인 것으로 인식하였으나 햄버거의 종류를 알지 못하는 경우에는 '불고기 버거', '새우 버거', '치킨 버거' 등 적어도 하나 이상의 햄버거 종류 정보를 제공함으로써 사용자가 이 중에서 어느 하나의 햄버거를 선택함으로써, 선택된 정보가 영양관리서버(200)로 전송될 수 있다.Accordingly, the user can select any one food (food) on the displayed screen, and when the nutrition management server 200 recognizes that it is a hamburger but does not know the type of hamburger, 'Bulgogi Burger' or 'Shrimp' By providing information on at least one type of hamburger, such as 'burger' and 'chicken burger', the user selects any one hamburger among them, and the selected information may be transmitted to the nutrition management server 200 .

상기 판별하는 단계에서, 식품(음식)의 영상 정보가 복수의 결과물을 포함하고 있는 경우, 인식 가능한 영상을 추출하고 이미지를 오버랩 시켜 네트워크 인터페이스로 전송할 수 있다.In the determining step, when the image information of food (food) includes a plurality of results, it is possible to extract a recognizable image, overlap the image, and transmit it to the network interface.

또한, 상기 판별하는 단계와 관리 정보를 생성하는 단계 사이에 식품(음식) 섭취량을 사용자가 직접 선택할 수 있는 단계를 포함할 수 있다.In addition, it may include a step in which the user can directly select the amount of food (food) intake between the step of determining and the step of generating the management information.

또한, 영상에 포함된 집기의 모서리(edge) 영역을 검출하고, 상기 집기의 크기(길이, 면적)를 기준으로 음식물의 양을 추정할 수 있다.Also, it is possible to detect an edge region of the household items included in the image, and estimate the amount of food based on the size (length, area) of the household items.

예를 들어, 도 9에서 나타난 바와 같이 적어도 하나 이상의 브랜드별 제품에 대한 Nutri-Score는 제품별로 Nutriscore_A ~ Nutriscore_E 로 표시될 수 있다.For example, as shown in FIG. 9 , Nutri-Scores for at least one product by brand may be expressed as Nutriscore_A to Nutriscore_E for each product.

즉, 프랑스, 영국 등 EU의 영양 정보 라벨링을 바탕으로 음식 및 식품 정보를 분석하여 각각의 등급화 실시가 가능할 수 있다.That is, it may be possible to perform each grading by analyzing food and food information based on the nutritional information labeling of EU, such as France and the UK.

또한, 음식 및 식품의 칼로리, 포화 지방, 당류, 나트륨, 비타민, 식이섬유, 단백질 등 영양성분을 100g 기준으로 각각의 수치를 환산하여 Nutritional score을 계산하여 A~E 등급으로 구간화하여 표시될 수 있다.In addition, the nutritional components such as calories, saturated fat, sugar, sodium, vitamins, dietary fiber, and protein of food and food are converted to each value based on 100 g, and the nutritional score is calculated and displayed by segmenting them into grades A to E. there is.

또한, Nutri-Score로 등급 환산에 대해 설명하면, 하기의 표 1 내지 표 3에서와 같이, N 성분은 칼로리, 포화 지방, 당류, 나트륨 점수의 합을 나타내고, N을 구성하는 성분은 100g을 기준으로 구간별로 점수를 부여할 수 있다.In addition, when explaining grade conversion with Nutri-Score, as in Tables 1 to 3 below, N component represents the sum of calories, saturated fat, sugar, and sodium score, and components constituting N are based on 100 g points can be assigned for each section.

P는 비타민, 식이섬유, 단백질의 점수의 합을 나타내며, Nutritional score = total N points - total P points 일 수 있다.P represents the sum of scores of vitamins, dietary fiber, and protein, and may be nutritional score = total N points - total P points.

하기의 표 1은 N 등급 산정표를 나타내고, 표 2는 P 등급 산정표를 나타내며, 표 3은 뉴트리스 등급 산정표를 나타낸다.Table 1 below shows the N grade calculation table, Table 2 shows the P grade calculation table, and Table 3 shows the Nutris grade calculation table.

[표 1][Table 1]

Figure pat00001
Figure pat00001

[표 2][Table 2]

Figure pat00002
Figure pat00002

[표 3][Table 3]

Figure pat00003
Figure pat00003

한편, 식품의 첨가물 등급 산정에 대해서 살펴보면, 하기의 표 4에서와 같이,미국의 비영리단체인 EWG(The Environmental Working Group) 등급을 기반으로 식품 첨가물 등급을 산정할 수 있다.On the other hand, looking at the additive grade calculation of food, as shown in Table 4 below, the food additive grade can be calculated based on the EWG (The Environmental Working Group) grade, a non-profit organization in the United States.

[표 4][Table 4]

Figure pat00004
Figure pat00004

즉, No Concern과 Lower Concern을 A등급으로 분류하고, Moderate는 B등급으로 분류할 수 있으며, Higher Concern의 경우 C등급으로 분류하여 EWG 기반의 식품 첨가물 등급을 세단계로 시각적으로 디스플레이할 수 있다.That is, No Concern and Lower Concern can be classified into A grade, Moderate can be classified into B grade, and Higher Concern can be classified into C grade, so that EWG-based food additive grade can be displayed visually in three stages.

예를 들어, 도 10에서와 같이 식품별 화학첨가물 등급이 디스플레이될 수 있으며, 도 11에서는 <먹으면 안되는 10대 식품 첨가물>을 기준으로 소비자에게 정보를 제공함으로써 효과적으로 위험한 식품첨가물을 걸러서 소비 및 섭취할 수 있도록 제시할 수 있다.For example, chemical additive grades for each food may be displayed as shown in FIG. 10, and in FIG. 11, by providing information to consumers based on the <Top 10 food additives that should not be eaten>, it is possible to effectively filter out dangerous food additives and consume and ingest them. can be presented so that

또한, 도 12에서와 같이 특정 음식에 대한 영양성분 분석 정보를 제공할 수 있다. 예를 들어, 치즈버거에 대한 식품첨가물과 영양성분이 각각 C등급과 E등급으로 표시될 수 있으며, 영양성분은 지방, 탄수화물, 단백질, 칼슘, 비타민으로 구분하여 적당 섭취 또는 초과/미만 섭취 등으로 표시될 수 있다. 또한, 당이나 나트륨에 대한 정보도 시각적으로 확인할 수 있도록 표시될 수 있다.In addition, as shown in FIG. 12 , it is possible to provide nutritional component analysis information for a specific food. For example, food additives and nutritional components for cheeseburgers may be labeled as C and E grades, respectively. Nutritional components are divided into fat, carbohydrate, protein, calcium, and vitamin, and can be consumed in moderation or over/under intake, etc. can be displayed. In addition, information on sugar or sodium may be displayed so that it can be visually confirmed.

도 13은 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법의 다른 예를 나타내는 도면으로서, 개인별 신체정보와 나이를 입력받고 환경성/만성질환 및 알러지 정보를 입력받아 개인별 맞춤 영양정보를 출력 후 개인별 맞춤식품 및 식품첨가물 등급을 제공할 수 있다.13 is a view showing another example of a method for managing personalized nutrition and disease through food image recognition, receiving individual body information and age, receiving environmental/chronic disease and allergy information, outputting personalized nutrition information, and then individual customization Food and food additive grades can be provided.

특히, 개인별 신체정보와 나이를 입력받은 후 연령대별 건강정보와 사용자가 선택한 식품 정보, 식품 원재료 정보, 식품 영양정보 및 식품 첨가물 정보를 확인할 수 있다.In particular, after receiving individual body information and age, it is possible to check health information by age group, food information selected by the user, food raw material information, food nutrition information, and food additive information.

또한, 환경성/만성질환 및 알러지 정보를 입력받은 후 사용자가 선택한 식품 정보, 선택한 식품의 조리방법 및 지역 정보들을 확인하여 개인별 맞춤 영양정보를 출력할 수 있다.In addition, after receiving environmental/chronic disease and allergy information, it is possible to check the information on the food selected by the user, the cooking method of the selected food, and information on the region, so that nutritional information tailored to each individual can be output.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described with reference to the limited embodiments and drawings, the present invention is not limited thereto, and the technical idea of the present invention and the following by those of ordinary skill in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.

100 : 스마트 디바이스
200 : 영양 관리 서버
210 : 네트워크 인터페이스
220 : 영양 관리부
230 : 사용자별 영양 데이터 데이터베이스
240 : 음식 영양 데이터 데이터베이스
250 : 식품첨가물 데이터 데이터베이스
260 : 영상 인식부
270 : 영상인식모델
100: smart device
200: Nutrition Management Server
210: network interface
220: nutrition management department
230: Nutritional data database by user
240: Food Nutrition Data Database
250: food additive data database
260: image recognition unit
270: image recognition model

Claims (4)

영양관리서버에서의 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법으로서,
사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계;
상기 인식된 적어도 하나 이상의 식품에 대한 식품 첨가물 및 영양 정보를 분석하는 단계;
상기 해당 식품에 대한 식품 첨가물 및 영양 분석 결과를 상기 사용자 단말로 전송하는 단계; 및
기저장된 사용자 영양정보에 기초하여 추천된 맞춤형 식단정보를 상기 사용자 단말로 전송하는 단계를 포함하는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법.
As a personalized nutrition and disease management method through food image recognition based on a deep learning algorithm in a nutrition management server,
Recognizing at least one food included in the food image information transmitted from the user terminal;
analyzing food additives and nutritional information for the recognized at least one food;
transmitting food additives and nutritional analysis results for the corresponding food to the user terminal; and
A personalized nutrition and disease management method through deep learning algorithm-based food image recognition comprising the step of transmitting, to the user terminal, customized diet information recommended based on pre-stored user nutritional information.
청구항 1에 있어서,
상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계는,
상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품의 관심영역을 지정하여 추출하는 단계; 및
상기 추출된 관심영역을 바탕으로 학습된 머신러닝 모델을 이용하여 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 단계를 포함하는 것을 특징으로 하는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 방법.
The method according to claim 1,
Recognizing at least one food included in the food image information transmitted from the user terminal comprises:
designating and extracting a region of interest of at least one food included in the food image information transmitted from the user terminal; and
Personalized nutrition through food image recognition based on a deep learning algorithm, characterized in that it comprises the step of recognizing at least one or more foods included in food image information using a machine learning model learned based on the extracted region of interest and disease management methods.
딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템으로서,
영양 및 질병 관리 서비스를 제공받기 위한 사용자 단말; 및
상기 사용자 단말로부터 전송된 식품 영상 정보를 분석하고 분석된 결과 및 사용자 영양정보에 기초하여 상기 사용자 단말로 맞춤형 식단정보를 전송하는 영양관리서버를 포함하는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템.
As a personalized nutrition and disease management system through food image recognition based on deep learning algorithms,
a user terminal for receiving nutrition and disease management services; and
Personalization through deep learning algorithm-based food image recognition including a nutrition management server that analyzes food image information transmitted from the user terminal and transmits customized diet information to the user terminal based on the analyzed result and user nutrition information Nutrition and disease management system.
청구항 3에 있어서,
상기 영양관리서버는,
상기 사용자 단말과 통신하기 위한 네트워크 인터페이스;
상기 사용자 단말로부터 전송된 식품 영상 정보에 포함된 적어도 하나 이상의 식품의 관심영역을 지정하여 추출하는 영상 인식부;
상기 영상 인식부에서 추출된 관심영역을 바탕으로 학습된 머신러닝 모델을 이용하여 식품 영상 정보에 포함된 적어도 하나 이상의 식품을 인식하는 영상 인식모델부; 및
상기 영상 인식 모델부에서 인식된 적어도 하나 이상의 식품에 대한 식품 첨가물 및 영양 정보를 분석하고 기저장된 사용자 영양정보에 기초하여 맞춤형 식단정보를 추천하는 영양 관리부를 포함하는 것을 특징으로 하는 딥러닝 알고리즘 기반의 식품 영상 인식을 통한 개인 맞춤형 영양 및 질병 관리 시스템.
4. The method according to claim 3,
The nutrition management server,
a network interface for communicating with the user terminal;
an image recognition unit for designating and extracting a region of interest of at least one food included in the food image information transmitted from the user terminal;
an image recognition model unit for recognizing at least one food included in food image information using a machine learning model learned based on the region of interest extracted from the image recognition unit; and
Deep learning algorithm-based, characterized in that it comprises a nutrition management unit that analyzes food additives and nutritional information for at least one food recognized by the image recognition model unit and recommends customized diet information based on pre-stored user nutritional information Personalized nutrition and disease management system through food image recognition.
KR1020200013763A 2020-02-05 2020-02-05 prsonalized nutrition and disease management system and method using deep learning food image recognition KR20210099876A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200013763A KR20210099876A (en) 2020-02-05 2020-02-05 prsonalized nutrition and disease management system and method using deep learning food image recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200013763A KR20210099876A (en) 2020-02-05 2020-02-05 prsonalized nutrition and disease management system and method using deep learning food image recognition

Publications (1)

Publication Number Publication Date
KR20210099876A true KR20210099876A (en) 2021-08-13

Family

ID=77313756

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200013763A KR20210099876A (en) 2020-02-05 2020-02-05 prsonalized nutrition and disease management system and method using deep learning food image recognition

Country Status (1)

Country Link
KR (1) KR20210099876A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115131783A (en) * 2022-06-23 2022-09-30 贵州大学 User diet nutrient component information autonomous perception method based on machine vision
KR102473072B1 (en) * 2022-08-25 2022-12-01 주식회사 두잉랩 System and method for measuring tableware size and providing nutritional information using artificial intelligence-based image recognition and augmented reality
KR102473284B1 (en) * 2022-08-25 2022-12-02 주식회사 두잉랩 System and method for providing nutritional information using food detection based on image analysis using artificial intelligence
KR102473282B1 (en) * 2022-08-25 2022-12-02 주식회사 두잉랩 System and method for providing nutritional information based on image analysis using artificial intelligence
KR102473283B1 (en) * 2022-08-25 2022-12-02 주식회사 두잉랩 System and method for providing nutritional information considering weight information based on image analysis using artificial intelligence
CN115497601A (en) * 2022-09-27 2022-12-20 时代特殊医学用途配方食品(深圳)有限公司 Clinical nutrition intelligent management system, method, device, equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102065657B1 (en) 2018-09-07 2020-01-13 엔에이치엔 주식회사 Mobile terminal and system for providing information of food nutrition based on augmented reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102065657B1 (en) 2018-09-07 2020-01-13 엔에이치엔 주식회사 Mobile terminal and system for providing information of food nutrition based on augmented reality

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115131783A (en) * 2022-06-23 2022-09-30 贵州大学 User diet nutrient component information autonomous perception method based on machine vision
CN115131783B (en) * 2022-06-23 2024-02-20 贵州大学 Autonomous sensing method of user diet nutrition ingredient information based on machine vision
KR102473072B1 (en) * 2022-08-25 2022-12-01 주식회사 두잉랩 System and method for measuring tableware size and providing nutritional information using artificial intelligence-based image recognition and augmented reality
KR102473284B1 (en) * 2022-08-25 2022-12-02 주식회사 두잉랩 System and method for providing nutritional information using food detection based on image analysis using artificial intelligence
KR102473282B1 (en) * 2022-08-25 2022-12-02 주식회사 두잉랩 System and method for providing nutritional information based on image analysis using artificial intelligence
KR102473283B1 (en) * 2022-08-25 2022-12-02 주식회사 두잉랩 System and method for providing nutritional information considering weight information based on image analysis using artificial intelligence
US11688187B1 (en) 2022-08-25 2023-06-27 doinglab Corp. System and method for measuring dish size and providing nutrition information using image recognition and augmented reality based on artificial intelligence
US11830603B1 (en) 2022-08-25 2023-11-28 doinglab Corp. System and method for providing nutrition information using artificial intelligence
CN115497601A (en) * 2022-09-27 2022-12-20 时代特殊医学用途配方食品(深圳)有限公司 Clinical nutrition intelligent management system, method, device, equipment and storage medium
CN115497601B (en) * 2022-09-27 2023-05-02 时代特殊医学用途配方食品(深圳)有限公司 Method, device, equipment and storage medium for intelligent management of clinical nutrition

Similar Documents

Publication Publication Date Title
KR20210099876A (en) prsonalized nutrition and disease management system and method using deep learning food image recognition
US9977980B2 (en) Food logging from images
Mezgec et al. Mixed deep learning and natural language processing method for fake-food image recognition and standardization to help automated dietary assessment
US11393133B2 (en) Emoji manipulation using machine learning
US9734426B2 (en) Automated food recognition and nutritional estimation with a personal mobile electronic device
US10832094B2 (en) Generating hyperspectral image database by machine learning and mapping of color images to hyperspectral domain
KR101959762B1 (en) An artificial intelligence based image and speech recognition nutritional assessment method
Allegra et al. A review on food recognition technology for health applications
WO2022133190A9 (en) Food and nutrient estimation, dietary assessment, evaluation, prediction and management
CN109933782A (en) User emotion prediction technique and device
CN110675389A (en) Food recommendation method, storage medium and intelligent household equipment
Zhang et al. Understanding and predicting cross-cultural food preferences with online recipe images
CN109659007A (en) Dining room dining method of servicing, device, computer equipment and storage medium
Qiu Food recognition and nutrition analysis using deep CNNs
CN114556444A (en) Training method of combined model and object information processing method, device and system
Hussain et al. User-biased food recognition for health monitoring
CN112766020A (en) Screen device identification method, screen device, menu recommendation system and storage medium
Dijkstra Cross-modal recipe analysis for fine-grained geographical mapping of food consumption from images and supermarket sales
CN113990444B (en) Intelligent nutrition diet management method and system based on data analysis and deep learning
US20230162617A1 (en) Indication-dependent nutrient calculation and preservation platform
CN117078955B (en) Health management method based on image recognition
CN115237966A (en) Food path recommendation method and device, electronic equipment and storage medium
Sharma et al. Analysis & Numerical Simulation of Indian Food Image Classification Using Convolutional Neural Network
CN112289409A (en) Diet health prediction system based on diet receipt
Qiu et al. Battling Diabetes through Food Photography: An Image-Based Utility Maximization Framework for Diet Diagnostics

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application