KR20180093141A - A meal calendar system using the image processing method based on colors - Google Patents

A meal calendar system using the image processing method based on colors Download PDF

Info

Publication number
KR20180093141A
KR20180093141A KR1020170017854A KR20170017854A KR20180093141A KR 20180093141 A KR20180093141 A KR 20180093141A KR 1020170017854 A KR1020170017854 A KR 1020170017854A KR 20170017854 A KR20170017854 A KR 20170017854A KR 20180093141 A KR20180093141 A KR 20180093141A
Authority
KR
South Korea
Prior art keywords
food
color
meal
analysis
menu
Prior art date
Application number
KR1020170017854A
Other languages
Korean (ko)
Inventor
신종환
Original Assignee
주식회사 롭썬컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 롭썬컴퍼니 filed Critical 주식회사 롭썬컴퍼니
Priority to KR1020170017854A priority Critical patent/KR20180093141A/en
Publication of KR20180093141A publication Critical patent/KR20180093141A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72519
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Strategic Management (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

The present invention relates to a meal diary system by analysis of a food image based on color, which records a meal diary by photographing a user′s menu by using a smart terminal and analyzes the menu on the basis of the photographed menu image based on color. Also, the meal diary system by analysis of a food image based on color recommends the menu corresponding to the user in accordance with an analysis result. The meal diary system by analysis of a food image based on color comprises: a meal image receiving unit receiving the menu image photographed by a camera; a menu color sorting unit sorting the menu color in the menu image by cluster analysis; a depth learning forming unit learning and forming a depth nerve network sorting food by a menu color feature by a deep learning technique; a menu food sorting unit sorting the food based on the menu color by the depth nerve network; and a menu food analysis unit extracting nutrient evaluation and recommended food on the menu. According to the present invention, the meal diary system can deduct an effective result by applying a big data analysis technique such as the deep learning technique or cluster analysis by clearly setting an analysis element on analysis of a menu image based on five base colors.

Description

색상 기반 음식 이미지 분석을 통한 식사일기 시스템 { A meal calendar system using the image processing method based on colors }[0001] The present invention relates to a meal-calendar system,

본 발명은 스마트 단말로 자신의 식단을 촬영하여 식사일기를 기록하고, 촬영된 식단 이미지를 색상에 기초하여 식단을 분석하고, 분석결과에 따라 사용자에 맞는 식단을 추천하는, 색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 관한 것이다.The present invention relates to a color-based food image analysis, in which a user of a smart terminal photographs his / her diet and records a meal diary, analyzes the diet based on the color of the taken food image, and recommends a user- The present invention relates to a meal diary system.

일반적으로, 적절한 영양소의 섭취와 칼로리의 조절을 위한 식습관은 신체적 건강을 지켜주는 가장 기본적 것이지만 핵가족화와 여성의 사회활동의 증가로 인해 식사습관이 변화되면서 식습관이 바람직하지 못하게 되어 비만과 당뇨, 고혈압 등의 각종 생활습관병이 문제되고 있다.In general, the eating habits for proper nutrient intake and calorie control are the most basic ones to protect physical health, but due to the increase in the nuclear family and the social activities of women, eating habits are changed and eating habits become unfavorable. Obesity, diabetes, hypertension And various lifestyle-related diseases such as a disease are becoming a problem.

따라서 개인의 식사습관 및 활동습관을 조사하는 것은 피험자의 영양상태 분석이나 생활 습관의 교정 및 비만, 당뇨, 고혈압 등 질환의 개선 등과 관련하여 매우 중요한 일이다. 식사습관의 분석을 통해 평소 즐겨 먹는 음식, 많이 섭취하는 영양소, 부족한 영양소, 섭취하는 칼로리의 총량 등을 알 수 있다. 또한, 식사를 통해 섭취하는 칼로리와 활동을 통해 소비하는 칼로리 사이의 균형 여부를 판단할 수 있다. 의사나 영양사, 운동처방사 등은 이러한 분석결과를 토대로 피험자의 잘못된 식습관을 개선하고 부족한 활동이나 운동을 보충할 수 있는 식사처방, 운동처방을 내릴 수 있다.Therefore, it is very important to investigate the eating habits and activity habits of the individual in relation to the nutritional status analysis of the subject, the correction of lifestyle, and the improvement of diseases such as obesity, diabetes and hypertension. Through the analysis of eating habits, you can see the foods you usually enjoy, the nutrients you eat a lot, the nutrients you lack, and the total amount of calories consumed. In addition, it is possible to judge whether the balance between the calories consumed through meals and the calories consumed through activities. Physicians, nutritionists, and exercise prescribers can use the results of these analyzes to improve their eating habits and to prescribe meals and exercise prescriptions that can supplement deficient activities or exercises.

이러한 식사 습관의 조사에 있어서 기존의 방법들은 대체로 일대일 상담이나 설문지를 이용하는 방법이 활용되어 왔다. 일대일 상담은 간호사나 의사가 직접 환자를 대면한 상태에서 환자의 식사, 활동 습관을 문진하는 형식으로, 시간의 제약상 현실적으로 꼼꼼하고 정확하게 이루어지기 어려웠다. 이러한 어려움 때문에 환자에게 미리 소정 양식의 식사일기 설문지를 제공하여 이를 미리 작성해 오도록 하는 방법이 이용되었다. 식사일기 양식은 날짜와 요일, 끼니 등이 구분된 공란 형식의 표로써, 해당 날짜 혹은 요일, 끼니에 해당하는 식사 내용을 피험자가 직접 기재 하도록 하는 방법이다[특허문헌 1]. 그러나, 상기 설문지를 이용하는 방법은 기재의 자유로움에 의해 실질적이고 정확한 조사가 가능한 장점이 있는 반면, 반대로 음식의 종류나 활동의 종류 등이 제약 없이 표현되어 섭취분량의 주관적 판단, 음식명이나 활동의 불명확한 전달 등으로 인한 문제가 발생할 수 있다. 특히 이러한 많은 조사 내용을 바탕으로 전문가가 일일이 음식의 섭취량, 활동 시간 등을 계산하여 영양 섭취 비율이나, 칼로리 등을 산출하는 것은 시간이 오래 걸리고 매우 단순하며 지루한 작업이다.In the investigation of these eating habits, the existing methods have been mostly utilized by one-on-one counseling or using questionnaires. One-on-one counseling was a form in which the patient's diet and activity habits were interviewed by a nurse or doctor directly in front of the patient, but it was difficult to be meticulously and precisely realistic in terms of time constraints. Due to this difficulty, a method of providing a predetermined form of diary questionnaire to the patient in advance and filling it out in advance was used. The meal diary form is a table in which the date, the day of the week, and the meal are separated, and the subject directly describes the meal contents corresponding to the date or day of the week and the meal. [Patent Document 1]. However, the method using the questionnaire is advantageous in that it can be practically and precisely investigated by the freedom of description. On the other hand, the kind of food or the kind of activity is expressed without restriction, so that subjective judgment of the amount of intake, Problems may arise due to unclear transmission or the like. In particular, it is time consuming and tedious to calculate the nutrient intake rate, calorie, etc. by calculating the amount of food consumed and the activity time of each person based on many researches.

따라서 이러한 문제를 해결하기 위하여, 어플리케이션을 이용하여 식사일기를 제공하는 기술이 제시되고 있다[특허문헌 2,3,4]. 즉, 상기 종래기술은 사용자가 항상 휴대하는 스마트폰 등 이동통신 단말기를 이용하여, 캘린더에서 날짜를 선택하여 식단을 입력하여 식습관을 기록하고 기록된 내용을 분석하여 표시하는 기술이다. 또한, 식사정보를 기록하면 자동으로 식사에 대한 열량을 추정하는 기술도 제시되고 있다. 이들 기술 중 카메라로 식단을 촬영하나, 촬영된 식단 이미지를 영상사 등 전문가에 의해 수동적으로 분석한다. 또한, 식단 영상 데이터를 분석하여 식단을 평가하는 기술이 제시되고 있으나, 식단을 평가하기 위한 구체적인 수단이 제시되지 못하고 있다[특허문헌 5].Therefore, in order to solve such a problem, a technique of providing diary diary by using an application has been proposed [Patent Document 2, 3, 4]. That is, in the related art, the user selects a date on a calendar by using a mobile communication terminal such as a smart phone, which is always carried by the user, inputs a diet, records the dietary habits, and analyzes and displays the recorded content. In addition, a technology for automatically estimating the calorie for a meal is provided when the meal information is recorded. Among these techniques, the camera is used to photograph the food, but the image of the food is manually analyzed by a specialist such as a video engineer. In addition, a technology for evaluating the diet by analyzing the image data of the diet has been proposed, but a specific means for evaluating the diet has not been proposed [Patent Document 5].

[특허문헌 1] 한국 공개특허공보 제10-2005-0029903호(2005.03.29.공개)[Patent Document 1] Korean Published Patent Application No. 10-2005-0029903 (published on March 29, 2005) [특허문헌 2] 한국 공개특허공보 제10-2015-0034426호(2015.04.03.공개)[Patent Document 2] Korean Patent Laid-Open Publication No. 10-2015-0034426 (published on April 03, 2013) [특허문헌 3] 한국 공개특허공보 제10-2015-0016046호(2015.02.11.공개)[Patent Document 3] Korean Published Patent Application No. 10-2015-0016046 (published Feb. 11, 2015) [특허문헌 4] 한국 공개특허공보 제10-2007-0107970호(2007.11.08.공개)[Patent Document 4] Korean Published Patent Application No. 10-2007-0107970 (published on November 11, 2007) [특허문헌 5] 한국 공개특허공보 제10-2009-0046991호(2009.05.12.공개)[Patent Document 5] Korean Published Patent Application No. 10-2009-0046991 (published on May 12, 2009)

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 스마트 단말로 자신의 식단을 촬영하여 식사일기를 기록하고, 촬영된 식단 이미지를 색상에 기초하여 식단을 분석하고, 분석결과에 따라 사용자에 맞는 식단을 추천하는, 색상 기반 음식 이미지 분석을 통한 식사일기 시스템을 제공하는 것이다.It is an object of the present invention to solve the above-mentioned problems, and it is an object of the present invention to provide a smart terminal which records a meal diary of a self terminal, records a meal diary, analyzes the dietary frame based on color, Based diary image analysis, which recommends a proper diet for the diary.

또한, 본 발명의 목적은 촬영된 식단 이미지를 기초 색상(붉은색, 노란색, 초록색, 검정색, 흰색)을 기준으로 군집분석을 수행하여 주요 색상을 분석하고, 각 색상에 기초한 음식을 심층학습(deep learning) 방법에 의해 분석하는, 색상 기반 음식 이미지 분석을 통한 식사일기 시스템을 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for analyzing a main color by performing a cluster analysis based on a basic color (red, yellow, green, black, white) based food image analysis, which is analyzed by a color-based learning method.

상기 목적을 달성하기 위해 본 발명은 색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 관한 것으로서, 카메라에 의해 촬영된 식단 이미지를 수신하는 식사이미지 수신부; 식단 이미지에서 식단 색상을 군집분석(cluster analysis)으로 분류하는 식단색상 분류부; 심층학습(deep learning) 방법에 의하여 식단 색상 특징(feature)으로 음식을 분류하는 심층 신경망을 학습시켜 형성하는 심층학습 형성부; 상기 심층 신경망에 의하여 식단 색상으로부터 음식을 분류하는 식단음식 분류부;, 및, 식단에 대하여 영양 평가 및 추천음식을 추출하는 식단음식 분석부를 포함하는 것을 특징으로 한다.In order to accomplish the above object, the present invention is directed to a meal diary system through color-based food image analysis, comprising: a meal image receiving unit for receiving a meal image taken by a camera; A menu color classification unit for classifying the color of the meal into cluster analysis in the menu image; An in-depth learning forming unit for learning a deep neural network that classifies food as a meal color feature by a deep learning method; A dietary food classifying unit for classifying the food from the color of the diet by the neural network, and a dietary food analyzing unit for nutritionally evaluating the dietary food and extracting the recommended food.

또, 본 발명은 색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 있어서, 상기 식단 색상은 붉은색, 노란색, 초록색, 검정색, 및, 흰색의 5가지 기초 색상으로 구분되는 것을 특징으로 한다.Further, the present invention is characterized in that, in a meal diary system through color-based food image analysis, the color of the meal is divided into five basic colors of red, yellow, green, black and white.

또, 본 발명은 색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 있어서, 상기 군집분석은 색상 세분화를 먼저 수행하고, 비지도학습(un-supervised learning)을 통해 의사결정 트리(Decision Tree)를 구축하여 군집분석을 수행하는 것을 특징으로 한다.Further, in the present invention, in a meal diary system through color-based food image analysis, the cluster analysis is performed first by color segmentation, and a decision tree is constructed through un-supervised learning And a cluster analysis is performed.

또, 본 발명은 색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 있어서, 상기 군집분석은 군집 내 응집도를 최대화하고, 군집 간 분리도를 최대화하도록 군집을 형성하는 것을 특징으로 한다.In addition, the present invention is characterized in that, in a meal diary system through color-based food image analysis, the community analysis is performed to maximize the degree of cohesion in the community and to maximize the degree of separation between the communities.

또, 본 발명은 색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 있어서, 상기 심층학습 형성부는 음식의 식단 색상을 입력으로 하여, 음식 또는 음식 종류를 출력으로 하여, 신경망 구조로 학습시키되, 다수의 신경망 층으로 구분하여 여러 층을 학습시키는 것을 특징으로 한다.Further, in the meal diary system according to the color-based food image analysis, the deep learning forming unit learns the food color of the food, and outputs the food or the food type as a neural network structure, And a plurality of layers are divided into layers.

상술한 바와 같이, 본 발명에 따른 색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 의하면, 스마트 단말로 간단하게 식단을 촬영하면 식단을 자동 분석함으로써, 식단 내용을 일일이 자세히 기재하지 않아 간편하고 전문가의 도움 없이 간편하게 식사일기를 분석할 수 있는 효과가 얻어진다.As described above, according to the diary diary system through the color-based food image analysis according to the present invention, when the diary is simply photographed by the smart terminal, the diary is automatically analyzed and the contents of the diary are not described in detail. The effect of analyzing the diary can be obtained easily.

또한, 본 발명에 따른 색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 의하면, 식단 이미지의 분석을 5가지의 기초 색상을 기준으로 분석 요소를 명확하게 설정함으로써, 군집분석이나 심층학습(deep learning) 기법 등 빅데이터 분석 기법을 적용하여 효과적인 결과를 도출할 수 있는 효과가 얻어진다.In addition, according to the meal diary system through the color-based food image analysis according to the present invention, the analysis of the food image can be performed by clearly setting the analysis elements based on the five basic colors, It is possible to obtain an effective result by applying a big data analysis technique.

도 1은 본 발명을 실시하기 위한 전체 시스템에 대한 구성도.
도 2는 본 발명의 일실시예에 따른 색상 기반 음식 이미지 분석을 통한 식사일기 시스템의 구성에 대한 블록도.
도 3은 본 발명에서 사용하는 군집 분석의 원리를 나타낸 도면.
도 4는 본 발명에 따른 그래프 기반 군집화의 응집도와 분리도를 시각화한 도면.
도 5는 본 발명에 따른 프로토타입 기반 군집화의 응집도와 분리도를 시각화한 도면.
도 6은 본 발명에 따른 군집분석 기준의 분류를 나타낸 도면.
도 7은 본 발명의 일실시예에 따른 심층 신경망의 구조도.
도 8은 본 발명의 일실시예에 따른 심층 신경망 분석 과정을 나타낸 도면.
도 9는 본 발명의 일실시예에 따른 식사일기 클라이언트의 구성에 대한 블록도.
도 10은 본 발명의 일실시예에 따른 식사일정 화면의 예시도.
도 11은 본 발명의 일실시예에 따른 식단 촬영 화면의 예시도.
도 12는 본 발명의 일실시예에 따른 식단 및 결과 화면의 예시도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of an entire system for implementing the present invention. FIG.
FIG. 2 is a block diagram of a configuration of a meal diary system through color-based food image analysis according to an embodiment of the present invention; FIG.
Fig. 3 is a diagram showing a principle of a cluster analysis used in the present invention. Fig.
Figure 4 is a visualization of the cohesion and the degree of separation of the graph-based clustering according to the present invention.
Figure 5 is a visualization of the degree of cohesion and separation of the prototype-based clustering according to the present invention.
6 is a diagram showing a classification of a cluster analysis standard according to the present invention.
7 is a structural diagram of a depth-of-field network according to an embodiment of the present invention.
8 is a diagram illustrating a process of analyzing a neural network according to an embodiment of the present invention.
9 is a block diagram of a configuration of a diary client according to an embodiment of the present invention;
10 is an exemplary view of a meal schedule screen according to an embodiment of the present invention;
FIG. 11 is an exemplary view of a meal-taking screen according to an embodiment of the present invention; FIG.
FIG. 12 is an exemplary diagram of a food screen and a result screen according to an embodiment of the present invention; FIG.

이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the drawings.

또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.In the description of the present invention, the same parts are denoted by the same reference numerals, and repetitive description thereof will be omitted.

먼저, 본 발명을 실시하기 위한 전체 시스템 구성의 일례를 도 1을 참조하여 설명한다.First, an example of the overall system configuration for implementing the present invention will be described with reference to FIG.

도 1에서 도시한 바와 같이, 본 발명을 실시하기 위한 전체 시스템은 사용자의 스마트폰 등 스마트 이동단말(10), 스마트 이동단말(10)에 설치되는 식사일기 클라이언트(20), 기록된 식단 이미지를 분석하는 분석 서버(30)로 구성된다. 스마트 이동단말(10) 및 분석 서버(30)는 인터넷 등 네트워크(80)를 통해 서로 연결된다. 또한, 분석 서버(30)에서 데이터를 저장하기 위한 데이터베이스(40)를 추가적으로 구성될 수 있다.1, the overall system for implementing the present invention includes a smart mobile terminal 10 such as a smart phone of a user, a diary diary client 20 installed in the smart mobile terminal 10, And an analysis server 30 for analysis. The smart mobile terminal 10 and the analysis server 30 are connected to each other through a network 80 such as the Internet. In addition, a database 40 for storing data in the analysis server 30 may be additionally configured.

스마트 이동단말(10)은 사용자가 이용하는 스마트폰, 태블릿PC 등 통상의 컴퓨팅 기능을 갖춘 모바일 단말기로서, 식단 이미지를 촬영할 수 있는 카메라를 구비한다. 또한, 식사일기 클라이언트(20)는 스마트 이동단말(10)에 설치되어 실행되는 모바일 어플리케이션(또는 어플, 앱)이다.The smart mobile terminal 10 is a mobile terminal having ordinary computing functions such as a smart phone and a tablet PC used by a user, and has a camera capable of capturing a menu image. The diary diary client 20 is a mobile application (or an application or an app) installed and executed in the smart mobile terminal 10.

사용자는 스마트 이동단말(10)에 설치된 클라이언트(20)를 실행시켜, 자신이 먹은 식사의 식단을 카메라로 촬영하여 기록한다. 이때, 바람직하게는, 사용자는 클라이언트(20)의 지시에 따라 식사에 대한 정보를 간단하게 기록한다. 또한, 클라이언트(20)는 서버(30)에 접속하여 기록된 식단 이미지를 전송하거나, 식단 이미지에 대한 식사정보, 예를 들어, 식사 시간, 위치, 사용자가 직접 입력한 식사정보 등을 전송한다. 또한, 클라이언트(20)는 분석 서버(30)로부터 식사일기의 분석결과를 수신하여, 해당 결과를 스마트 이동단말(10)의 디스플레이에 표시할 수 있다.The user executes the client 20 installed in the smart mobile terminal 10, captures and records the diet of the meal he / she has eaten with the camera. At this time, preferably, the user simply records the information on the meal according to the instructions of the client 20. [ In addition, the client 20 accesses the server 30 to transmit the recorded image of the menu, or transmits the meal information for the menu image, for example, the meal time, the location, and the meal information directly input by the user. In addition, the client 20 can receive the analysis result of the meal diary from the analysis server 30 and display the result on the display of the smart mobile terminal 10.

이하에서, 식사일기 클라이언트(20)가 하는 작업 또는 사용자가 하는 작업은 스마트 이동단말(10)에서 수행되는 것이므로, 설명의 편의를 위해 클라이언트(20) 또는 스마트 이동단말(10)이 수행하는 것으로 설명한다. 즉, 클라이언트(20) 또는 스마트 이동단말(10)을 혼용한다. 또한, 사용자가 식사 일기와 관련된 작업을 처리하기 위한 입력 데이터는 스마트 이동단말(10)의 입력장치를 통해 입력되고, 그 처리 결과는 스마트 이동단말(10)의 화면 등 출력장치를 통해 출력된다. 이하에서, 사용자가 어떤 작업을 수행하는 설명은 스마트 이동단말(10)을 통해 수행하는 작업임을 의미한다.Hereinafter, since the work performed by the diary client 20 or the user is performed by the smart mobile terminal 10, it is described that the client 20 or the smart mobile terminal 10 performs the operation for convenience of explanation. do. That is, the client 20 or the smart mobile terminal 10 is mixed. In addition, input data for a user to process a diary entry is inputted through an input device of the smart mobile terminal 10, and the processing result is outputted through an output device such as a screen of the smart mobile terminal 10. Hereinafter, the description of a user performing a task is an operation performed through the smart mobile terminal 10.

분석 서버(30)는 통상의 어플리케이션 서버로서, 식사 일기를 관리하거나 분석하는 서버이다. 특히, 분석 서버(30)는 클라이언트(20)로부터 사용자가 촬영하거나 기록한 식단 이미지 등 식사 정보를 수신하고, 식사 정보의 각 식사 끼니를 분석하여 평가한다. 또한, 분석 서버(30)는 클라이언트(20)에 식단의 분석결과나 추천할 식사 내용 등을 지시한다.The analysis server 30 is a normal application server and is a server that manages or analyzes diary diaries. In particular, the analysis server 30 receives the meal information such as a meal image taken or recorded by the user from the client 20, and analyzes and evaluates each meal of the meal information. In addition, the analysis server 30 instructs the client 20 to analyze the results of the dietary analysis and recommend dietary contents.

구체적으로, 분석 서버(30)는 각 식단 이미지를 색상 기반으로 군집화하여 분석하고, 분석결과에 따라 각 식사 또는 끼니를 자동으로 평가한다. 즉, 일실시예로서, 분석 서버(30)는 각 식사 끼니의 데이터에 대하여 사전에 정해진 규칙에 따라 자동으로 평가한다.Specifically, the analysis server 30 analyzes each meal image by color-based clustering and automatically evaluates each meal or meal according to the analysis result. That is, in one embodiment, the analysis server 30 automatically evaluates the data of each meal according to a predetermined rule.

또한, 분석 서버(30)는 사용자의 식사 일기에 대한 평가를 이용하여, 향후에 사용자에게 권장할 식단 내용을 산출하고, 산출된 식단의 추천 내용을 클라이언트(20) 또는 스마트 이동단말(10)로 전송한다.In addition, the analysis server 30 may calculate the recommended diet content for the user in the future using the evaluation of the meal diary of the user, and transmit the recommended content of the calculated diet to the client 20 or the smart mobile terminal 10 send.

한편, 식사일기 클라이언트(20)와 분석 서버(30)는 통상의 클라이언트와 서버의 구성 방법에 따라 구현될 수 있다. 즉, 전체 시스템의 기능들을 클라이언트의 성능이나 서버와 통신 량 등에 따라 분담될 수 있다. 예를 들어, 클라이언트(20)가 단순히 식단 이미지만을 촬영하고 서버(30)가 식단 이미지의 전처리나 분석 등 모든 작업을 수행할 수 있다. 또는, 클라이언트(20)가 식단 이미지 촬영뿐만 아니라 식단 이미지의 분석 등 모든 작업을 수행하고 서버(30)는 데이터나 백업 기능만 수행할 수도 있다. 또는, 클라이언트(20)에서 식단 이미지를 촬영하고 간단한 분석을 수행하나, 서버(30)에서 빅데이터 분석이나 딥러닝 등을 수행하도록 분담할 수 있다. 이하에서는 식사일기 시스템으로 설명하나, 서버-클라이언트의 구성 방법에 따라 다양한 분담 형태로 구현될 수 있다.Meanwhile, the diary client 20 and the analysis server 30 may be implemented according to a method of configuring a normal client and a server. That is, the functions of the entire system can be shared according to the performance of the client, the amount of communication with the server, and the like. For example, the client 20 may simply photograph the image of the menu and the server 30 may perform all operations such as preprocessing and analysis of the menu image. Alternatively, the client 20 may perform all tasks, such as image analysis of the food image as well as the image capture of the diet, and the server 30 may perform only data or backup functions. Alternatively, the client 20 may take a diet image and perform a simple analysis, but the server 30 may share a large data analysis or a deep run. Hereinafter, the meal diary system will be described, but it can be implemented in various forms according to the server-client configuration method.

데이터베이스(40)는 등록된 사용자 정보를 저장하는 사용자DB(41), 사용자가 기록한 식단 이미지 등 식사일기를 저장하는 식사기록DB(42), 각 사용자의 식사 일기에 대하여 평가하고 추천할 식단 내용을 저장하는 분석결과DB(43)로 이루어진다. 그러나 상기 데이터베이스(40)의 구성은 바람직한 일실시예일 뿐이며, 구체적인 장치를 개발하는데 있어서, 접근 및 검색의 용이성 및 효율성 등을 감안하여 데이터베이스 구축이론에 의하여 다른 구조로 구성될 수 있다.The database 40 includes a user DB 41 for storing registered user information, a meal record DB 42 for storing a meal diary such as a meal image recorded by the user, a meal list to be evaluated and recommended for each diary of each user And a DB 43 for storing analysis results. However, the configuration of the database 40 is only a preferred embodiment. In the development of a specific device, the database 40 may have a different structure in consideration of ease of access and retrieval, efficiency, and the like.

다음으로, 본 발명에서 사용하는 식단 색상에 대하여 보다 구체적으로 설명한다.Next, the color of the menu used in the present invention will be described in more detail.

본 발명에서 사용하는 기초 색상(또는 기초 식단색상)은 붉은색, 노란색, 초록색, 검정색, 흰색 등 총 5가지의 색상으로 구분된다. 식단 색상의 각 기초 색상은 각 음식의 영양과 깊은 연관성을 갖는다. 따라서 식단의 색상만으로 식단의 영양학적 측면의 분석이 가능하다. 각 식단 색상에 대한 영양과의 관계의 예는 다음과 같다.The basic color (or basic food color) used in the present invention is divided into five colors such as red, yellow, green, black, and white. Each base color of the diet color has a deep correlation with the nutrition of each food. Therefore, it is possible to analyze the nutritional aspects of the diet with only the color of the diet. An example of the relationship between nutrition for each diet color is as follows.

먼저, 붉은색은 심장의 기운을 북돋는 성분이 많다. 리코펜(Lycopene)은 항암작용이 뛰어나며, 면역력 강화와 혈관 건강에 도움을 준다. 또한 안토시아닌(Anthocyanin)은 아스피린보다 10개 강한 소염 작용을 하며 암이나 동맥경화 예방에도 효과적이다.First, red color has many elements that encourage the energy of the heart. Lycopene has excellent anticancer activity, and it helps immunity and vascular health. Anthocyanin also has 10 stronger anti-inflammatory actions than aspirin and is effective against cancer and arteriosclerosis.

다음으로, 노란색은 위장 건강과 소화를 돕는다. 카로티노이드(Carotinoid)는 항암 효과와 항산화 작용, 노화 예방효과등이 있다. 또한 성인병 예방, 혈액순환 개선에 도움이 된다. 노란색은 에너지를 상징하는 색으로 운동신경을 활성화 시키고 근육에 사용되는 에너지를 만드는데 효과적으로 알려져 관절염 치료제에 자주 사용된다.Next, yellow helps stomach health and digestion. Carotinoids have anticancer, antioxidant and anti-aging properties. It also helps prevent adult diseases and improve blood circulation. Yellow is a symbol of energy that activates motor nerves and is known to be effective in creating energy for muscles and is often used in arthritis treatments.

다음으로, 초록색은 간의 피로를 풀어주고 폐의 노폐물에 효과적이다. 또한 안정을 주고 신경을 완화해 주는 효과가 있다. 엽록소(Chlorophyll)와 비타민 C는 신진대사를 원할하게 하고 세포 재생을 도와 체내의 중금속 같은 유해 물질을 빨아 들려 몸 밖으로 배출해 디톡스 효과가 있다.Next, the green color relieves liver fatigue and is effective in lung waste. It also has the effect of stabilizing and alleviating the nervous system. Chlorophyll and vitamin C have a detoxifying effect by helping metabolism, helping regenerate cells, and absorbing harmful substances such as heavy metals in the body and discharging them out of the body.

다음으로, 검정색은 신장, 방광 및 생식기 계통 기능을 원활하게 한다. 안토시아닌(Anthocyanin)은 세포를 보호하는 기능이 풍부해 면역력 증진 및 노화를 방지하고 피부에 탄력을 주며, 눈의 피로를 감소시켜 시력을 보호한다.Next, black smoothes the kidney, bladder and genital system functions. Anthocyanin is an abundance of cell-protecting functions that prevent immunity and aging, give skin elasticity, and reduce eye fatigue to protect your eyesight.

다음으로, 흰색은 폐와 호흡기 질환에 노출되는 것을 방지한다. 흰색을 내는 색소인 플라보노이드(Flavonoid) 계열의 안토크산틴(Anthoxanthine)은 체네 산화작용을 억제해 유해물질을 몸 밖으로 배출하고 면역력을 높여 각종 세균과 바이러스에 대한 저항력을 키워준다.Next, white prevents exposure to lung and respiratory diseases. Anthoxanthine (Flavonoid), a pigment that gives white color, suppresses Chernic Oxidation and releases harmful substances out of the body, enhances immunity and increases resistance to various bacteria and viruses.

다음으로, 본 발명의 일실시예에 따른 색상 기반 음식 이미지 분석을 통한 식사일기 시스템을 도 2를 참조하여 설명한다. 본 발명에 따른 식사 정보 기록 시스템은 앞서 분석 서버(30)로 구현되는 시스템으로 설명하나, 이들 기능들의 전부 또는 일부가 클라이언트(20)로 구현될 수도 있다.Next, a meal diary system through color-based food image analysis according to an embodiment of the present invention will be described with reference to FIG. The meal information recording system according to the present invention is described as a system implemented in the analysis server 30 in advance, but all or some of these functions may be implemented in the client 20.

도 2에서 보는 바와 같이, 본 발명에 따른 식사 정보 기록 시스템(30)은 카메라에 의해 촬영된 식단 이미지를 수신하는 식사이미지 수신부(31), 식단 이미지에서 식단 색상을 분류하는 식단색상 분류부(32), 심층학습(deep learning) 방법에 의하여 식단 색상 특징(feature)으로 음식을 분류하는 심층 신경망을 형성하는 심층학습 형성부(33), 심층 신경망에 의하여 식단 색상으로부터 음식을 분류하는 식단음식 분류부(34), 및, 식단에 대하여 영양 평가 및 추천음식을 추출하는 식단음식 분석부(35)로 구성된다.2, the meal information recording system 30 according to the present invention includes a meal image receiving unit 31 for receiving a food image taken by a camera, a food color classification unit 32 for sorting food color in the food image, , An in-depth learning forming unit (33) for forming a depth neural network for classifying food into color features by a deep learning method, a food learning classifying unit (33) for classifying food from the color of the food by the neural network, (34), and a diet food analysis unit (35) for extracting nutritional evaluation and recommended foods with respect to the diet.

먼저, 식사이미지 수신부(31)는 카메라에 의해 촬영된 식단 이미지를 수신한다. 식단 이미지는 앞서 스마트 이동단말(10)의 카메라에 의해 촬영된 이미지이다.First, the meal image receiving unit 31 receives the image of the meal taken by the camera. The diet image is an image captured by the camera of the smart mobile terminal 10 in advance.

다음으로, 식단색상 분류부(32)는 식단 이미지에서 식단 색상을 분류한다. 이때, 식단 색상은 붉은색, 노란색, 초록색, 검정색, 흰색 등 총 5가지의 기초 색상에 의해 분류된다. 또한, 바람직하게는, 군집분석(cluster analysis) 방법에 의해 분류된다.Next, the menu color classification section 32 classifies the menu color in the menu image. At this time, the color of the diet is classified by five basic colors such as red, yellow, green, black and white. It is also preferably classified by a cluster analysis method.

군집분석은 데이터가 속해 있는 군집을 모르는 상태에서 유사한 혹은 동질의 데이터끼리 군집(Cluster)로 묶어 주는 분석 방법이다. 군집분석은 유의미하거나 유용한 데이터의 구조를 파악하여 활용하거나, 데이터의 구조를 이해하는 목적으로 분석 초기 탐색적 분석 단계에서 아주 많이 활용된다.Cluster analysis is a method of grouping clusters of similar or homogeneous data without knowing the cluster to which the data belongs. Cluster analysis is used extensively in the initial exploratory analysis phase for the purpose of identifying and utilizing meaningful or useful data structures or understanding the structure of data.

군집분석으로 색상 세분화를 먼저 수행하고, 비지도학습(un-supervised learning)을 통해 의사결정 트리(Decision Tree)를 구축하여 군집분석을 수행한다. 바람직하게는, 군집분석을 통해 만든 군집들을 분류하는 반지도학습(semi-supervised learning approach)를 적용할 수 있다.Color segmentation is performed first by cluster analysis, and a decision tree is constructed through un-supervised learning to perform cluster analysis. Preferably, a semi-supervised learning approach can be applied to classify communities made through cluster analysis.

한편, 데이터가 X와 Y의 2차원으로만 구성되어 있다면 산점도(scatter plot)를 그려서 눈으로 확인해보는 것만으로도 데이터 셋에 내재한 패턴, 군집 유무, 데이터 간 관계를 파악할 수 있다. 3차원도 3D 도표(plot)을 그려서 눈으로 확인할 수 있다. 하지만 4차원 이상 넘어가면 사람 눈으로 군집 유무 여부를 확인 판단하는게 어려워지므로, 이때 군집분석을 활용한다.On the other hand, if the data consists only of two dimensions of X and Y, it is possible to grasp the pattern, the presence of cluster, and the relationship between the data in the dataset just by visual inspection by drawing a scatter plot. 3D can also be visually confirmed by drawing a 3D plot. However, since it becomes difficult to judge whether or not there is a community by human eyes, it is necessary to use cluster analysis at this time.

군집분석에서 모델 생성, 평가의 기준은 주로 응집도(cohesion)와 분리도(separation) 척도를 사용한다. 도 3과 같이, 군집분석을 컴퓨터가 이해하도록 수식, 척도를 가지고 군집화의 원리를 나타내보면, 군집 내 응집도를 최대화하고, 군집 간 분리도를 최대화하도록 군집을 형성한다.In the cluster analysis, the criteria of model generation and evaluation mainly use the cohesion and separation scales. As shown in FIG. 3, the clustering principle is expressed with a formula and a scale so that the computer understands the cluster analysis. The cluster is formed to maximize the degree of cohesion in the cluster and maximize the separation between the clusters.

도 3에서 ①과 같이, 군집 1의 데이터와 중심(centroid) c1과의 거리 합을 최소화하고, 군집 2의 데이터와 중심(centroid) c2과의 거리 합을 최소화한다. 또한, ②와 같이, 군집 1의 중심(centroid) c1과 군집 2의 중심(centroid) c2과의 거리를 최대화한다.As shown in Fig. 3, the sum of the distance between the data of the cluster 1 and the centroid c 1 is minimized, and the sum of the distance between the data of the cluster 2 and the centroid c 2 is minimized. Further, as shown in ②, thereby maximizing the center (centroid) of the cluster center c 1 and 2 (centroid) and the distance c 2 of the first cluster.

즉, 군집분석 알고리즘의 근간에는 최적화 개념이 들어 있다.In other words, the basis of the cluster analysis algorithm includes the concept of optimization.

그래프 기반 군집화(Graph-based clustering)과 프로토타입 기반 군집화(Prototype-base clustering)의 두 가지 접근법 별로 나누어 구체적으로 설명한다.Graph-based clustering and Prototype-based clustering are described in detail.

먼저, 그래프 기반 군집화의 응집도(cohesion)와 분리도(separation)의 개념을 수식으로 표현하면 다음과 같다.First, the concept of cohesion and separation of graph-based clustering is expressed as follows.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

또한, 이를 시각화로 나타내면 도 4와 같다.This is shown in FIG. 4 as a visualization.

또한, 프로토타입 기반 군집화의 응집도(cohesion)와 분리도(separation)의 개념을 수식으로 표현하면 다음과 같다. 프로토타입(Prototype)이란 클러스터의 중심(centroid) 또는 메도이드(medoid)를 의미한다.Also, the concepts of cohesion and separation of prototype-based clustering are expressed as follows. Prototype means the centroid or medoid of a cluster.

[수학식 2]&Quot; (2) "

Figure pat00002
Figure pat00002

여기서, 응집도는 오차제곱합(SSE, sum of square)에 의해 구해진다.Here, the degree of cohesion is obtained by sum of squares (SSE).

또한, 이를 시각화로 나타내면 도 5와 같다.This is shown in Fig. 5 as a visualization.

한편, 군집분석을 구분할 수 있는 기준이 여러 개 있을 수 있다.On the other hand, there are several criteria that can distinguish cluster analysis.

도 6에서 보는 바와 같이, 한 군집 안에 부분군집이 있느냐 없느냐에 따라서 계층적 군집(hierarchical clustering)과 분할적 군집(partitional clustering)으로 나눌 수 있다. 계층적 군집은 한 군집 안에 부분군집이 있는 반면, 분할적 군집은 군집간 부분집합이나 중복없이 상호 배타적으로(exclusive) 존재한다.As shown in FIG. 6, it can be divided into hierarchical clustering and partitional clustering depending on whether there is a partial cluster in a cluster or not. Hierarchical clusters have partial clusters in one cluster, whereas partitional clusters are exclusive of each other without overlapping or overlapping clusters.

계층적 군집분석은 개별 데이터에서 시작해서 유사한 데이터끼리 군집으로 차근차근 묶어가는 기법인 응집형 방법(Aggolomerative, Bottom-up method)과, 응집형과는 반대로 모든 데이터를 하나의 군집에 속한다고 놓고, 차근차근 세부 군집으로 나누어가는 분리형 방법(Divisive, Top-down method)으로 구분할 수 있다.Hierarchical cluster analysis is based on the aggregation method (Aggolomerative, Bottom-up method), which starts from individual data and ties together similar data to a cluster, and that all data belongs to one cluster, (Divisive, top-down method).

분할적 군집(Partitional clustering) 방법에는 거리 기반 군집화 (distance-based clustering), 밀도 기반 군집화(density-based clustering), 신경망 기반 군집화 (neural network-based clustering) 등이 있다.Partitional clustering methods include distance-based clustering, density-based clustering, and neural network-based clustering.

식단색상 분류부(32)는 합성 색상 분류 방식으로 분류한다.The food color classification unit 32 classifies the color classification unit into a synthetic color classification system.

즉, 이미지나 그림을 픽셀 단위로 쪼개어 RGB 색상 컬러로 변환한 다음 군집분석 알고리즘에 기반하여 5대 색상으로 분류한다.That is, the image or picture is divided into pixels, converted into RGB color, and classified into five colors based on the cluster analysis algorithm.

각 기초색상의 RGB 색상값은 다음과 같다.The RGB color values of each basic color are as follows.

붉은색 : (R:255, G:000, B:000)Red color: (R: 255, G: 000, B: 000)

노란색 : (R:255, G:255, B:000)Yellow: (R: 255, G: 255, B: 000)

초록색 : (R:000, G:255, B:000)Green: (R: 000, G: 255, B: 000)

검정색 : (R:000, G:000, B:000)Black: (R: 000, G: 000, B: 000)

흰 색 : (R:255, G:255, B:255)White: (R: 255, G: 255, B: 255)

다음으로, 심층학습 형성부(33)는 심층학습(deep learning) 방법에 의하여 식단 색상 특징(feature)으로 음식을 분류하는 심층 신경망을 형성한다.Next, the in-depth learning forming unit 33 forms a depth neural network that classifies food into a food color feature by a deep learning method.

심층학습(Deep Learning) 방법은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions)를 시도하는 기계학습(machine learning) 방법의 집합으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야이다.The Deep Learning method is defined as a set of machine learning methods that try to achieve a high level of abstractions through a combination of various nonlinear transformation techniques. It is a field of machine learning.

심층학습 방법에 의하여, 학습을 시켜 심층 신경망(DNN : Deep Neural Network)을 형성한다. 심층 신경망의 구조는 도 7에서 나타나는 바와 같다. 도 7과 같은 심층 신경망은 학습에 의해 형성되고, 샘플 데이터 또는 실제 데이터가 축적될 수도록 심층 신경망은 더욱 진화될 수 있다.Deep Neural Network (DNN) is formed by learning by in-depth learning method. The structure of the deep layer neural network is shown in FIG. The in-depth neural network as shown in Fig. 7 is formed by learning, and the in-depth neural network can be further evolved so that sample data or actual data can be accumulated.

도 8에서 보는 바와 같이, 심층학습 형성부(33)는 음식의 식단 색상을 입력으로 하여, 음식 또는 음식 종류를 출력으로 하여, 신경망 구조로 학습시킨다. 특히, 바람직하게는, 심층학습 형성부(33)는 다수의 신경망 층으로 구분하여 여러 층을 효율적으로 학습시킬 수 있다.As shown in FIG. 8, the in-depth learning forming unit 33 learns the food color by inputting the color of the food, and outputs the food or the food type as a neural network structure. In particular, preferably, the deep learning forming unit 33 is divided into a plurality of neural network layers to efficiently learn a plurality of layers.

전통적인 기계학습은 사람이 특징값(feature)을 이해하기 쉽다는 장점이 있다. 사람이 특징값을 직접 설계하기 때문에 기계학습 알고리즘이 입력을 어떻게 처리하고, 어떤 계산 과정을 거쳐서 결과를 출력하는지 쉽게 이해할 수 있기 때문에 상대적으로 분석도 용이하다. 그러나 라벨링이 되어있지 않은 데이터를 비지도학습(unsupervised learning)으로 해결하려는 경우에 어떻게 접근해야 의미있는 특징값을 구할 수 있는지 모르는 경우가 많다. 이런 경우에 심층학습의 장점이 유리하다. 데이터의 양과 종류가 늘어나고 있는 상황에서 직접 특징값을 디자인하는 것은 현실적인 한계가 있다.Traditional machine learning has the advantage that people can easily understand features. Since a person directly designates a feature value, it is relatively easy to analyze the machine learning algorithm because it can easily understand how to process the input and output the result through a calculation process. However, in cases where unlabeled data is to be solved by unsupervised learning, it is often not known how to approach meaningful feature values. In this case, the benefits of in-depth learning are advantageous. It is a practical limitation to directly design feature values when the amount and type of data are increasing.

다음으로, 식단음식 분류부(34)는 앞서 생성한 심층 신경망을 이용하여, 식단 색상으로부터 음식을 분류한다. 즉, 식단음식 분류부(34)는 분류된 식단 색상을 상기 심층 신경망에 입력하고, 그 출력에 의해 음식을 분류 또는 추출한다.Next, the dietary food classification unit 34 classifies the food from the color of the meal using the above-described in-depth neural network. That is, the diet food classifier 34 inputs the classified color of the diet into the neural network, and classifies or extracts food by its output.

다음으로, 식단음식 분석부(35)는 분류된 음식과, 분류된 식단의 색상에 따라 각 식단에 따른 영양 평가를 수행한다. 그리고 영양 평가 및, 식단의 색상 평가에 따른 음식 추천 내용을 추출한다.Next, the diet food analyzer 35 performs the nutritional evaluation according to each meal according to the classified food and the color of the classified diet. And nutritional assessment and food recommendations based on the color evaluation of the diet.

다음으로, 본 발명의 일실시예에 따른 스마트 단말 상의 식사일기 시스템의 인터페이스 방법에 대하여 도 9 내지 도 12를 참조하여 설명한다.Next, a method of interfacing a meal diary system on a smart terminal according to an embodiment of the present invention will be described with reference to FIGS. 9 to 12. FIG.

도 9에서 보는 바와 같이, 식사일기 클라이언트(20)는 사용자의 명령을 입력받거나 메뉴 등을 출력하는 인터페이스부(28), 기록해야할 식사 일정을 관리하는 식사일정 관리부(21), 식단을 촬영하고 식단 내용을 기록하는 식단촬영 기록부(22), 및, 저장된 식단 이미지 등 식사기록을 서버(30)로 전송하는 식사기록 전송부(23)로 구성된다. 추가적으로, 식사기록 및 분석내용 등을 화면 상에 요약하거나 상세하게 표시하는 기록표시부(24), 또는, 식사기록 일정을 알람으로 알려주는 알람부(24) 등을 더 포함하여 구성될 수 있다. 또한, 데이터를 저장하기 위한 저장부(29)를 더 포함한다. 저장부(29)는 사용자 단말(10)의 메모리 등 저장장치를 이용하여 저장공간을 마련한다.9, the diary diary client 20 includes an interface unit 28 for receiving a command of a user or outputting a menu or the like, a meal schedule management unit 21 for managing a meal schedule to be recorded, And a meal recording transfer section 23 for transferring the meal record to the server 30, such as a stored meal image. In addition, it may further comprise a record display unit 24 for summarizing or detailing the meal record and analysis contents on the screen, or an alarm unit 24 for notifying the meal recording schedule with an alarm. Further, it further includes a storage unit 29 for storing data. The storage unit 29 provides a storage space using a storage device such as a memory of the user terminal 10. [

먼저, 인터페이스부(28)는 사용자의 명령을 입력받기 위한 화면(또는 사용자 인터페이스)을 제공한다. 인터페이스부(28)는 화면 상에 캘린더 화면, 식사일기 촬영화면, 식사일기 결과화면 등을 표시하고, 촬영된 식단 이미지를 입력받는다. 특히, 인터페이스부(28)는 통상의 터치스크린 방식의 사용자 인터페이스(UI) 또는 터치에 의한 그래픽 유저 인터페이스(GUI)를 제공한다. 이하에서 식사기록 클라이언트(20)의 기능들 중 사용자와의 인터페이스가 필요한 부분은 인터페이스부(28)를 통해 입력을 받거나 결과를 출력한다. 도 10은 식단을 촬영할 식사일기의 일정을 표시하는 화면의 예이다.First, the interface unit 28 provides a screen (or a user interface) for receiving a user command. The interface unit 28 displays a calendar screen, a meal diary shooting screen, a meal diary result screen, and the like on the screen, and receives the taken food image. In particular, the interface unit 28 provides a normal touch screen user interface (UI) or a touch graphic user interface (GUI). Hereinafter, a part of the functions of the meal recording client 20 that need to be interfaced with the user receives the input through the interface unit 28 or outputs the result. 10 is an example of a screen displaying the schedule of the meal diary to photograph the meal.

다음으로, 식사일정 관리부(21)는 기록해야할 식사 일정을 관리한다. 식사기록 일정은 식사 정보를 기록해야할 끼니에 대한 일정이다. 끼니는 아침, 점심, 저녁 등 적어도 3개로 구성되고, 간식 등 추가적인 끼니를 더 포함시킬 수 있다. 식사기록 일정은 일 단위, 월 단위, 또는 주 단위로 각각 해당 일의 각 끼니에 대하여 설정한다.Next, the meal schedule management unit 21 manages the meal schedule to be recorded. The meal record schedule is a schedule for meals to record meal information. The meal consists of at least three meals such as breakfast, lunch, and dinner, and can include additional meals such as snacks. The meal record schedule is set for each meal of the day on a daily, monthly or weekly basis.

다음으로, 식단촬영부(22)는 일정에 잡힌 끼니에 대하여 해당 끼니에 먹은 식단을 촬영하고 식단 내용을 기록한다. 카메라에 의해 촬영된 식단 이미지를 입력받는다. 또한, 식사기록부(22)는 식사 내용을 사전에 정해진 포맷으로, 음식명, 식사량, 메모 등을 추가로 입력받을 수 있다. 도 11은 촬영된 식단 이미지의 예를 나타낸다.Next, the meal photographing section 22 photographs the meal that has been eaten by the person in the meal, and records the contents of the meal. And receives the image of the meal taken by the camera. In addition, the meal recording unit 22 can additionally input the food name, meal amount, memo, etc. in a predetermined format. 11 shows an example of a photographed menu image.

다음으로, 식사기록 전송부(23)는 식단촬영 기록부(22)에 의해 기록되어 저장된 식단 이미지 등 식사기록을 서버(30)로 전송한다. 이때 식사기록은 주기적으로 서버(30)로 전송하거나, 사용자의 명령 등에 의해 서버(30)로 전송된다.Next, the meal record transfer section 23 transfers the meal record, such as a meal image recorded and stored by the meal record recording section 22, to the server 30. At this time, the meal record is transmitted to the server 30 periodically or by a command of the user.

또한, 결과표시부(24)는 기록되어 저장된 식사정보나 분석결과를 화면 상에 표시한다. 이때, 표나 그래프 등을 이용하여 사용자가 직관적으로 볼 수 있도록 제공할 수 있고, 이를 위해, 식사정보를 요약하거나, 통계처리 등으로 가공하여 표시할 수 있다. 도 12는 식단 이미지 및 분석결과 등을 표시한 화면의 예이다.Further, the result display section 24 displays the recorded and stored meal information or analysis result on the screen. At this time, the user can intuitively view the food using a table or a graph. For this purpose, the meal information can be summarized or processed and displayed by statistical processing. 12 is an example of a screen displaying a food image and an analysis result.

다음으로, 알람부(25)는 해당 끼니 시간이 도래하거나, 식단촬영 시간이 경과하면, 식사 일기를 작성하라는 알람을 출력한다.Next, the alarm unit 25 outputs an alarm to make a meal diary when the time of the corresponding meal arrives, or when the meal-taking time elapses.

이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.Although the present invention has been described in detail with reference to the above embodiments, it is needless to say that the present invention is not limited to the above-described embodiments, and various modifications may be made without departing from the spirit of the present invention.

10 : 스마트 이동단말 20 : 클라이언트
21 : 식사일정 관리부 22 : 식단촬영 기록부
23 : 식사기록 전송부 24 : 결과표시부
25 : 알람부 28 : 인터페이스부
30 : 식사일기 시스템
31 : 식단이미지 수신부 32 : 식단색상 분류부
33 : 심층학습 형성부 34 : 식단음식 분류부
35 : 식단음식 분석부
40 : 데이터베이스 80 : 네트워크
10: smart mobile terminal 20: client
21: Meal schedule management unit 22:
23: Meal record transfer unit 24: Result display unit
25: alarm unit 28: interface unit
30: Meal diary system
31: a food image receiving unit 32: a food color classification unit
33: deep learning forming unit 34:
35: Diet Food Analysis Department
40: Database 80: Network

Claims (5)

색상 기반 음식 이미지 분석을 통한 식사일기 시스템에 있어서,
카메라에 의해 촬영된 식단 이미지를 수신하는 식사이미지 수신부;
식단 이미지에서 식단 색상을 군집분석(cluster analysis)으로 분류하는 식단색상 분류부;
심층학습(deep learning) 방법에 의하여 식단 색상 특징(feature)으로 음식을 분류하는 심층 신경망을 학습시켜 형성하는 심층학습 형성부;
상기 심층 신경망에 의하여 식단 색상으로부터 음식을 분류하는 식단음식 분류부;, 및,
식단에 대하여 영양 평가 및 추천음식을 추출하는 식단음식 분석부를 포함하는 것을 특징으로 하는 색상 기반 음식 이미지 분석을 통한 식사일기 시스템.
In a meal diary system through color based food image analysis,
A meal image receiving unit for receiving a meal image taken by a camera;
A menu color classification unit for classifying the color of the meal into cluster analysis in the menu image;
An in-depth learning forming unit for learning a deep neural network that classifies food as a meal color feature by a deep learning method;
A diet food classifying unit for classifying food from the color of the meal by the depth neural network,
And a dietary food analysis unit for extracting nutritional evaluation and recommended foods with respect to the diet.
제1항에 있어서,
상기 식단 색상은 붉은색, 노란색, 초록색, 검정색, 및, 흰색의 5가지 기초 색상으로 구분되는 것을 특징으로 하는 색상 기반 음식 이미지 분석을 통한 식사일기 시스템.
The method according to claim 1,
Wherein the color of the meal is divided into five basic colors of red, yellow, green, black, and white.
제1항에 있어서,
상기 군집분석은 색상 세분화를 먼저 수행하고, 비지도학습(un-supervised learning)을 통해 의사결정 트리(Decision Tree)를 구축하여 군집분석을 수행하는 것을 특징으로 하는 색상 기반 음식 이미지 분석을 통한 식사일기 시스템.
The method according to claim 1,
Wherein the cluster analysis is performed by first performing color segmentation, and building a decision tree through un-supervised learning to perform cluster analysis. system.
제3항에 있어서,
상기 군집분석은 군집 내 응집도를 최대화하고, 군집 간 분리도를 최대화하도록 군집을 형성하는 것을 특징으로 하는 색상 기반 음식 이미지 분석을 통한 식사일기 시스템.
The method of claim 3,
Wherein said cluster analysis maximizes cohesion within a cluster and forms a cluster to maximize the degree of separation between the clusters.
제1항에 있어서,
상기 심층학습 형성부는 음식의 식단 색상을 입력으로 하여, 음식 또는 음식 종류를 출력으로 하여, 신경망 구조로 학습시키되, 다수의 신경망 층으로 구분하여 여러 층을 학습시키는 것을 특징으로 하는 색상 기반 음식 이미지 분석을 통한 식사일기 시스템.
The method according to claim 1,
Wherein the depth learning forming unit learns the color of the food based on the color of the food, and learns the food or the food type as the output, Diary system through.
KR1020170017854A 2017-02-09 2017-02-09 A meal calendar system using the image processing method based on colors KR20180093141A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170017854A KR20180093141A (en) 2017-02-09 2017-02-09 A meal calendar system using the image processing method based on colors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170017854A KR20180093141A (en) 2017-02-09 2017-02-09 A meal calendar system using the image processing method based on colors

Publications (1)

Publication Number Publication Date
KR20180093141A true KR20180093141A (en) 2018-08-21

Family

ID=63453882

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170017854A KR20180093141A (en) 2017-02-09 2017-02-09 A meal calendar system using the image processing method based on colors

Country Status (1)

Country Link
KR (1) KR20180093141A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858454A (en) * 2019-02-15 2019-06-07 东北大学 One kind being based on dual model self-adaptive kernel correlation filtering method for tracing
KR102024722B1 (en) * 2018-10-31 2019-11-04 이승보 System and Method for Marketing Online To Offline based on Artificial Intelligence Recommendation
KR20210008268A (en) * 2019-07-12 2021-01-21 동국대학교 산학협력단 Personalized nutrition management system and analysis method thereof
KR20210036031A (en) 2019-09-25 2021-04-02 주식회사 삼육오엠씨네트웍스 Chatbot-based meal calendar writing appratus
KR20240025240A (en) 2022-08-18 2024-02-27 동의대학교 산학협력단 Image deep learning-based blood sugar management method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050029903A (en) 2003-09-24 2005-03-29 주식회사 바이오스페이스 Inquiry paper and method for meal and activity habit
KR20070107970A (en) 2006-05-04 2007-11-08 에스케이 텔레콤주식회사 System and method for providing meal valuation, and server to achieve it
KR20090046991A (en) 2007-11-07 2009-05-12 주식회사 휴민텍 Meal recognitionin using pattern recognition technique
KR20150016046A (en) 2013-08-02 2015-02-11 울트라캡숑 주식회사 method and system for meal information entry
KR20150034426A (en) 2013-09-26 2015-04-03 주식회사 밀포미 System for Providing Meal Calendar using application and the Method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050029903A (en) 2003-09-24 2005-03-29 주식회사 바이오스페이스 Inquiry paper and method for meal and activity habit
KR20070107970A (en) 2006-05-04 2007-11-08 에스케이 텔레콤주식회사 System and method for providing meal valuation, and server to achieve it
KR20090046991A (en) 2007-11-07 2009-05-12 주식회사 휴민텍 Meal recognitionin using pattern recognition technique
KR20150016046A (en) 2013-08-02 2015-02-11 울트라캡숑 주식회사 method and system for meal information entry
KR20150034426A (en) 2013-09-26 2015-04-03 주식회사 밀포미 System for Providing Meal Calendar using application and the Method thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102024722B1 (en) * 2018-10-31 2019-11-04 이승보 System and Method for Marketing Online To Offline based on Artificial Intelligence Recommendation
CN109858454A (en) * 2019-02-15 2019-06-07 东北大学 One kind being based on dual model self-adaptive kernel correlation filtering method for tracing
CN109858454B (en) * 2019-02-15 2023-04-07 东北大学 Adaptive kernel correlation filtering tracking method based on dual models
KR20210008268A (en) * 2019-07-12 2021-01-21 동국대학교 산학협력단 Personalized nutrition management system and analysis method thereof
KR20210036031A (en) 2019-09-25 2021-04-02 주식회사 삼육오엠씨네트웍스 Chatbot-based meal calendar writing appratus
KR20240025240A (en) 2022-08-18 2024-02-27 동의대학교 산학협력단 Image deep learning-based blood sugar management method and system

Similar Documents

Publication Publication Date Title
Guntuku et al. What twitter profile and posted images reveal about depression and anxiety
KR20180093141A (en) A meal calendar system using the image processing method based on colors
Lu et al. goFOODTM: an artificial intelligence system for dietary assessment
JP6412429B2 (en) System and method for user specific adjustment of nutrient intake
CN109219801A (en) Real-time or instant online help is provided for individual to help them to realize personalized health target
US20190311230A1 (en) Generating hyperspectral image database by machine learning and mapping of color images to hyperspectral domain
King A content analysis of visual cancer information: prevalence and use of photographs and illustrations in printed health materials
WO2012094569A2 (en) Health monitoring system
Tay et al. Current developments in digital quantitative volume estimation for the optimisation of dietary assessment
KR102467340B1 (en) Customized nutrition care system using chatbot based query and response and biomarker data
Vallespin et al. Ensuring evidence-based safe and effective mHealth applications
CN109461490A (en) The processing method of healthy diet data, apparatus and system
CN104765980A (en) Intelligent diet assessment method based on cloud computing
Bosch et al. Integrated database system for mobile dietary assessment and analysis
Azzimani et al. An AI Based Approach for Personalized Nutrition and Food Menu Planning
Nag et al. Pocket dietitian: Automated healthy dish recommendations by location
JP2020194434A (en) Information processing device, method, and program
Temdee et al. Smart Care Environment with Food Recognition for Personalization Support: A Case Study of Thai Seniors
Mazzeo et al. Image Analysis and Processing. ICIAP 2022 Workshops: ICIAP International Workshops, Lecce, Italy, May 23–27, 2022, Revised Selected Papers, Part I
KR20100008464A (en) The individual-tailored lifestyle management system for the high risk group of chronic disease
Theodore Armand et al. Digital Anti-Aging Healthcare: An Overview of the Applications of Digital Technologies in Diet Management
Chhabra et al. Artificial Intelligence and Machine Learning Approaches for Understanding Food and Nutrients
McAllister et al. Semi-automated system for predicting calories in photographs of meals
Godinho et al. A Recommendation System of nutrition and physical activity for patients with type 2 diabetes mellitus
Probst et al. mHealth diet and nutrition guidance

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application