KR102329480B1 - Management system of cafeteria and operation method thereof - Google Patents
Management system of cafeteria and operation method thereof Download PDFInfo
- Publication number
- KR102329480B1 KR102329480B1 KR1020200137172A KR20200137172A KR102329480B1 KR 102329480 B1 KR102329480 B1 KR 102329480B1 KR 1020200137172 A KR1020200137172 A KR 1020200137172A KR 20200137172 A KR20200137172 A KR 20200137172A KR 102329480 B1 KR102329480 B1 KR 102329480B1
- Authority
- KR
- South Korea
- Prior art keywords
- meal
- food
- plate
- image
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title description 17
- 235000013305 food Nutrition 0.000 claims abstract description 204
- 235000012054 meals Nutrition 0.000 claims abstract description 112
- 235000021190 leftovers Nutrition 0.000 claims abstract description 53
- 238000012545 processing Methods 0.000 claims description 36
- 239000004615 ingredient Substances 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 8
- 235000005911 diet Nutrition 0.000 claims description 7
- 230000037213 diet Effects 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 3
- 230000001815 facial effect Effects 0.000 claims description 2
- 235000006694 eating habits Nutrition 0.000 abstract description 15
- 235000003715 nutritional status Nutrition 0.000 abstract description 10
- 238000011017 operating method Methods 0.000 abstract description 10
- 230000000694 effects Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 19
- 239000000463 material Substances 0.000 description 8
- 235000016709 nutrition Nutrition 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000291 postprandial effect Effects 0.000 description 6
- 235000012046 side dish Nutrition 0.000 description 6
- 238000007689 inspection Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 235000014347 soups Nutrition 0.000 description 5
- 240000008415 Lactuca sativa Species 0.000 description 4
- 240000007594 Oryza sativa Species 0.000 description 4
- 235000012041 food component Nutrition 0.000 description 4
- 235000012045 salad Nutrition 0.000 description 4
- 235000007164 Oryza sativa Nutrition 0.000 description 3
- 230000000378 dietary effect Effects 0.000 description 3
- 230000037406 food intake Effects 0.000 description 3
- 235000012631 food intake Nutrition 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 235000009566 rice Nutrition 0.000 description 3
- 230000003442 weekly effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002354 daily effect Effects 0.000 description 2
- 235000021186 dishes Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000005417 food ingredient Substances 0.000 description 2
- 238000003703 image analysis method Methods 0.000 description 2
- 235000021109 kimchi Nutrition 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 240000007124 Brassica oleracea Species 0.000 description 1
- 235000003899 Brassica oleracea var acephala Nutrition 0.000 description 1
- 235000011299 Brassica oleracea var botrytis Nutrition 0.000 description 1
- 235000011301 Brassica oleracea var capitata Nutrition 0.000 description 1
- 235000017647 Brassica oleracea var italica Nutrition 0.000 description 1
- 235000001169 Brassica oleracea var oleracea Nutrition 0.000 description 1
- 240000003259 Brassica oleracea var. botrytis Species 0.000 description 1
- 240000008067 Cucumis sativus Species 0.000 description 1
- 235000010799 Cucumis sativus var sativus Nutrition 0.000 description 1
- 244000000626 Daucus carota Species 0.000 description 1
- 235000002767 Daucus carota Nutrition 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 208000026935 allergic disease Diseases 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 235000018823 dietary intake Nutrition 0.000 description 1
- 235000015872 dietary supplement Nutrition 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 235000005686 eating Nutrition 0.000 description 1
- 230000020595 eating behavior Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 235000021462 rice dishes Nutrition 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H04N5/2257—
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Child & Adolescent Psychology (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
본 발명은 급식관리 시스템을 개시한다. 보다 상세하게는, 본 발명은 급식 대상이 되는 사용자가 섭취한 음식 및 이와 관련된 맞춤형 정보를 제공하고, 급식에서 발생하는 잔반을 관리할 수 있도록 한 급식관리 시스템 및 이의 운영방법에 관한 것이다.
본 발명의 실시예에 따르면, 스캐너 장치를 이용하여 급식대상자인 사용자와 식전 및 식후 식판을 식별하여 급식량 및 잔반량을 획득하고, 이에 기초하여 각 사용자들의 잔반정보 및 이와 연계된 유용한 정보를 제공함으로써 사용자들이 자신의 식습관, 영양상태 등을 용이하게 판단할 수 있으며, 사용자들 스스로 잔반을 줄이려는 시도를 유도할 수 있는 효과가 있다.The present invention discloses a food management system. More particularly, the present invention relates to a food service management system and an operating method thereof, which provide food consumed by a user as a food service target and customized information related thereto, and manage leftovers generated in the food service.
According to an embodiment of the present invention, by using a scanner device to identify a user who is a food subject and a plate before and after a meal to obtain the amount of food and the amount of leftover food, based on this, by providing information on the leftovers of each user and useful information related thereto Users can easily determine their eating habits and nutritional status, and there is an effect that can induce users to try to reduce leftovers on their own.
Description
본 발명은 급식관리 시스템에 관한 것으로, 급식 대상이 되는 사용자가 섭취한 음식 및 이와 관련된 맞춤형 정보를 제공하고, 급식에서 발생하는 잔반을 관리할 수 있도록 한 급식관리 시스템 및 이의 운영방법에 관한 것이다.The present invention relates to a food service management system, and to a food service management system and an operating method thereof, which provide food consumed by a user to be served and customized information related thereto, and manage leftovers generated in the food service.
현재, 학교, 기업 및 기타 단체급식소에서 식사를 배급받는 학생, 직장인 또는 급식대상자들은 동일한 식당 내에서 한끼 이상을 해결하는 경우가 다반사이다. 특히, 학생들은 주말을 제외한 일주일의 대부분의 점심을 학교내 급식소를 이용하게 되는데, 성장기에 있는 학생들에게 각종 영양소를 골고루 섭취할 수 있도록 하는 환경을 제공해야 한다. Currently, it is common for students, office workers, or meal recipients who receive meals at school, corporate and other group catering centers to have more than one meal in the same restaurant. In particular, students use the school cafeteria for lunch most of the week except for weekends, and it is necessary to provide an environment that allows students in the growing stage to consume various nutrients evenly.
그러나, 초등학교 저학년과 같이 아직 자신의 식사량을 해결하는데 익숙하지 않은 학생들은 밥을 잘 챙겨먹지 않는 경우가 많고 또한 편식이 있는 경우 전반적으로 반찬을 고르게 먹지 않는 경우가 많기 때문에 제대로 된 영향섭취가 이루어지고 있는지 판단할 수 있는 방법이 없으며, 이는 고학년이라 하더라도 마찬가지라 할 수 있다. However, students who are not yet accustomed to solving their own meals, such as the lower grades of elementary school, often do not eat well, and if they have a picky eater, they often do not eat side dishes evenly. There is no way to determine whether or not there is, and this is true even for seniors.
특히, 초등학생의 경우, 부모들은 자녀들의 편식에 대한 관리감독의 요구가 상당하다고 할 수 있으며, 학생들의 식습관과 관련하여, 식사속도, 식사량, 잔반 습관 등의 개선을 위한 방안을 고심하고 있다.In particular, in the case of elementary school students, it can be said that the parents' demands for supervision of their children's unbalanced diet are considerable, and in relation to the students' eating habits, they are contemplating ways to improve the eating speed, amount of food, and leftover habits.
또한, 기업의 카페테리아를 자주 이용하는 직장인들도 자신의 식습관을 확인하여 관리하고자 하며, 급식제도를 운영하는 병원 등에서도 간호사들이 입원환자의 음식 섭취량을 정확하게 파악하고자 하나, 현재 정확한 데이터 기반의 식습관 정보를 제공할 수 있는 서비스는 현재 존재하지 않는 실정이다.In addition, office workers who frequently use corporate cafeterias want to check and manage their eating habits, and even in hospitals that operate food service systems, nurses try to accurately understand the food intake of inpatients, but currently, accurate data-based dietary information is not available. There are currently no services that can be provided.
본 발명은 전술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 학교, 기업 및 병원 등에서 단체 급식을 제공하는 급식소에서 급식대상자에게 잔반량에 따라, 관련된 섭취정보 등의 유용한 정보를 제공하는 데 그 과제가 있다.The present invention has been devised to solve the above problems, and the present invention is to provide useful information, such as related intake information, according to the amount of leftover food to the food subject in a food service facility that provides group meals in schools, companies, and hospitals, etc. There is a task.
전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 급식관리 시스템은, 인식코드를 스캐닝하여 식판을 식별하고, 급식대상인 사용자에게 제공된 식사전 식판에 대한 식전영상을 획득하는 식전 스캐너; 인식코드를 스캐닝하여 식판을 식별하고, 상기 사용자에게 제공된 식사후 식판을 스캐닝하여 식별된 식판을 통해 상기 사용자의 식사후 식판에 대한 식후영상을 획득하는 식후 스캐너; 및 상기 식전 스캐너 및 식후 스캐너를 제어하여 획득된 식사전후 영상에 기초하여 상기 사용자에 대한 섭취정보를 생성하는 관리서버를 포함하고, 상기 관리서버는, 상기 식전 스캐너 및 식후 스캐너와 연결되어 획득된 스캐닝 데이터를 수신하는 장치 제어부와, 상기 장치 제어부가 수신한 스캐닝 데이터에 대응하여 상기 섭취정보를 생성하는 영상 처리부를 포함하고, 상기 영상 처리부는, 상기 식전 스캐너에 의해 획득된 영상 내에서 식판을 인식하고, 상기 식전 스캐너에 의해 획득된 영상 내에서 식판 내 음식물의 종류를 인식한다.In order to solve the above problems, the food service management system according to an embodiment of the present invention includes: a pre-meal scanner for scanning a recognition code to identify a plate, and obtaining a pre-meal image for a pre-meal plate provided to a user who is a food target; a post-meal scanner that scans an identification code to identify a plate, and scans the post-meal plate provided to the user to obtain a post-meal image of the user's post-meal plate through the identified plate; and a management server for generating intake information for the user based on the before and after images obtained by controlling the pre-meal scanner and the post-meal scanner, wherein the management server is connected to the pre-meal scanner and the post-meal scanner to obtain scanning A device control unit for receiving data, and an image processing unit for generating the intake information in response to the scanning data received by the device control unit, wherein the image processing unit recognizes a plate in the image obtained by the pre-meal scanner and , recognizes the type of food in the plate in the image acquired by the pre-meal scanner.
또한, 급식대상인 상기 사용자를 식별하는 식별장치를 더 포함할 수 있다.In addition, it may further include an identification device for identifying the user to be fed.
또한, 상기 영상 처리부가 식판 내 음식물의 종류를 인식하는 것은, 상기 식전 스캐너에 의해 획득된 영상을, 기계학습을 위한 복수의 음식물 관련 학습영상에 대한 지식 데이터 베이스에 축적된 학습영상과 비교함으로써 각 구역별 영상 인식결과를 이용하여 음식물의 종류를 인식하는 것이다.In addition, the image processing unit recognizes the type of food in the plate by comparing the image acquired by the pre-meal scanner with the learning image accumulated in the knowledge database for a plurality of food-related learning images for machine learning. The type of food is recognized by using the image recognition result for each area.
또한, 상기영상 처리부가 식판 내 음식물의 종류를 인식하는 것은, 상기 식전 스캐너에 의해 획득된 영상을, 기계학습을 위한 복수의 음식물 관련 학습영상에 대한 지식 데이터 베이스에 축적된 학습영상과 비교함으로써 영상 인식결과와 미리 정해진 메뉴를 매칭시켜 음식물의 종류를 인식하는 것이다.In addition, the image processing unit recognizing the type of food in the plate is obtained by comparing the image acquired by the pre-meal scanner with the learning image accumulated in the knowledge database for a plurality of food-related learning images for machine learning. The type of food is recognized by matching the recognition result with a predetermined menu.
또한, 상기 관리서버는 식단표를 생성하는 식단 생성 모듈을 포함하는 급식소 관리부를 더 포함하고, 상기 미리 정해진 메뉴는 상기 식단표를 참조하여 도출되는 것이다.In addition, the management server further includes a food service management unit including a meal generation module for generating a meal table, the predetermined menu is derived with reference to the menu table.
또한, 식판 내 음식물의 종류를 인식한 후, 상기 영상 처리부가 식판 내 음식물의 부피를 계산하기 전, 상기 영상 처리부가, 온도, 색상, 형태 및 높이 중 적어도 하나를 이용하여 음식물의 경계면을 따라 영역을 설정하고, 설정된 영역별로 음식물의 종류에 따라 재료를 인식하는 것이다.In addition, after recognizing the type of food in the plate, before the image processing unit calculates the volume of food in the plate, the image processing unit uses at least one of temperature, color, shape, and height to form an area along the boundary of food is set, and the material is recognized according to the type of food for each set area.
또한, 상기 영상 처리부가 식판을 인식하는 것은, 상기 식전 스캐너에 의해 획득된 영상 내에서, 식판 내 밥, 국, 반찬 또는 그릇이 각각 담기는 구역들을 식판에 형성된 경계면을 통해 구획하고, 식판의 방향을 인식하여 음식물이 담기는 구역을 확정하는 것이다.In addition, the recognition of the plate by the image processing unit is, in the image acquired by the pre-meal scanner, partitioning the regions in which rice, soup, side dishes or dishes are placed in the plate through the interface formed on the plate, and the direction of the plate It is to determine the area in which food is placed by recognizing
또한, 상기 영상 처리부가 식판 내 음식물의 부피를 계산하는 것은, 상기 식전 스캐너에 의해 획득된 영상에 포함된 깊이값을 이용하여 음식물 경계면 내에 높이를 추출하고, 경계면과 높이를 이용하여 부피를 계산하는 것이다.In addition, the calculation of the volume of the food in the plate by the image processing unit is to extract the height within the food boundary using the depth value included in the image obtained by the pre-meal scanner, and calculate the volume using the boundary and the height will be.
또한, 상기 영상 처리부는, 상기 식후 스캐너에 의해 획득된 영상 내에서 식판을 인식하고, 상기 식후 스캐너에 의해 획득된 영상 내에서 식판 상의 음식물의 경계면을 따라 영역을 설정하고, 상기 식후 스캐너에 의해 획득된 영상을 이용하여 식판 내 영역별 음식물의 부피를 계산하고, 음식물을 분류하고 식전 음식물과 매칭하는 것이다.In addition, the image processing unit, recognizes the plate in the image acquired by the post-prandial scanner, sets an area along the boundary surface of the food on the plate in the image acquired by the post-meal scanner, and obtains by the post-prandial scanner It calculates the volume of food for each area on the plate using the image, classifies the food, and matches it with the food before a meal.
또한, 상기 영상 처리부가 식판을 인식하는 것은, 상기 식후 스캐너에 의해 획득된 영상 내에서, 식판상의 음식물의 경계면을 따라 영역을 설정하는 것이고, 상기 영상 처리부가 음식물을 분류하고 식전 음식물과 매칭하는 것은, 기계학습을 위한 지식 데이터 베이스의 학습영상을 이용하여 메뉴 내 재료를 인식하고, 산출된 부피량에 기초하여 메뉴별 및 재료별 잔반량을 계산함으로써 잔반정보를 생성하는 것이다.In addition, when the image processing unit recognizes the food plate, the image processing unit sets the area along the boundary surface of the food on the plate in the image acquired by the post-meal scanner, and the image processing unit classifies the food and matching it with the food before the meal , to generate leftover information by recognizing the ingredients in the menu using the learning image of the knowledge database for machine learning, and calculating the remaining amount for each menu and each material based on the calculated volume amount.
본 발명의 실시예에 따르면, 스캐너 장치를 이용하여 급식대상자인 사용자와 식전 및 식후 식판을 식별하여 급식량 및 잔반량을 획득하고, 이에 기초하여 각 사용자들의 섭취정보 및 이와 연계된 유용한 정보를 제공함으로써 사용자들이 자신의 식습관, 영양상태 등을 용이하게 판단할 수 있으며, 사용자들 스스로 잔반을 줄이려는 시도를 유도할 수 있는 효과가 있다.According to an embodiment of the present invention, by using a scanner device to identify a user who is a food subject and a plate before and after a meal to obtain the amount of food and the amount of leftover food, and based on this, by providing each user's intake information and useful information related thereto Users can easily determine their eating habits and nutritional status, and there is an effect that can induce users to try to reduce leftovers on their own.
또한, 본 발명의 실시예에 따르면, 급식대상자 뿐만 아니라, 급식소 관리자, 영양사 등이 시스템을 통해 획득한 잔반정보 등을 활용하여 각 급식대상자들의 영양 섭취정보 뿐 아니라, 음식성향 및 식사행태 등을 파악할 수 있고, 그 결과를 급식에 반영하여 식사의 질을 개선하고, 잔반 축소를 유도할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, not only the catering subjects, but also the food service center managers, nutritionists, etc. utilize the leftover information obtained through the system to grasp the nutritional intake information of each meal subject as well as food tendencies and eating behaviors. There is an effect that can improve the quality of the meal and induce the reduction of leftovers by reflecting the result in the meal service.
도 1은 본 발명의 실시예에 따른 급식관리 시스템이 적용된 급식소의 구성을 모식화한 도면이다.
도 2는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버의 구조를 나타낸 도면이다.
도 3a 및 도 3b는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버를 구성하는 사용자 관리부 및 급식소 관리부의 구조를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버의 구성부 중, 영상 처리부의 구성을 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 급식관리 시스템의 운영방법을 나타낸 도면이다.
도 6a 및 도 6b는 본 발명의 실시예에 따른 급식관리 시스템의 잔반정보 생성을 위한 영상 분석방법을 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 급식관리 시스템에서 이용하는 스캐너의 구조를 나타낸 도면이다.1 is a diagram schematically illustrating the configuration of a food service station to which a food service management system according to an embodiment of the present invention is applied.
Figure 2 is a view showing the structure of the management server of the food management system according to an embodiment of the present invention.
3a and 3b are diagrams showing the structures of the user management unit and the food service management unit constituting the management server of the food service management system according to an embodiment of the present invention.
4 is a view showing the configuration of the image processing unit among the components of the management server of the food service management system according to an embodiment of the present invention.
5 is a view showing an operating method of the food management system according to an embodiment of the present invention.
6A and 6B are diagrams illustrating an image analysis method for generating leftover information of a food service management system according to an embodiment of the present invention.
7 is a view showing the structure of the scanner used in the food management system according to an embodiment of the present invention.
설명에 앞서, 명세서 전체에서 어떤 부분이 어떤 구성요소를 "구비" 또는 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부(Unit)", 및 "...모듈(Module)" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어, 소프트웨어 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Prior to the description, when a part in the entire specification "includes" or "includes" a certain component, it does not exclude other components, but may further include other components unless otherwise stated. means there is In addition, terms such as "...unit" and "...module" described in the specification mean a unit that processes at least one function or operation, which is hardware, software, or hardware and a combination of software.
또한, 본 명세서에서 "실시예"라는 용어는 예시, 사례 또는 도해의 역할을 하는 것을 의미하나, 발명의 대상은 그러한 예에 의해 제한되지 않는다. 또한, "포함하는", "구비하는", 및 "갖는" 등의 다른 유사한 용어가 사용되고 있으나, 청구범위에서 사용되는 경우 임의의 추가적인 또는 다른 구성요소를 배제하지 않는 개방적인 전환어(Transition word)로서 "포함하는(Comprising)"이라는 용어와 유사한 방식으로 포괄적으로 사용된다.In addition, the term "embodiment" herein means serving as an illustration, example, or illustration, but the subject matter of the invention is not limited by such examples. In addition, other similar terms such as "comprising", "comprising", and "having" are used, but when used in the claims, an open transition word that does not exclude any additional or other elements. is used in a similar manner to the term "comprising" as inclusive.
본 명세서에 설명된 다양한 기법은 하드웨어 또는 소프트웨어와 함께 구현될 수 있거나, 적합한 경우에 이들 모두의 조합과 함께 구현될 수 있다. 본 명세서에 사용된 바와 같은 "부(Unit)", "모듈(Module)" 및 "시스템(System)" 등의 용어는 마찬가지로 컴퓨터 관련 엔티티(Entity), 즉 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행 시의 소프트웨어와 등가로 취급할 수 있다. 예를 들어, 프로그램 모듈은 하나의 컴포넌트와 등가 혹은 둘 이상의 컴포넌트의 조합으로 구성될 수 있다. 또한, 본 발명에서는 서버 또는 단말기에서 실행되는 애플리케이션 프로그램 및 하드웨어 모두가 모듈단위로 구성될 수 있고, 하나의 물리적 메모리에 기록되거나, 둘 이상의 메모리 및 기록매체 사이에 분산되어 기록될 수 있다.The various techniques described herein may be implemented in conjunction with hardware or software, or a combination of both, where appropriate. As used herein, terms such as “Unit,” “Module,” and “System” likewise refer to computer-related entities, i.e. hardware, a combination of hardware and software, software or It can be treated as equivalent to software at the time of execution. For example, a program module may be configured as equivalent to one component or a combination of two or more components. In addition, in the present invention, both the application program and hardware executed in the server or terminal may be configured in module units, and may be recorded in one physical memory, or may be recorded while being distributed between two or more memories and recording media.
이하, 도면을 참조하여 본 발명의 바람직한 실시예에 따른 급식관리 시스템 및 이의 운영방법을 설명한다.Hereinafter, a food service management system and an operating method thereof according to a preferred embodiment of the present invention will be described with reference to the drawings.
도 1은 본 발명의 실시예에 따른 급식관리 시스템이 적용된 급식소의 구성을 모식화한 도면이다.1 is a diagram schematically illustrating the configuration of a food service station to which a food service management system according to an embodiment of the present invention is applied.
도 1을 참조하면, 본 발명의 실시예에 따른 급식관리 시스템은 급식대상인 사용자의 ID카드를 스캐닝하여 사용자를 식별하는 제1 스캐너(100), 인식코드를 스캐닝하여 식판을 식별하고, 사용자에게 제공된 식사전 식판에 대한 식전영상을 획득하는 제2 스캐너(110), 식사후 식판을 스캐닝하여 식별된 식판을 통해 사용자의 식사후 식판에 대한 식후영상을 획득하는 제3 스캐너(120) 및, 상기 제1 내지 제3 스캐너를 제어하여 획득된 식사전후 영상에 기초하여 섭취정보를 생성하는 관리서버(200)를 포함할 수 있다.Referring to Figure 1, the food management system according to an embodiment of the present invention is a
본 발명의 실시예에 따른 급식관리 시스템은 학교의 구내식당의 다수에게 배식을 제공하는 소정의 급식소(1)에 설치될 수 있고, 복수의 스캐닝 장치 및 이와 연결되며 표시수단을 갖는 관리서버(200)로 이루어질 수 있다.The food service management system according to an embodiment of the present invention may be installed in a predetermined
제1 스캐너(100)는 급식대상자인 식별하는 역할을 하는 것으로, 사용자가 소지한 ID카드를 스캐닝하고 그 결과를 관리서버(200)에 전송함으로써 관리서버(200)가 저장된 개인정보를 참조하여 해당 사용자가 급식대상자임을 판별할 수 있도록 한다. 여기서, 상기 ID카드는 학생증, 명찰 및 사원증일 수 있고, 설계자의 의도에 따라 ID카드를 이용하는 것이 아닌 카메라를 통해 촬영된 사용자의 얼굴에 대한 안면인식 기법을 통해 사용자를 식별하는 방식도 적용될 수 있다. The
여기서, 사용자의 등교 또는 출근 시스템과 연계하여, 출근시 매일 해당 사용자의 모습을 촬영하여 데이터 베이스에 저장하고, 이는 추후 급식진행을 위한 식별시 데이터 베이스를 참조하여 비전인식 기술을 이용한 시스템의 외관, 즉 얼굴, 신발, 의상 또는 헤어 형태 등을 비전인식 기술을 적용하여 사용자를 식별시 그 정확도는 개선하는 데 활용될 수 있다.Here, in connection with the user's school or attendance system, the user's appearance is photographed every day at the time of going to work and stored in the database, which refers to the database at the time of identification for future catering, the appearance of the system using vision recognition technology, That is, when a user is identified by applying a vision recognition technology to a face, shoes, clothes, or hair shape, the accuracy can be improved.
또는, 스캐닝 방식이 아닌, 사용자가 소지한 휴대용 단말기와 통신을 수행하여 해당 사용자를 인식하는 방식이 적용될 수도 있다.Alternatively, a method of recognizing a corresponding user by performing communication with a portable terminal possessed by the user, rather than the scanning method, may be applied.
제2 스캐너(110)는 배식구를 통한 음식이 담긴 식사전 식판(6)을 스캐닝하고 그 영상을 관리서버(200)에 제공할 수 있다. 이때, 식사전 식판(6)의 일측에 형성된 인식코드도 함께 스캐닝함에 따라, 그 정보를 수신한 관리서버(200)는 각 식판들을 구별하고, 각 식판에 담긴 음식의 양 즉, 사용자별 급식량을 판단할 수 있게 된다. 상기의 인식코드는 바코드 또는 QR 코드 등으로 구현될 수 있다. The
제3 스캐너(120)는 퇴식구를 통해 잔반을 처리하기 전, 잔반이 담긴 식사후 식판(7)을 스캐닝하고 그 영상을 관리서버(200)에 제공할 수 있다. 여기서, 식사후 식판(7)의 인식코드를 스캐닝함에 따라, 그 정보를 수신한 관리서버(200)는 해당 식판(7)의 사용자와 사용자별 잔반량을 판단할 수 있게 되며, 이후 관리서버(200)는 급식량 및 잔반량에 기초하여 잔반정보를 산출함으로써, 섭취정보를 생성할 수 있게 된다.The
관리서버(200)는 급식소(1)의 일측, 바람직하게는 급식소(1)의 출구부근에 설치될 수 있고, 탑재된 디스플레이부(210)를 통해 각 사용자별 생성된 섭취정보를 표시할 수 있다.The
이러한 관리서버(200)는 네트워크를 통해 각 스캐너(100 ~ 130)들과 연결될 수 있고, 스캐너(100 ~ 130)들부터 전송되는 ID카드 스캐닝 결과, 식판 인식결과 및 식사전후 식판에 대한 영상 등을 통해, 해당 사용자와 그의 섭취정보를 생성 및 제공하게 된다.This
특히, 본 발명의 실시예에 따른 급식관리 시스템에서는 각 사용자별 섭취정보를 스캐너를 통해 획득한 영상에 영상 처리 기법을 적용하여 정량화하고 이를 수치, 텍스트 및 그래프 등의 형태로 제공할 수 있다. 이러한 관리서버(200)의 구성부에 대한 상세한 설명은 후술한다.In particular, in the food service management system according to an embodiment of the present invention, intake information for each user can be quantified by applying an image processing technique to an image obtained through a scanner and provided in the form of figures, texts and graphs. A detailed description of the components of the
전술한 구조에 따라, 본 발명의 실시예에 따른 급식관리 시스템은 급식소에 설치되며, 사용자를 확인하고, 식사 전후 식판에 대하여 스캐닝한 이미지를 이용하여 급식량 및 잔반량을 획득하며, 이에 기초하여 섭취정보를 생성하고, 이와 연계된 각종 영양과 관련된 정보를 제공함으로써 사용자들이 자신의 식습관 등을 용이하게 확인할 수 있다.According to the above-described structure, the food service management system according to an embodiment of the present invention is installed in a food service station, checks the user, and acquires the amount of food and leftover food using the scanned image of the plate before and after a meal, and intake based on this By generating information and providing information related to various nutrition related thereto, users can easily check their eating habits.
이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템에 포함되는 관리서버를 설명한다.Hereinafter, a management server included in the food service management system according to an embodiment of the present invention will be described with reference to the drawings.
도 2는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버의 구조를 나타낸 도면이다. 이하의 설명에서 본 발명의 관리서버를 구성하는 각 구성부들은 컴퓨터에 의해 실행 가능한 프로그램 형태로 구현될 수 있고, 컴퓨터에 의해 읽고 쓰기가 가능한 기록매체에 기록되어 관리서버에 탑재될 수 있다.Figure 2 is a view showing the structure of the management server of the food management system according to an embodiment of the present invention. In the following description, each component constituting the management server of the present invention may be implemented in the form of a program executable by a computer, and may be recorded on a recording medium that can be read and written by the computer and mounted on the management server.
도 2를 참조하면, 본 발명의 관리서버(200)는 사용자별 잔반정보를 표시하는 디스플레이부(210), 사용자를 급식대상자로 등록하고, 등록된 사용자들의 식습관 및 영양상태 중, 어느 하나를 포함하는 영양정보를 제공하는 사용자 관리부(220), 급식소를 등록하고, 등록된 급식소의 운영과 관련된 운영정보를 제공하는 급식소 관리부(230), 제1 내지 제3 스캐너와 연결되어 획득된 스캐닝 데이터를 수신하는 장치 제어부(240), 장치 제어부(240)가 수신한 스캐닝 데이터에 대응하여 잔반정보 및 섭취정보를 생성하는 영상 처리부(250) 및 사용자의 개인정보 및 급식소의 운영정보를 저장하는 데이터 베이스(260)를 포함할 수 있다.Referring to FIG. 2 , the
디스플레이부(210)는 관리서버(200)에서 각 사용자 별로 생성한 섭취정보를 화면상에 표시할 수 있다. 식사를 완료한 사용자는 식판 반납 이후 급식소에서 떠나기 전, 출구에 배치된 관리서버(200)의 디스플레이부(210)에 표시된 자신에 대한 섭취정보를 확인할 수 있다.The
여기서, 디스플레이부(210)는 타 구성부들과는 별도의 장치로 구현될 수 있고, 별도의 장소에 위치한 관리서버(200)의 본체와 네트워크를 통해 연결되어 잔반정보를 표시하는 형태로 구현될 수도 있고, 또는 관리서버(200)에서 디스플레이부(210)가 생략되며, 사용자들은 소지한 모바일 단말 또는 전자메일을 통해 전술한 잔반정보를 제공받는 형태로 구현될 수 있다.Here, the
사용자 관리부(220)는 급식대상자의 개인정보를 관리하는 기능을 제공할 수 있다. 본 발명의 급식관리 시스템에 의한 서비스를 제공받고자 하는 사용자는 미리 관리서버(200)에 등록이 되어 있어야 하며, 스캐너로부터 전송되는 ID카드의 인식결과와 데이터 베이스에 저장된 개인정보를 비교하여 급식대상자로서 등록여부를 판단할 수 있다.The
또한, 사용자 관리부(220)는 등록된 사용자에 대하여 식습관 및 영양상태와 관련된 영양정보를 관리 및 제공할 수 있으며, 이러한 기능을 구현하기 위한 사용자 관리부(220)의 구성에 대한 설명은 후술한다. In addition, the
급식소 관리부(230)는 본 발명의 급식관리 시스템이 설치된 급식소에 대한 각종 정보를 관리하는 기능을 제공할 수 있다. 이러한 급식소 관리기능으로는 급식소의 최대배식가능 인원, 소속된 영양사와 관련된 정보와, 일, 주 및 월단위의 식단에 대한 정보 등을 생성, 갱신, 삭제 및 확인 등을 포함할 수 있고, 이는 시스템 운영자 권한을 갖는 사용자에게 제공될 수 있다. The food
장치 제어부(240)는 관리서버(200)와 연결된 스캐너의 제어기능을 제공할 수 있다. 관리서버(200)는 하나 이상의 스캐너와 연결되어 그로부터 사용자 및 식판에 대한 정보를 수신할 수 있고, 장치 제어부(240)는 소정의 통신모듈 및 콘트롤러를 포함하며 네트워크를 통해 각 스캐너와 연결되어 이를 제어하여 필요한 정보를 수신할 수 있다.The
영상 처리부(250)는 스캐너로부터 수신한 식사전후 식판에 대한 영상을 영상처리 기법을 통해 분석하여 사용자별 급식량 및 잔반량을 산출하고, 이에 기초하여 섭취정보를 생성할 수 있다. The
데이터 베이스(260)는 관리서버(200)의 각 구성부들이 제공하는 기능을 수행하기 위한 개인정보, 급식소 정보 등을 저장할 수 있다. 또한 데이터 베이스(260)에는 관리서버(200)를 구동하기 위한 각종 설정값들이 저장될 수 있다.The
또한, 본 발명의 실시예에 따른 관리서버(200)는 사용자에 잔반정보를 제공하는 주요기능에도 수익발생을 위한 부가기능을 더 제공하는 광고 관리부(270)를 더 포함할 수 있다.In addition, the
일 예로서, 광고 관리부(270)는 데이터 베이스(260)에 저장된 개인정보에 기초하여 개인의 선호를 고려한 식품, 섭취 영양 성분을 고려한 건강 보조 식품, 식습관 분석을 통한 의료기기 및 개인의 선호를 반영한 식당 및 메뉴 등에 관한 광고를 디스플레이부(210)를 통해 표시하거나, 사용자의 모바일 단말기에 제공할 수 있다. 이러한 광고 관리부(270)가 제공하는 기능은 급식관리 시스템 운영자의 수익모델이 된다. As an example, the
또한, 본 발명의 실시예에 따라 파생되는 수익모델로서, 식단 관리 프로그램 및 섭취 정보, 영양 정보, 질병 확률 및 특화된 건강 상식 및 반찬에 대한 레시피 제공 등의 '프리미엄 서비스'를 도출할 수 있다.In addition, as a profit model derived according to an embodiment of the present invention, it is possible to derive a 'premium service' such as a diet management program and intake information, nutritional information, disease probability, and specialized health common sense and recipes for side dishes.
또한, 광고 관리부(270)는 공익적 기능으로서, 사용자에게 식사전 잔반 축소에 대한 홍보 또는 경각심을 높이기 위한 메시지를 제공할 수 있다. 일 예로서, 급식소에 방문한 사용자들에게 잔반량 감소시 환경보호의 효과가 있다는 메시지를 디스플레이부를 통해 표시할 수 있다.In addition, as a function of public interest, the
전술한 구조에 따라, 본 발명의 실시예에 따른 급식관리 시스템은 연결된 복수의 스캐너를 통해 사용자를 식별하고 잔반정보를 생성하여 화면을 통해 표시함으로써, 급식소 사용자들이 자신의 식습관, 일 예로서, 선호하는 식재료, 맛, 평균 식사량, 속도 등을 쉽게 확인할 수 있다.According to the above-described structure, the food service management system according to an embodiment of the present invention identifies the user through a plurality of connected scanners, generates leftover information and displays it on the screen, so that the food service users have their own eating habits, as an example, preference You can easily check the ingredients, taste, average meal amount, and speed.
이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템에 포함되는 구성부 중, 발명의 주요기능을 구현하는 사용자 관리부 및 급식소 관리부와, 영상 처리부에 대한 구성을 보다 상세히 설명한다.Hereinafter, with reference to the drawings, among the constituent units included in the food service management system according to an embodiment of the present invention, the configuration of the user management unit, the food service management unit, and the image processing unit for implementing the main functions of the present invention will be described in more detail.
도 3a 및 도 3b는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버를 구성하는 사용자 관리부 및 급식소 관리부의 구조를 나타낸 도면이고, 도 4는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버의 구성부 중, 영상 처리부의 구성을 나타낸 도면이다.3a and 3b are diagrams showing the structures of a user management unit and a food service management unit constituting the management server of the food service management system according to an embodiment of the present invention, and FIG. 4 is a management server of the food service management system according to an embodiment of the present invention. It is a diagram showing the configuration of an image processing part among the configuration parts of .
먼저, 도 3a를 참조하면, 본 발명의 관리서버의 사용자 관리부(220)는 하나 이상의 기능에 대응하는 모듈로 구성될 수 있고, 이러한 모듈들은 급식대상자에 한정하여 시스템내 사용자에게 기 발급된 ID카드를 이용하여 시스템내 등록여부를 확인하거나, 등록된 사용자들의 개인정보를 관리하는 개인정보 처리모듈(221), 각종 정보를 참조하여 개인의 식습관을 판단하는 식습관 판단모듈(222) 및, 현재 각 사용자별 영상상태를 산출하는 영상상태 추정모듈(223)을 포함할 수 있다.First, referring to FIG. 3A , the
개인정보 처리모듈(221)은 본 발명의 급식관리 시스템에 등록된 사용자들의 개인정보를 관리하는 기능을 구현하는 것으로, 시스템 운영자는 급식대상자에 대한 이름, 연락처 및 주소 등을 입력하여 사용자 계정을 생성할 수 있고, 개인정보 처리모듈은 그 계정마다 사용자의 식습관, 선호음식, 알레르기 보유유무, 현재 영양상태 등을 입력받아 개인정보를 생성 및 저장할 수 있다.The personal
식습관 판단모듈(222)은 사용자의 급식내역에 대응하여 각 사용자에 대한 식습관을 판단하고 그 정보를 저장할 수 있다. 사용자의 급식소 이용시, 식습관 판단모듈(222)은 매회 급식내역에 따라 각 급식시 제공된 음식의 종류, 식사시간 및 잔반량에 관한 정보를 이용하여 사용자의 식습관을 판단하게 된다. 이러한 식습관 판단결과는 개인정보에 반영될 수 있다.The eating
영양상태 추정모듈(223)은 사용자의 급식내역에 대응하여 각 사용자의 현재 영양상태를 추정하고 이를 영양정보로서 저장할 수 있다. 영양상태 추정모듈(223)은 사용자가 일정기간 내 급식소를 이용한 내역 및, 이용시 생성된 잔반정보에 따라 사용자가 섭취한 음식 및 음식량을 산출할 수 있고, 이에 기초하여 사용자의 현재 영양상태를 분석하여 영양정보를 생성할 수 있다. 이러한 영양정보는 식습관 정보와 더불어 개인정보에 반영될 수 있다.The nutritional
또한, 도 3b를 참조하면, 본 발명의 관리서버의 급식소 관리부(230)는 하나 이상의 모듈을 포함할 수 있고, 본 발명의 시스템에 설치되는 장소인 급식소와 관련된 정보를 관리하는 급식소 관리모듈(231)과, 그 급식소에 납품되는 식재료에 대한 검수와 관련된 절차를 진행하는 식재료 검수모듈(232)과, 매주 단위의 식단 스켸줄 정보를 생성 및 제공하는 식단 생성모듈(233)을 포함할 수 있다.In addition, referring to FIG. 3b , the food
급식소 관리모듈(231)은 본 발명의 급식관리 시스템이 설치된 급식소에 대한 정보 관리기능을 제공하는 것으로, 급식소의 최대배식가능 인원 및 소속된 영양사와 관련된 정보를 생성, 갱신 및 삭제할 수 있다.The food
식재료 검수모듈(232)은 급식소에 납품되는 식재료에 대한 검수 절차기능을 제공할 수 있다. 급식소에는 일 단위로 조리를 위한 식재료들이 납품될 수 있고, 급식소에 소속된 영양사들은 식재료 수령, 검수 및 창고적재의 절차진행에 따른 과정을 관리서버에 입력 및 추후 확인할 수 있다. 이에 따라, 식재료 검수모듈(232)이 제공하는 기능은 영양사 권한을 가진 계정에만 제한적으로 제공될 수 있다. The food
식단 생성모듈(233)은 시스템에 등록된 영양사들이 급식소에서 배급하는 음식에 대한 식단표를 생성할 수 있도록 하는 기능을 제공할 수 있다. 영양사들은 매월초 일주일 단위로 급식자들의 영양상태를 고려하여 식단을 만들고 식단 생성모듈(233)이 제공하는 UI를 통해 식단을 입력하여 식단정보를 생성할 수 있고, 이러한 식단정보는 일주일 단위로 관리서버(200) 및 이와 연결된 웹 사이트 등에 게시되게 된다. The
한편, 본 발명의 실시예에 따른 급식관리 시스템은 급식소에 설치되는 하나 이상의 스캐너를 통해 사용자의 ID카드를 스캐닝하여 급식대상자임을 식별할 뿐만 아니라, 식사 전후 식판을 스캐닝하여 급식량 및 잔반량을 획득하고 이에 기초하여 잔반정보를 생성할 수 있다.On the other hand, the food service management system according to an embodiment of the present invention not only identifies the food subject by scanning the user's ID card through one or more scanners installed in the food service station, but also scans the plate before and after a meal to obtain the amount of food and leftovers, Based on this, residual information may be generated.
*특히, 본 발명의 실시예에서는 스캐너를 통해 획득한 이미지에 대하여 영상 처리 기법을 적용하여 보다 정확한 섭취정보를 제공할 수 있으며, 관리서버는 상기의 영상 처리 기법을 적용하기 위한 영상 처리부를 포함할 수 있다.* In particular, in an embodiment of the present invention, more accurate intake information can be provided by applying an image processing technique to an image acquired through a scanner, and the management server may include an image processing unit for applying the image processing technique. can
도 4를 참조하면, 본 발명의 관리서버에 포함되는 영상 처리부(250)는 식사후 식판을 촬영한 식후영상을 전처리하는 전처리모듈(251), 저장된 영상 저장소(253)로부터 상기 식전영상을 제공받아 상기 식후영상과 비교하는 비교모듈(252), 비교모듈(252)에 의한 비교결과에 따라 잔반정보를 생성하는 잔반 추정모듈(254) 및 상기 잔반정보에 대응하여 수치, 텍스트 또는 그래프의 형태의 섭취정보를 생성 및 출력하는 섭취정보 생성모듈(255)을 포함할 수 있다.4, the
전처리모듈(251)은 스캐너로부터 식사전후 식판을 촬영한 영상을 비교를 위해 일정 크기로 변환 및 노이즈를 제거하여 영상에 대한 전처리를 수행할 수 있다. 식전영상은 영상 저장소에 식별된 식판별로 저장될 수 있고, 이후 식후영상이 입력되면 전처리후 비교모듈(252)에 제공하게 된다.The
비교모듈(252)은 전처리된 식전영상과 식후영상을 수치화하여 비교할 수 있다. 영상을 계조값을 갖는 복수의 화소로 구성되어 있으며, 비교모듈(252)은 각 화소의 계조값의 차를 계산하여 비교를 수행할 수 있다. The
영상 저장소(253)는 전처리된 식전영상을 식판별로 저장할 수 있고, 비교모듈(252)의 요청에 따라 식후영상에 대응하는 식전영상을 제공할 수 있다.The
영상 저장소(253)에 저장된 영상들은 비교절차가 수행되거나, 일정시간이 지나면 자동으로 삭제될 수 있다.The images stored in the
잔반 추정모듈(254)은 식전영상과 식후영상에 대응하여 급식량 및 잔반량을 판단하고, 이의 차 연산을 통해 잔반정보를 산출할 수 있다. 스캐너로부터 입력되는 영상에서 회색 또는 백색에 대응하며 영상의 각 측단과 연결되는 부분을 식판에 대응하는 부분으로 판단될 수 있고, 비교모듈은 식전영상 대비 식후영상에서 회색 또는 백색영역의 증가면적에 따라 잔반정보를 산출할 수 있다. The
또한, 잔반 추정모듈(254)은 영상에 기초하여 밥의 부피, 국의 높이, 반찬의 부피의 감소량을 추정하거나, 영상 전체의 밝기분포를 히스토그램화하고, 두 히스토그램의 차에 따라 음식물의 변동정도를 산출할 수 있다.In addition, the
섭취정보 생성모듈(255)은 잔반 추정모듈(254)에 의해 산출된 잔반정보에 따라, 수치, 텍스트 및 그래프 형태의 자료인 섭취정보를 생성할 수 있다. 이러한 섭취정보는 개인정보에 누적 기록될 수 있고, 관리서버의 디스플레이부를 통해 화면에 표시되거나, 네트워크를 통해 사용자의 단말기에 전송될 수 있다. The intake
또한, 본 발명의 실시예에 따른 영상 처리부(250)는 변동정도 추정시 그 정확도를 높이기 위한 보정수단을 더 포함할 수 있다.In addition, the
보정모듈(256)은 각 스캐너에 설치되는 하나 이상의 센서로부터 센싱값을 입력받고, 잔반 추정모듈(254)에 변동정도에 센싱값을 일정비율로 반영하여 잔반정보를 보정할 수 있다. The
즉, 보정모듈(256)은 스캐너에는 온도센서 및 로드셀과 같은 무게감지센서가 탑재될 수 있고, 감지된 식판의 온도 및 무게를 활용하여 보정값을 생성함으로써 잔반정보를 보정하게 된다. That is, the
일 예로서, 식사전후 식판의 온도차이가 크지 않은 경우, 특히 국 같은 음식의 섭취가 거의 발생하지 않은 것으로 판단할 수 있으며, 또한 식사전후 식판의 무게차이가 크지 않는 경우, 식사량이 매우 적은 것으로 판단 할 수 있다. As an example, when the temperature difference between the plate before and after a meal is not large, it can be determined that in particular, food such as soup hardly occurs, and when the difference in weight between the plate before and after a meal is not large, it is determined that the amount of food is very small can do.
식사에 포함된 국, 밥, 반찬의 종류를 인식하는 데 있어서, 김치의 경우 30°이상을 넘지 않는 것이 일반적이므로, 판단 기준에서 제외하거나, 국의 경우 40°이하의 경우를 제외하는 것과 같이 판단에 대한 보정을 수행할 수 있다In recognizing the types of soup, rice, and side dishes included in a meal, in the case of kimchi, it is generally not more than 30°. can be corrected for
보정모듈(256)은 센서들로부터 제공되는 센서값에 대하여 다양한 경우의 수가 설정됨에 따라 보정값을 생성할 수 있다. The
전술한 구조에 따라, 본 발명의 실시예에 따른 관리서버는 급식대상자 및 급식소에 대한 관리기능을 제공함과 동시에, 급식대상자들에게 잔반량및 음식 섭취량에 따른 섭취정보, 그리고, 이에 따른 섭취 영양성분 등에 대한 정보를 제공할 수 있다.According to the above-described structure, the management server according to an embodiment of the present invention provides a management function for catering subjects and food service stations, and at the same time, provides food service subjects with information on the amount of leftover food and food intake according to the amount of food consumed, and nutritional component intake accordingly. information can be provided, etc.
이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템의 운영방법을 설명한다.Hereinafter, an operating method of a food service management system according to an embodiment of the present invention will be described with reference to the drawings.
도 5는 본 발명의 실시예에 따른 급식관리 시스템의 운영방법을 나타낸 도면이다. 이하의 설명에서 각 단계별 주체는, 별도의 기재가 없더라도 전술한 본 발명의 급식관리 시스템을 이루는 복수의 스캐너 및 관리서버와, 이들을 구성하는 구성부가 된다.5 is a view showing an operating method of the food management system according to an embodiment of the present invention. In the following description, the subject of each stage becomes a plurality of scanners and management servers constituting the food service management system of the present invention described above, and a component constituting them, even if there is no separate description.
도 5를 참조하면, 본 발명의 실시예에 따른 급식관리 시스템의 운영방법은 제1 내지 제3 스캐너 및 관리서버를 포함하는 급식관리 시스템의 운영방법으로서, 급식대상인 사용자의 ID카드를 스캐닝하여 사용자를 식별하는 단계(S100), 식사전 식판의 인식코드를 스캐닝하여 식판을 식별하고, 사용자의 식판에 대한 식전영상을 획득하는 단계(S110), 식사후 식판을 스캐닝하여 식별된 식판을 통해 사용자의 식판에 대한 식후영상을 획득하는 단계(S120) 및, 획득된 식전영상 및 식후영상에 기초하여 전반정보를 산출하고, 잔반정보에 대응하는 섭취정보를 생성하는 단계(S130)를 포함할 수 있다.Referring to FIG. 5 , the operating method of the food service management system according to an embodiment of the present invention is an operating method of the food service management system including first to third scanners and a management server, and scans the ID card of the user who is the object of the meal. Step of identifying (S100), scanning the recognition code of the pre-meal plate to identify the plate, and obtaining a pre-meal image for the user's plate (S110), scanning the plate after a meal and scanning the plate after the meal to determine the user's It may include a step (S120) of obtaining a post-meal image for the plate, and a step (S130) of calculating overall information based on the obtained pre-meal image and post-meal image, and generating intake information corresponding to the leftover information.
급식대상인 사용자의 ID카드를 스캐닝하여 사용자를 식별하는 단계(S100)는 급식소에 설치된 제1 스캐너가 사용자가 제시한 ID카드를 스캐닝하여 그 정보를 관리서버에 전송하고, 관리서버가 해당 ID카드의 사용자가 급식대상자임을 식별하는 단계이다. In the step of identifying the user by scanning the ID card of the user who is the meal target (S100), the first scanner installed in the food service station scans the ID card presented by the user and transmits the information to the management server, and the management server sends the ID card of the corresponding ID card. This is the step of identifying that the user is a food subject.
다음으로, 식사전 식판의 인식코드를 스캐닝하여 식판을 식별하고, 사용자의 식판에 대한 식전영상을 획득하는 단계(S110)는 정상 사용자 즉, 급식대상자로 식별된 사용자가 식판을 골라 배식을 받으면, 제2 스캐너가 그 식판에 구비된 인식코드를 스캐닝하는 동시에, 식판에 담긴 음식을 스캐닝 하여 식사전 식판 영상을 생성하고, 그 정보를 관리서버에 전송하는 단계와, 관리서버가 인식코드 스캐닝 결과에 따라 해당 식판을 식별하고, 식전영상을 획득하는 단계로 이루어질 수 있다. 여기서, 식전영상은 관리서버의 영상 처리부에 의해 영상 처리되어 급식량을 산출하는 데 이용될 수 있다. Next, the step of identifying the plate by scanning the recognition code of the plate before a meal, and obtaining a pre-meal image for the user's plate (S110) is a normal user, that is, when a user identified as a food subject selects a plate and receives a meal, The second scanner scans the recognition code provided on the plate, and at the same time scans the food on the plate to generate a pre-meal plate image, and transmits the information to the management server; Accordingly, it may consist of a step of identifying the corresponding plate and acquiring a pre-meal image. Here, the pre-meal image may be image-processed by the image processing unit of the management server and used to calculate the amount of food.
식사후 식판을 스캐닝하여 식별된 식판을 통해 사용자의 식판에 대한 식후영상을 획득하는 단계(S120)는 식판별로 관리서버의 영상 처리부가 식사후 식판에 대한 영상인 식후영상을 획득하는 단계이다. 이러한 식후영상은 잔반량을 산출하는 데 이용될 수 있다.The step of scanning the plate after a meal and acquiring the post-meal image of the user's plate through the identified plate (S120) is a step in which the image processing unit of the management server acquires the post-meal image, which is an image of the plate after a meal, for each plate. This postprandial image can be used to calculate the amount of leftovers.
*이후, 획득된 식전영상 및 식후영상에 기초하여 잔반정보를 산출하고, 잔반정보에 대응하는 섭취정보를 생성하는 단계(S130)는 상기 S110 단계 및 S120 단계에서 산출한 급식량 및 잔반량의 차를 통해 실제 식사량에 대응하는 잔반정보 및 섭취정보를 생성하는 단계이다.* Thereafter, the step (S130) of calculating the remaining information based on the obtained pre-meal and post-meal images, and generating intake information corresponding to the remaining information (S130) is the difference between the amount of food and the amount of leftovers calculated in the steps S110 and S120. It is a step of generating leftover information and intake information corresponding to the actual meal amount through
특히, S130 단계에서는 영상 처리부가 급식량과 잔반량의 차에 따라 잔반정보를 산출함에 따라, 이러한 잔반정보는 해당 사용자의 실제 식사량을 나타내는 것으로 볼 수 있다. 또한, 본 발명에서는 이러한 잔반정보에 기초하여 사용자의 음식물 섭취량에 대한 섭취정보를 생성하고, 이를 수치, 텍스트 및 그래프 등의 형태로 출력함으로써 사용자에게 유용한 섭취정보를 제공하게 된다.In particular, in step S130, as the image processing unit calculates the leftover information according to the difference between the amount of food and the amount of leftovers, this leftover information can be viewed as representing the actual amount of meals of the corresponding user. In addition, the present invention provides useful intake information to the user by generating intake information about the user's food intake based on the leftover information and outputting it in the form of figures, texts, graphs, and the like.
또한, 도시되어 있지는 않지만, S130 단계 이후, 식사에 따른 섭취정보를 표시하는 단계 및 상기 섭취정보에 대응하여 쿠폰을 출력하는 단계를 더 포함할 수 있으며, 이러한 단계에 따라, 섭취정보를 통해 이용자의 정확한 섭취량을 판단할 수 있으며, 그 섭취량에 대한 섭취정보를 이용자에게 공급하여 칼로리 및 영양정보를 제공하고 잔반을 줄이기 위한 다양한 혜택으로서 커피 쿠폰 보상 등을 제공할 수 있다.In addition, although not shown, after the step S130, the step of displaying the intake information according to the meal and the step of outputting a coupon in response to the intake information may be further included, and according to this step, the user's It is possible to determine the exact amount of intake, and by supplying intake information about the intake to the user, it is possible to provide calorie and nutritional information and provide coffee coupon compensation as various benefits for reducing leftovers.
즉, 본 발명의 실시예에 따르면, 급식 공급자에게는 이용자들의 정확하고 구체적인 선호 음식 및 음식별 섭취량을 알려 급식의 질을 개선하고 잔반을 줄이기 위한 개선에 도움이 되는 정보를 제공할 수 있다.That is, according to an embodiment of the present invention, it is possible to provide information that is helpful in improving the quality of food service and reducing leftovers by notifying users of accurate and specific preferred food and intake amount for each food to the food service provider.
전술한 단계에 따라, 본 발명의 실시예에 따른 급식관리 시스템의 운영방법은 식판의 영상을 취득하는 단계에 따라 각 급식대상자들이 실제 식사량에 따른 섭취정보를 제공할 수 있고, 사용자는 이러한 섭취정보를 직접 확인하여 자신의 식습관을 확인 및 관리할 수 있게 된다.According to the above-described steps, the operating method of the food service management system according to an embodiment of the present invention can provide intake information according to the actual amount of food to each meal target according to the step of acquiring the image of the plate, and the user can provide such intake information You will be able to check and manage your own eating habits by directly checking the
이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템에서 급식제공 전후 잔반정보를 생성하는 방법을 상세히 설명한다. 이하의 단계에서 실행주체는 별도의 기재가 없더라도, 영상 처리부 및 그의 비교모듈이 된다.Hereinafter, with reference to the drawings, a method for generating the leftover information before and after the provision of meals in the food service management system according to an embodiment of the present invention will be described in detail. In the following steps, the executing entity becomes the image processing unit and its comparison module, even if there is no separate description.
도 6a 및 도 6b는 본 발명의 실시예에 따른 급식관리 시스템의 잔반정보 생성을 위한 영상 분석방법을 나타낸 도면이다.6A and 6B are diagrams illustrating an image analysis method for generating leftover information of a food service management system according to an embodiment of the present invention.
먼저, 도 6a를 참조하면, 식판을 인식하는 단계(S200)로서, 영상 처리부의 비교모듈이 스캐너가 촬영한 배식이 완료된 식판을 인식하는 단계이다. 상세하게는, 식판내 밥, 국, 반찬 및 그릇이 각각 담기는 구역들을 식판에 형성된 경계면을 통해 구획하고, 식판의 방향을 인식하여 음식물이 담기는 구역을 확정하게 된다.First, referring to FIG. 6A , as a step of recognizing a plate ( S200 ), the comparison module of the image processing unit recognizes the plate after the dispensing photographed by the scanner is completed. In detail, zones in which rice, soup, side dishes, and dishes are placed on the plate are partitioned through the boundary surface formed on the plate, and the direction of the plate is recognized to determine the zone in which food is placed.
다음으로, 식판상의 음식물을 분류하는 단계(S210)는 비교모듈이 식판내 구획된 구역별로 음식물의 종류를 인식하는 단계로서, 이미지 센서 즉 스캐너에 의해 획득된 영상을 기계학습을 위한 복수의 음식물 관련 학습영상에 대한 지식 데이터 베이스에 축적된 학습영상과 비교함으로써 각 구역별 영상 인식결과와 해당일의 메뉴를 매칭시켜 음식물을 판단하게 된다.Next, the step of classifying the food on the plate (S210) is a step in which the comparison module recognizes the type of food for each partitioned area in the plate, and the image acquired by the image sensor, that is, the scanner is related to a plurality of food for machine learning. By comparing the learning image with the learning image accumulated in the knowledge database for the learning image, the food is determined by matching the image recognition result for each area with the menu of the day.
이때, 매칭 성공률이 80 % 초과인 경우 즉시 결과를 영상 저장소에 저장하고, 80 % 이하인 경우 정의되지 않는 음식으로 분류하여 영상 저장소에 저장하게 된다.At this time, if the matching success rate is more than 80%, the result is immediately stored in the image storage, and if it is less than 80%, it is classified as undefined food and stored in the image storage.
음식물의 경계면을 따라 영역을 설정하는 단계(S220)는 구역별로 음식물의 경계면을 정확하게 설정해 주는 단계이다. 이때, 온도, 색상 및 형태 등이 고려될 수 있다. 일 예로서, 식판 내 음식물 중, 샐러드와 김치 사이를 정확하게 나누는 음식물 경계면을 설정하게 된다.The step of setting the area along the boundary surface of the food ( S220 ) is a step of accurately setting the boundary surface of the food for each zone. In this case, temperature, color and shape may be considered. As an example, among the foods on the plate, a food boundary that accurately divides between salad and kimchi is set.
다음으로, 영역별로 메뉴에 따라 재료를 인식하는 단계(S230)는 구역별 메뉴가 인식된 상태에서 음식물 경계면이 설정됨에 따라, 음식물 경계면이 이루는 영역 내 음식물을 이루는 재료를 식별하는 단계이다.Next, the step of recognizing the material according to the menu for each area ( S230 ) is a step of identifying the material constituting the food in the area formed by the food boundary as the food boundary is set while the menu for each area is recognized.
일 예로서, 제1 구역부터 제5 구역까지 구획된 식판에 대하여, 제1 구역에 샐러드가 담긴다고 가정하면, 제1 구역의 샐러드를 이루는 재료인 양배추, 브로콜리, 오이 및 당근 등을 각각 식별한다. 이러한 S230 단계에서도 기계 학습 및 영상 비교 절차가 수행될 수 있다. 이때, 제1 구역에 동일한 양의 샐러드가 담긴다고 가정한다 하더라도 식판별로 인식되는 재료의 양을 다를 수 있다.As an example, with respect to the plate partitioned from the first zone to the fifth zone, assuming that the salad is contained in the first zone, cabbage, broccoli, cucumber, carrot, etc., which are ingredients constituting the salad of the first zone, are identified respectively. . In this step S230, machine learning and image comparison procedures may be performed. In this case, even if it is assumed that the same amount of salad is contained in the first zone, the amount of ingredients recognized for each plate may be different.
이어서, 음식물의 부피를 계산하는 단계(S240)는 스캐너에 포함된 3D 센서를 통해 획득된 정보를 이용하여 음식별 경계면을 기준으로 각 음식별 부피를 인식하는 단계이다. 전술한 3D 센서는 피사체에 대한 깊이값(depth)를 측정할 수 있으며, 이를 통해 음식물 경계면 내에 높이를 추출하고, 경계면과 높이를 이용하여 부피를 산출함으로써 음식물의 양을 계산하게 된다.Next, the step of calculating the volume of food ( S240 ) is a step of recognizing the volume of each food based on the boundary surface for each food using the information obtained through the 3D sensor included in the scanner. The above-described 3D sensor can measure a depth value of a subject, and through this, extract a height within a food boundary surface, and calculate a volume by using the boundary surface and height to calculate the amount of food.
전술한 단계들에 따라, 영상 처리부는 획득한 식전영상을 저장하고, 이후 식사가 완료된 식판을 재 촬영한 식후영상을 이용하여 잔반정보를 생성할 수 있다.According to the above-described steps, the image processing unit may store the acquired pre-meal image, and then generate the leftover information using the post-meal image obtained by re-photographing the plate on which the meal is completed.
도 6b를 참조하면, 식판을 인식하는 단계(S300)로서, 영상 처리부의 비교모듈이 스캐너가 촬영한 배식이 완료된 식판을 인식하고, 식판 경계면을 따라 구역을 확정하는 단계이다.Referring to FIG. 6B , as a step of recognizing the plate ( S300 ), the comparison module of the image processing unit recognizes the plate that the scanner photographed and the plate is completed, and determines the area along the plate boundary.
식판상의 음식물의 경계면을 따라 영역을 설정하는 단계(S310)는 구역별로 음식물의 경계면을 정확하게 설정해 주는 단계이다.The step of setting the area along the boundary surface of the food on the plate ( S310 ) is a step of accurately setting the boundary surface of the food for each zone.
이어서, 영역별 음식물의 부피를 계산하는 단계(S320)는 음식별 경계면을 기준으로 스캐너에 포함된 3D 센서를 이용하여 획득된 정보에 따라 각 음식별 부피를 인식하는 단계이다. 이러한 S320 단계에서, 비교 모듈은 부피가 식전영상과 대비하여 음식물의 양이 5 % 이하로 판단되면 해당 구역의 메뉴 잔반량을 0 %로 간주하여 타 구역에 대한 음식물의 부피량을 산출하고, 음식물의 양이 5 % 를 초과하는 것으로 판단되면 이하의 S330 단계를 수행하게 된다.Next, the step of calculating the volume of food for each region ( S320 ) is a step of recognizing the volume of each food according to information obtained using the 3D sensor included in the scanner based on the boundary surface for each food. In this step S320, if the comparison module determines that the volume of food is 5% or less compared to the pre-meal image, the remaining amount of menu in the corresponding area is regarded as 0% and calculates the volume of food for other areas, If it is determined that the amount of is more than 5%, the following step S330 is performed.
음식물을 분류하고 식전 음식물과 매칭하는 단계(S330)는 기계 학습을 위한 지식 데이터 베이스의 학습영상을 이용하여 메뉴내 재료를 인식하고, 상기 S310 단계 및 S320 단계에서 산출된 부피량에 기초하여 메뉴별 및 재료별 잔반량을 계산함으로써 잔반정보를 생성하는 단계이다.In the step (S330) of classifying food and matching it with pre-meal food, the ingredients in the menu are recognized using the learning image of the knowledge database for machine learning, and each menu is based on the volume calculated in the steps S310 and S320. and generating residual information by calculating the residual amount for each material.
한편, 전술한 급식 시스템 운영방법에서 섭취정보를 생성하기 위해서는 식사전후 식판을 스캐닝하여 음식의 양을 파악함으로써 급식량, 잔반량 등을 획득하게 되며, 이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템에서 이용하는 스캐너의 구조를 설명한다.On the other hand, in order to generate intake information in the above-described food service system operating method, the amount of food and leftovers are obtained by scanning the plate before and after a meal to determine the amount of food. The structure of the scanner used in the food service management system is explained.
도 7은 본 발명의 실시예에 따른 급식관리 시스템에서 이용하는 스캐너의 구조를 나타낸 도면이다.7 is a view showing the structure of the scanner used in the food management system according to an embodiment of the present invention.
도 7을 참조하면, 본 발명의 실시예에 따른 스캐너(120)는 몸체(121), 몸체(121)의 일측에 수직하게 연결되는 지지부(122), 지지부(122)의 상부로 결합되며 상기 식판이 안착되는 거치대(123), 몸체(121)의 일측으로 거치대(123)의 상부를 향하도록 설치되고, 식판(7)상의 음식을 촬영하는 스테레오 카메라(124)를 포함할 수 있다.Referring to FIG. 7 , the
몸체(121)는 스캐너(120)의 외관을 이루며, 급식소의 배식구 근처에 고정되는 형태로 설치될 수 있다. 몸체(121)의 일측으로 소정높이로는 지지부(122)가 연결될 수 있다.The body 121 forms the exterior of the
지지부(122)는 측방 일정길이로 돌출되고, 위에서 보았을 때 직사각형 형상으로 형성될 수 있다. 이러한 지지부(122)는 상부로 배치되는 거치대(123)를 하부에서 지지하게 된다.The
거치대(123)는 식사 전후 식판이 안착될 수 있다. 이러한 거치대(123)는 식판이 후술하는 스테레오 카메라(124)의 렌즈와 대향되도록 지지부(122)의 상에 고정되도록 결합될 수 있다.The
특히, 거치대(123)의 하부는, 지지부(122)상에 설치되는 하나 이상의 로드셀(125)에 의해 지지 및 결합될 수 있고, 이러한 로드셀(125)은 거치대(123) 및 그 상부로 안착되는 식판(7)의 무게를 감지하고 이를 관리서버에 전송할 수 있다.In particular, the lower portion of the
또한, 거치대(123)의 일측에는 상부에 안착된 식판의 온도를 감지하는 하나 이상의 온도센서(미도시)가 실장될 수 있고, 이러한 온도센서에 의해 감지된 온도는 관리서버에 전송되어 전술한 무게와 더불어 현재 식판에 담긴 음식의 무게 및 온도를 측정하여 관리 서버에 의해 급식량, 잔반량 또는 변동정도를 산출하는 데 보정값으로 이용될 수 있다.In addition, one or more temperature sensors (not shown) for sensing the temperature of the plate seated on the
스테레오 카메라(124)는 몸체(121)상에 설치되되, 지지부(122)와 소정거리 이격되는 위치에 배치됨에 따라, 거치대(123)상의 식판(7)의 전 영역이 스캐닝 할 수 있는 위치에 설치될 수 있다. The
이러한 스테레오 카메라(124)는 렌즈가 거치대(123)를 대향 하도록 설치되며, 식사 전후의 식판을 각각 촬영하여 식전식판 영상 및 식후식판영상을 관리서버에 전송하게 된다. The
상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서, 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.Although many matters are specifically described in the above description, these should be construed as examples of preferred embodiments rather than limiting the scope of the invention. Accordingly, the invention should not be defined by the described embodiments, but should be defined by the claims and equivalents to the claims.
1 : 급식소 3 : ID카드
6, 7 : 식사전,후 식판 100 ~ 120 : 제1 내지 제3 스캐너
200 : 관리서버 210 : 디스플레이부
220 : 사용자 관리부 230 : 급식소 관리부
240 : 장치 관리부 250 : 영상 처리부
260 : 데이터 베이스 270 : 광고 관리부1: cafeteria 3: ID card
6, 7: Plates before and after
200: management server 210: display unit
220: user management unit 230: food service management unit
240: device manager 250: image processing unit
260: database 270: advertisement management unit
Claims (10)
인식코드를 스캐닝하여 상기 식판을 식별하고, 상기 사용자에게 제공된 식사 후의 상기 식판을 스캐닝하여 상기 식판에 대한 식후영상을 획득하는 식후 스캐너; 및
상기 식전 스캐너 및 식후 스캐너를 제어하여 획득된 식전영상 또는 식후영상에 기초하여 상기 사용자에 대한 섭취정보를 생성하는 관리서버;를 포함하고,
상기 관리서버는,
급식 대상자들의 안면을 포함한 모습들이 영상으로 촬영되어 저장된 데이터베이스,
상기 데이터베이스에 저장된 영상을 기반으로, 안면 인식을 통해 카메라로부터 촬영되는 상기 사용자가 급식 대상자인지를 판별하는 사용자 관리부,
상기 식전 스캐너 및 식후 스캐너와 연결되어 획득된 스캐닝 데이터를 수신하는 장치 제어부 및
상기 장치 제어부가 수신한 스캐닝 데이터에 대응하여 상기 섭취정보를 생성하는 영상 처리부를 포함하되,
상기 영상 처리부는, 상기 식전 스캐너에 의해 획득된 식전영상 내에서 상기 식판을 인식하고, 상기 인식된 식판 내에 포함된 구역들을 상기 식판에 형성된 경계면을 통해 구획하고, 상기 식판의 방향을 기반으로 상기 구역들 중 음식물이 아닌 물체가 담긴 구역을 제외한 실제 음식물이 담긴 구역을 결정하고, 상기 결정된 구역 내에 담긴 음식물의 종류를 인식하고, 상기 식전 스캐너에 의해 획득된 식전영상에 포함된 깊이값을 이용하여 상기 결정된 구역 내에 담긴 음식물의 경계면에 대한 높이를 추출하고, 상기 경계면과 상기 높이를 이용하여 상기 결정된 구역 내에 담긴 음식물의 부피를 계산하고, 기계학습을 위한 지식 데이터 베이스의 학습영상을 이용하여 상기 음식물의 메뉴 내 재료를 인식하며, 상기 계산된 부피에 기초하여 상기 음식물의 메뉴별 및 재료별 잔반량을 계산함으로써 잔반정보를 생성하고,
상기 영상처리부는, 상기 기계학습을 위한 지식 데이터 베이스의 학습영상을 이용하여 상기 식전영상을 분석하여 인식하고, 상기 식전영상에 대한 인식 결과와 미리 정해진 메뉴를 이용하여 상기 결정된 구역 내에 담긴 음식물의 종류를 인식하되, 상기 미리 정해진 메뉴는 상기 관리서버에 구비된 식단정보를 참조하여 도출되는 것을 특징으로 하는, 급식관리 시스템.a pre-meal scanner that identifies the plate by scanning the recognition code, and acquires a pre-meal image of the plate before the meal provided to the user who is the target of the meal;
a post-meal scanner that scans an identification code to identify the plate, and scans the plate after a meal provided to the user to obtain a post-meal image of the plate; and
A management server for generating intake information for the user based on the pre-meal or post-meal image obtained by controlling the pre-meal scanner and the post-meal scanner;
The management server,
A database in which images are recorded and stored, including the faces of the food recipients;
Based on the image stored in the database, a user management unit that determines whether the user, photographed from the camera through facial recognition, is a subject to be fed;
a device control unit connected to the pre-meal scanner and the post-meal scanner to receive the acquired scanning data; and
Including an image processing unit for generating the intake information in response to the scanning data received by the device control unit,
The image processing unit recognizes the plate in the pre-meal image obtained by the pre-meal scanner, divides the regions included in the recognized plate through the interface formed on the plate, and based on the direction of the plate, the region Determining an area containing actual food except for an area containing an object other than food, recognizing the type of food contained in the determined area, and using the depth value included in the pre-meal image obtained by the pre-meal scanner Extracting the height of the boundary surface of the food contained in the determined area, calculating the volume of the food contained in the determined area using the boundary surface and the height, and using the learning image of the knowledge database for machine learning of the food Recognizing the ingredients in the menu, and generating leftover information by calculating the amount of leftovers for each menu and each ingredient of the food based on the calculated volume,
The image processing unit analyzes and recognizes the pre-meal image by using the learning image of the knowledge database for machine learning, and uses the recognition result of the pre-meal image and a predetermined menu to determine the type of food contained in the determined area. However, the predetermined menu is characterized in that derived by referring to the diet information provided in the management server, the food management system.
상기 관리서버는,
식사전 잔반 축소에 대한 홍보 또는 경각심을 높이기 위한 메시지를 제공하는 광고 관리부를 더 포함하는 것을 특징으로 하는, 급식관리 시스템.According to claim 1,
The management server,
Food management system, characterized in that it further comprises an advertisement management unit that provides a message for raising awareness or publicity about the reduction of leftovers before a meal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200137172A KR102329480B1 (en) | 2019-09-05 | 2020-10-22 | Management system of cafeteria and operation method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190109848A KR20190104980A (en) | 2019-09-05 | 2019-09-05 | Management system of cafeteria and operation method thereof |
KR1020200137172A KR102329480B1 (en) | 2019-09-05 | 2020-10-22 | Management system of cafeteria and operation method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190109848A Division KR20190104980A (en) | 2019-09-05 | 2019-09-05 | Management system of cafeteria and operation method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200123069A KR20200123069A (en) | 2020-10-28 |
KR102329480B1 true KR102329480B1 (en) | 2021-11-22 |
Family
ID=73018171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200137172A KR102329480B1 (en) | 2019-09-05 | 2020-10-22 | Management system of cafeteria and operation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102329480B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113240727B (en) * | 2021-03-22 | 2024-10-18 | 杭州雄伟科技开发股份有限公司 | System and method for acquiring residual quantity prompt information of dishes in dinner plate |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100975960B1 (en) * | 2010-01-29 | 2010-08-18 | 이종홍 | School meal managing system for controlling student's nutritive conditions |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120058294A (en) * | 2010-11-29 | 2012-06-07 | 한국전자통신연구원 | Meal plate for appropriate feeding behavior and meal quantity management |
KR101789732B1 (en) * | 2015-07-29 | 2017-10-25 | 피도연 | Method and apparatus for providing food information |
-
2020
- 2020-10-22 KR KR1020200137172A patent/KR102329480B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100975960B1 (en) * | 2010-01-29 | 2010-08-18 | 이종홍 | School meal managing system for controlling student's nutritive conditions |
Also Published As
Publication number | Publication date |
---|---|
KR20200123069A (en) | 2020-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7494439B2 (en) | Food service management system and its operation method | |
KR102606359B1 (en) | Cafeteria management system | |
US8682929B2 (en) | User access to item information | |
US12094015B2 (en) | Method, information terminal, and non-transitory computer-readable recording medium | |
KR102487925B1 (en) | Method, server and program for providing information on the operation and management information of the group feeding | |
KR102329480B1 (en) | Management system of cafeteria and operation method thereof | |
KR20190104980A (en) | Management system of cafeteria and operation method thereof | |
JP2022530263A (en) | Food measurement methods, equipment and programs | |
NL2022213B1 (en) | Food waste detection method and system | |
KR20240123777A (en) | A method, device and program for measuring food | |
CN114746891A (en) | Control method, information terminal, program, and recording medium | |
US12063948B2 (en) | Method and system for foodservice with instant feedback | |
US20230178212A1 (en) | Method and system for foodservice with iot-based dietary tracking | |
US20230196802A1 (en) | Multi-sensor device for dietary tracking | |
KR20220145006A (en) | Dietary Compliance Assessment System Using Artificial Intelligence | |
CN111860263A (en) | Information input method and device and computer readable storage medium | |
WO2018008686A1 (en) | Management system for managing nutritional component in meal | |
Budiningsari et al. | Validity of a digital photo-based dietary assessment tool: Development and initial evaluation | |
KR20140004386U (en) | System and method to figure out how much people take a meal in institutional food service cafeteria | |
JP2004334629A (en) | Eating habit information collecting method, eating habit information collecting/providing system , and terminal | |
KR20220076047A (en) | Healthy menu plan srevice online marketing system | |
WO2023034403A1 (en) | Customer management services |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |