KR102329480B1 - Management system of cafeteria and operation method thereof - Google Patents

Management system of cafeteria and operation method thereof Download PDF

Info

Publication number
KR102329480B1
KR102329480B1 KR1020200137172A KR20200137172A KR102329480B1 KR 102329480 B1 KR102329480 B1 KR 102329480B1 KR 1020200137172 A KR1020200137172 A KR 1020200137172A KR 20200137172 A KR20200137172 A KR 20200137172A KR 102329480 B1 KR102329480 B1 KR 102329480B1
Authority
KR
South Korea
Prior art keywords
meal
food
plate
image
user
Prior art date
Application number
KR1020200137172A
Other languages
Korean (ko)
Other versions
KR20200123069A (en
Inventor
김대훈
Original Assignee
주식회사 누비랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190109848A external-priority patent/KR20190104980A/en
Application filed by 주식회사 누비랩 filed Critical 주식회사 누비랩
Priority to KR1020200137172A priority Critical patent/KR102329480B1/en
Publication of KR20200123069A publication Critical patent/KR20200123069A/en
Application granted granted Critical
Publication of KR102329480B1 publication Critical patent/KR102329480B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

본 발명은 급식관리 시스템을 개시한다. 보다 상세하게는, 본 발명은 급식 대상이 되는 사용자가 섭취한 음식 및 이와 관련된 맞춤형 정보를 제공하고, 급식에서 발생하는 잔반을 관리할 수 있도록 한 급식관리 시스템 및 이의 운영방법에 관한 것이다.
본 발명의 실시예에 따르면, 스캐너 장치를 이용하여 급식대상자인 사용자와 식전 및 식후 식판을 식별하여 급식량 및 잔반량을 획득하고, 이에 기초하여 각 사용자들의 잔반정보 및 이와 연계된 유용한 정보를 제공함으로써 사용자들이 자신의 식습관, 영양상태 등을 용이하게 판단할 수 있으며, 사용자들 스스로 잔반을 줄이려는 시도를 유도할 수 있는 효과가 있다.
The present invention discloses a food management system. More particularly, the present invention relates to a food service management system and an operating method thereof, which provide food consumed by a user as a food service target and customized information related thereto, and manage leftovers generated in the food service.
According to an embodiment of the present invention, by using a scanner device to identify a user who is a food subject and a plate before and after a meal to obtain the amount of food and the amount of leftover food, based on this, by providing information on the leftovers of each user and useful information related thereto Users can easily determine their eating habits and nutritional status, and there is an effect that can induce users to try to reduce leftovers on their own.

Figure R1020200137172
Figure R1020200137172

Description

급식관리 시스템 및 이의 운영방법{MANAGEMENT SYSTEM OF CAFETERIA AND OPERATION METHOD THEREOF}Meal management system and its operation method

본 발명은 급식관리 시스템에 관한 것으로, 급식 대상이 되는 사용자가 섭취한 음식 및 이와 관련된 맞춤형 정보를 제공하고, 급식에서 발생하는 잔반을 관리할 수 있도록 한 급식관리 시스템 및 이의 운영방법에 관한 것이다.The present invention relates to a food service management system, and to a food service management system and an operating method thereof, which provide food consumed by a user to be served and customized information related thereto, and manage leftovers generated in the food service.

현재, 학교, 기업 및 기타 단체급식소에서 식사를 배급받는 학생, 직장인 또는 급식대상자들은 동일한 식당 내에서 한끼 이상을 해결하는 경우가 다반사이다. 특히, 학생들은 주말을 제외한 일주일의 대부분의 점심을 학교내 급식소를 이용하게 되는데, 성장기에 있는 학생들에게 각종 영양소를 골고루 섭취할 수 있도록 하는 환경을 제공해야 한다. Currently, it is common for students, office workers, or meal recipients who receive meals at school, corporate and other group catering centers to have more than one meal in the same restaurant. In particular, students use the school cafeteria for lunch most of the week except for weekends, and it is necessary to provide an environment that allows students in the growing stage to consume various nutrients evenly.

그러나, 초등학교 저학년과 같이 아직 자신의 식사량을 해결하는데 익숙하지 않은 학생들은 밥을 잘 챙겨먹지 않는 경우가 많고 또한 편식이 있는 경우 전반적으로 반찬을 고르게 먹지 않는 경우가 많기 때문에 제대로 된 영향섭취가 이루어지고 있는지 판단할 수 있는 방법이 없으며, 이는 고학년이라 하더라도 마찬가지라 할 수 있다. However, students who are not yet accustomed to solving their own meals, such as the lower grades of elementary school, often do not eat well, and if they have a picky eater, they often do not eat side dishes evenly. There is no way to determine whether or not there is, and this is true even for seniors.

특히, 초등학생의 경우, 부모들은 자녀들의 편식에 대한 관리감독의 요구가 상당하다고 할 수 있으며, 학생들의 식습관과 관련하여, 식사속도, 식사량, 잔반 습관 등의 개선을 위한 방안을 고심하고 있다.In particular, in the case of elementary school students, it can be said that the parents' demands for supervision of their children's unbalanced diet are considerable, and in relation to the students' eating habits, they are contemplating ways to improve the eating speed, amount of food, and leftover habits.

또한, 기업의 카페테리아를 자주 이용하는 직장인들도 자신의 식습관을 확인하여 관리하고자 하며, 급식제도를 운영하는 병원 등에서도 간호사들이 입원환자의 음식 섭취량을 정확하게 파악하고자 하나, 현재 정확한 데이터 기반의 식습관 정보를 제공할 수 있는 서비스는 현재 존재하지 않는 실정이다.In addition, office workers who frequently use corporate cafeterias want to check and manage their eating habits, and even in hospitals that operate food service systems, nurses try to accurately understand the food intake of inpatients, but currently, accurate data-based dietary information is not available. There are currently no services that can be provided.

등록특허공보 제10-0975960호(공고일자: 2010.08.18.)Registered Patent Publication No. 10-0975960 (Announcement Date: 2010.08.18.)

본 발명은 전술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 학교, 기업 및 병원 등에서 단체 급식을 제공하는 급식소에서 급식대상자에게 잔반량에 따라, 관련된 섭취정보 등의 유용한 정보를 제공하는 데 그 과제가 있다.The present invention has been devised to solve the above problems, and the present invention is to provide useful information, such as related intake information, according to the amount of leftover food to the food subject in a food service facility that provides group meals in schools, companies, and hospitals, etc. There is a task.

전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 급식관리 시스템은, 인식코드를 스캐닝하여 식판을 식별하고, 급식대상인 사용자에게 제공된 식사전 식판에 대한 식전영상을 획득하는 식전 스캐너; 인식코드를 스캐닝하여 식판을 식별하고, 상기 사용자에게 제공된 식사후 식판을 스캐닝하여 식별된 식판을 통해 상기 사용자의 식사후 식판에 대한 식후영상을 획득하는 식후 스캐너; 및 상기 식전 스캐너 및 식후 스캐너를 제어하여 획득된 식사전후 영상에 기초하여 상기 사용자에 대한 섭취정보를 생성하는 관리서버를 포함하고, 상기 관리서버는, 상기 식전 스캐너 및 식후 스캐너와 연결되어 획득된 스캐닝 데이터를 수신하는 장치 제어부와, 상기 장치 제어부가 수신한 스캐닝 데이터에 대응하여 상기 섭취정보를 생성하는 영상 처리부를 포함하고, 상기 영상 처리부는, 상기 식전 스캐너에 의해 획득된 영상 내에서 식판을 인식하고, 상기 식전 스캐너에 의해 획득된 영상 내에서 식판 내 음식물의 종류를 인식한다.In order to solve the above problems, the food service management system according to an embodiment of the present invention includes: a pre-meal scanner for scanning a recognition code to identify a plate, and obtaining a pre-meal image for a pre-meal plate provided to a user who is a food target; a post-meal scanner that scans an identification code to identify a plate, and scans the post-meal plate provided to the user to obtain a post-meal image of the user's post-meal plate through the identified plate; and a management server for generating intake information for the user based on the before and after images obtained by controlling the pre-meal scanner and the post-meal scanner, wherein the management server is connected to the pre-meal scanner and the post-meal scanner to obtain scanning A device control unit for receiving data, and an image processing unit for generating the intake information in response to the scanning data received by the device control unit, wherein the image processing unit recognizes a plate in the image obtained by the pre-meal scanner and , recognizes the type of food in the plate in the image acquired by the pre-meal scanner.

또한, 급식대상인 상기 사용자를 식별하는 식별장치를 더 포함할 수 있다.In addition, it may further include an identification device for identifying the user to be fed.

또한, 상기 영상 처리부가 식판 내 음식물의 종류를 인식하는 것은, 상기 식전 스캐너에 의해 획득된 영상을, 기계학습을 위한 복수의 음식물 관련 학습영상에 대한 지식 데이터 베이스에 축적된 학습영상과 비교함으로써 각 구역별 영상 인식결과를 이용하여 음식물의 종류를 인식하는 것이다.In addition, the image processing unit recognizes the type of food in the plate by comparing the image acquired by the pre-meal scanner with the learning image accumulated in the knowledge database for a plurality of food-related learning images for machine learning. The type of food is recognized by using the image recognition result for each area.

또한, 상기영상 처리부가 식판 내 음식물의 종류를 인식하는 것은, 상기 식전 스캐너에 의해 획득된 영상을, 기계학습을 위한 복수의 음식물 관련 학습영상에 대한 지식 데이터 베이스에 축적된 학습영상과 비교함으로써 영상 인식결과와 미리 정해진 메뉴를 매칭시켜 음식물의 종류를 인식하는 것이다.In addition, the image processing unit recognizing the type of food in the plate is obtained by comparing the image acquired by the pre-meal scanner with the learning image accumulated in the knowledge database for a plurality of food-related learning images for machine learning. The type of food is recognized by matching the recognition result with a predetermined menu.

또한, 상기 관리서버는 식단표를 생성하는 식단 생성 모듈을 포함하는 급식소 관리부를 더 포함하고, 상기 미리 정해진 메뉴는 상기 식단표를 참조하여 도출되는 것이다.In addition, the management server further includes a food service management unit including a meal generation module for generating a meal table, the predetermined menu is derived with reference to the menu table.

또한, 식판 내 음식물의 종류를 인식한 후, 상기 영상 처리부가 식판 내 음식물의 부피를 계산하기 전, 상기 영상 처리부가, 온도, 색상, 형태 및 높이 중 적어도 하나를 이용하여 음식물의 경계면을 따라 영역을 설정하고, 설정된 영역별로 음식물의 종류에 따라 재료를 인식하는 것이다.In addition, after recognizing the type of food in the plate, before the image processing unit calculates the volume of food in the plate, the image processing unit uses at least one of temperature, color, shape, and height to form an area along the boundary of food is set, and the material is recognized according to the type of food for each set area.

또한, 상기 영상 처리부가 식판을 인식하는 것은, 상기 식전 스캐너에 의해 획득된 영상 내에서, 식판 내 밥, 국, 반찬 또는 그릇이 각각 담기는 구역들을 식판에 형성된 경계면을 통해 구획하고, 식판의 방향을 인식하여 음식물이 담기는 구역을 확정하는 것이다.In addition, the recognition of the plate by the image processing unit is, in the image acquired by the pre-meal scanner, partitioning the regions in which rice, soup, side dishes or dishes are placed in the plate through the interface formed on the plate, and the direction of the plate It is to determine the area in which food is placed by recognizing

또한, 상기 영상 처리부가 식판 내 음식물의 부피를 계산하는 것은, 상기 식전 스캐너에 의해 획득된 영상에 포함된 깊이값을 이용하여 음식물 경계면 내에 높이를 추출하고, 경계면과 높이를 이용하여 부피를 계산하는 것이다.In addition, the calculation of the volume of the food in the plate by the image processing unit is to extract the height within the food boundary using the depth value included in the image obtained by the pre-meal scanner, and calculate the volume using the boundary and the height will be.

또한, 상기 영상 처리부는, 상기 식후 스캐너에 의해 획득된 영상 내에서 식판을 인식하고, 상기 식후 스캐너에 의해 획득된 영상 내에서 식판 상의 음식물의 경계면을 따라 영역을 설정하고, 상기 식후 스캐너에 의해 획득된 영상을 이용하여 식판 내 영역별 음식물의 부피를 계산하고, 음식물을 분류하고 식전 음식물과 매칭하는 것이다.In addition, the image processing unit, recognizes the plate in the image acquired by the post-prandial scanner, sets an area along the boundary surface of the food on the plate in the image acquired by the post-meal scanner, and obtains by the post-prandial scanner It calculates the volume of food for each area on the plate using the image, classifies the food, and matches it with the food before a meal.

또한, 상기 영상 처리부가 식판을 인식하는 것은, 상기 식후 스캐너에 의해 획득된 영상 내에서, 식판상의 음식물의 경계면을 따라 영역을 설정하는 것이고, 상기 영상 처리부가 음식물을 분류하고 식전 음식물과 매칭하는 것은, 기계학습을 위한 지식 데이터 베이스의 학습영상을 이용하여 메뉴 내 재료를 인식하고, 산출된 부피량에 기초하여 메뉴별 및 재료별 잔반량을 계산함으로써 잔반정보를 생성하는 것이다.In addition, when the image processing unit recognizes the food plate, the image processing unit sets the area along the boundary surface of the food on the plate in the image acquired by the post-meal scanner, and the image processing unit classifies the food and matching it with the food before the meal , to generate leftover information by recognizing the ingredients in the menu using the learning image of the knowledge database for machine learning, and calculating the remaining amount for each menu and each material based on the calculated volume amount.

본 발명의 실시예에 따르면, 스캐너 장치를 이용하여 급식대상자인 사용자와 식전 및 식후 식판을 식별하여 급식량 및 잔반량을 획득하고, 이에 기초하여 각 사용자들의 섭취정보 및 이와 연계된 유용한 정보를 제공함으로써 사용자들이 자신의 식습관, 영양상태 등을 용이하게 판단할 수 있으며, 사용자들 스스로 잔반을 줄이려는 시도를 유도할 수 있는 효과가 있다.According to an embodiment of the present invention, by using a scanner device to identify a user who is a food subject and a plate before and after a meal to obtain the amount of food and the amount of leftover food, and based on this, by providing each user's intake information and useful information related thereto Users can easily determine their eating habits and nutritional status, and there is an effect that can induce users to try to reduce leftovers on their own.

또한, 본 발명의 실시예에 따르면, 급식대상자 뿐만 아니라, 급식소 관리자, 영양사 등이 시스템을 통해 획득한 잔반정보 등을 활용하여 각 급식대상자들의 영양 섭취정보 뿐 아니라, 음식성향 및 식사행태 등을 파악할 수 있고, 그 결과를 급식에 반영하여 식사의 질을 개선하고, 잔반 축소를 유도할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, not only the catering subjects, but also the food service center managers, nutritionists, etc. utilize the leftover information obtained through the system to grasp the nutritional intake information of each meal subject as well as food tendencies and eating behaviors. There is an effect that can improve the quality of the meal and induce the reduction of leftovers by reflecting the result in the meal service.

도 1은 본 발명의 실시예에 따른 급식관리 시스템이 적용된 급식소의 구성을 모식화한 도면이다.
도 2는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버의 구조를 나타낸 도면이다.
도 3a 및 도 3b는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버를 구성하는 사용자 관리부 및 급식소 관리부의 구조를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버의 구성부 중, 영상 처리부의 구성을 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 급식관리 시스템의 운영방법을 나타낸 도면이다.
도 6a 및 도 6b는 본 발명의 실시예에 따른 급식관리 시스템의 잔반정보 생성을 위한 영상 분석방법을 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 급식관리 시스템에서 이용하는 스캐너의 구조를 나타낸 도면이다.
1 is a diagram schematically illustrating the configuration of a food service station to which a food service management system according to an embodiment of the present invention is applied.
Figure 2 is a view showing the structure of the management server of the food management system according to an embodiment of the present invention.
3a and 3b are diagrams showing the structures of the user management unit and the food service management unit constituting the management server of the food service management system according to an embodiment of the present invention.
4 is a view showing the configuration of the image processing unit among the components of the management server of the food service management system according to an embodiment of the present invention.
5 is a view showing an operating method of the food management system according to an embodiment of the present invention.
6A and 6B are diagrams illustrating an image analysis method for generating leftover information of a food service management system according to an embodiment of the present invention.
7 is a view showing the structure of the scanner used in the food management system according to an embodiment of the present invention.

설명에 앞서, 명세서 전체에서 어떤 부분이 어떤 구성요소를 "구비" 또는 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부(Unit)", 및 "...모듈(Module)" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어, 소프트웨어 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Prior to the description, when a part in the entire specification "includes" or "includes" a certain component, it does not exclude other components, but may further include other components unless otherwise stated. means there is In addition, terms such as "...unit" and "...module" described in the specification mean a unit that processes at least one function or operation, which is hardware, software, or hardware and a combination of software.

또한, 본 명세서에서 "실시예"라는 용어는 예시, 사례 또는 도해의 역할을 하는 것을 의미하나, 발명의 대상은 그러한 예에 의해 제한되지 않는다. 또한, "포함하는", "구비하는", 및 "갖는" 등의 다른 유사한 용어가 사용되고 있으나, 청구범위에서 사용되는 경우 임의의 추가적인 또는 다른 구성요소를 배제하지 않는 개방적인 전환어(Transition word)로서 "포함하는(Comprising)"이라는 용어와 유사한 방식으로 포괄적으로 사용된다.In addition, the term "embodiment" herein means serving as an illustration, example, or illustration, but the subject matter of the invention is not limited by such examples. In addition, other similar terms such as "comprising", "comprising", and "having" are used, but when used in the claims, an open transition word that does not exclude any additional or other elements. is used in a similar manner to the term "comprising" as inclusive.

본 명세서에 설명된 다양한 기법은 하드웨어 또는 소프트웨어와 함께 구현될 수 있거나, 적합한 경우에 이들 모두의 조합과 함께 구현될 수 있다. 본 명세서에 사용된 바와 같은 "부(Unit)", "모듈(Module)" 및 "시스템(System)" 등의 용어는 마찬가지로 컴퓨터 관련 엔티티(Entity), 즉 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행 시의 소프트웨어와 등가로 취급할 수 있다. 예를 들어, 프로그램 모듈은 하나의 컴포넌트와 등가 혹은 둘 이상의 컴포넌트의 조합으로 구성될 수 있다. 또한, 본 발명에서는 서버 또는 단말기에서 실행되는 애플리케이션 프로그램 및 하드웨어 모두가 모듈단위로 구성될 수 있고, 하나의 물리적 메모리에 기록되거나, 둘 이상의 메모리 및 기록매체 사이에 분산되어 기록될 수 있다.The various techniques described herein may be implemented in conjunction with hardware or software, or a combination of both, where appropriate. As used herein, terms such as “Unit,” “Module,” and “System” likewise refer to computer-related entities, i.e. hardware, a combination of hardware and software, software or It can be treated as equivalent to software at the time of execution. For example, a program module may be configured as equivalent to one component or a combination of two or more components. In addition, in the present invention, both the application program and hardware executed in the server or terminal may be configured in module units, and may be recorded in one physical memory, or may be recorded while being distributed between two or more memories and recording media.

이하, 도면을 참조하여 본 발명의 바람직한 실시예에 따른 급식관리 시스템 및 이의 운영방법을 설명한다.Hereinafter, a food service management system and an operating method thereof according to a preferred embodiment of the present invention will be described with reference to the drawings.

도 1은 본 발명의 실시예에 따른 급식관리 시스템이 적용된 급식소의 구성을 모식화한 도면이다.1 is a diagram schematically illustrating the configuration of a food service station to which a food service management system according to an embodiment of the present invention is applied.

도 1을 참조하면, 본 발명의 실시예에 따른 급식관리 시스템은 급식대상인 사용자의 ID카드를 스캐닝하여 사용자를 식별하는 제1 스캐너(100), 인식코드를 스캐닝하여 식판을 식별하고, 사용자에게 제공된 식사전 식판에 대한 식전영상을 획득하는 제2 스캐너(110), 식사후 식판을 스캐닝하여 식별된 식판을 통해 사용자의 식사후 식판에 대한 식후영상을 획득하는 제3 스캐너(120) 및, 상기 제1 내지 제3 스캐너를 제어하여 획득된 식사전후 영상에 기초하여 섭취정보를 생성하는 관리서버(200)를 포함할 수 있다.Referring to Figure 1, the food management system according to an embodiment of the present invention is a first scanner 100 that identifies the user by scanning the ID card of the user who is the object of the meal, identifies the plate by scanning the recognition code, and provides the A second scanner 110 that acquires a pre-meal image of the pre-meal plate, a third scanner 120 that acquires a post-meal image of the user's post-meal plate through the identified plate by scanning the post-meal plate, and the third scanner 120 It may include a management server 200 for generating intake information based on the before and after meals obtained by controlling the first to third scanners.

본 발명의 실시예에 따른 급식관리 시스템은 학교의 구내식당의 다수에게 배식을 제공하는 소정의 급식소(1)에 설치될 수 있고, 복수의 스캐닝 장치 및 이와 연결되며 표시수단을 갖는 관리서버(200)로 이루어질 수 있다.The food service management system according to an embodiment of the present invention may be installed in a predetermined food service station 1 that provides food to a large number of cafeterias in a school, a plurality of scanning devices and a management server 200 connected thereto and having a display means ) can be made.

제1 스캐너(100)는 급식대상자인 식별하는 역할을 하는 것으로, 사용자가 소지한 ID카드를 스캐닝하고 그 결과를 관리서버(200)에 전송함으로써 관리서버(200)가 저장된 개인정보를 참조하여 해당 사용자가 급식대상자임을 판별할 수 있도록 한다. 여기서, 상기 ID카드는 학생증, 명찰 및 사원증일 수 있고, 설계자의 의도에 따라 ID카드를 이용하는 것이 아닌 카메라를 통해 촬영된 사용자의 얼굴에 대한 안면인식 기법을 통해 사용자를 식별하는 방식도 적용될 수 있다. The first scanner 100 serves to identify the subject of the meal, and by scanning the ID card possessed by the user and transmitting the result to the management server 200, the management server 200 refers to the stored personal information Allows the user to determine that he or she is a food subject. Here, the ID card may be a student ID, nameplate, and employee ID, and a method of identifying a user through a facial recognition technique for a user's face photographed through a camera rather than using an ID card according to the designer's intention may also be applied. .

여기서, 사용자의 등교 또는 출근 시스템과 연계하여, 출근시 매일 해당 사용자의 모습을 촬영하여 데이터 베이스에 저장하고, 이는 추후 급식진행을 위한 식별시 데이터 베이스를 참조하여 비전인식 기술을 이용한 시스템의 외관, 즉 얼굴, 신발, 의상 또는 헤어 형태 등을 비전인식 기술을 적용하여 사용자를 식별시 그 정확도는 개선하는 데 활용될 수 있다.Here, in connection with the user's school or attendance system, the user's appearance is photographed every day at the time of going to work and stored in the database, which refers to the database at the time of identification for future catering, the appearance of the system using vision recognition technology, That is, when a user is identified by applying a vision recognition technology to a face, shoes, clothes, or hair shape, the accuracy can be improved.

또는, 스캐닝 방식이 아닌, 사용자가 소지한 휴대용 단말기와 통신을 수행하여 해당 사용자를 인식하는 방식이 적용될 수도 있다.Alternatively, a method of recognizing a corresponding user by performing communication with a portable terminal possessed by the user, rather than the scanning method, may be applied.

제2 스캐너(110)는 배식구를 통한 음식이 담긴 식사전 식판(6)을 스캐닝하고 그 영상을 관리서버(200)에 제공할 수 있다. 이때, 식사전 식판(6)의 일측에 형성된 인식코드도 함께 스캐닝함에 따라, 그 정보를 수신한 관리서버(200)는 각 식판들을 구별하고, 각 식판에 담긴 음식의 양 즉, 사용자별 급식량을 판단할 수 있게 된다. 상기의 인식코드는 바코드 또는 QR 코드 등으로 구현될 수 있다. The second scanner 110 may scan the pre-meal plate 6 containing food through the food distribution port and provide the image to the management server 200 . At this time, as the recognition code formed on one side of the plate 6 before a meal is also scanned, the management server 200 that has received the information distinguishes each plate and determines the amount of food contained in each plate, that is, the amount of food for each user. be able to judge The recognition code may be implemented as a barcode or a QR code.

제3 스캐너(120)는 퇴식구를 통해 잔반을 처리하기 전, 잔반이 담긴 식사후 식판(7)을 스캐닝하고 그 영상을 관리서버(200)에 제공할 수 있다. 여기서, 식사후 식판(7)의 인식코드를 스캐닝함에 따라, 그 정보를 수신한 관리서버(200)는 해당 식판(7)의 사용자와 사용자별 잔반량을 판단할 수 있게 되며, 이후 관리서버(200)는 급식량 및 잔반량에 기초하여 잔반정보를 산출함으로써, 섭취정보를 생성할 수 있게 된다.The third scanner 120 may scan the plate 7 after a meal containing the leftovers before processing the leftovers through the drain hole and provide the image to the management server 200 . Here, as the recognition code of the plate 7 is scanned after a meal, the management server 200 receiving the information can determine the amount of leftovers for each user and each user of the plate 7, and then the management server ( 200) by calculating the leftover information based on the amount of food and the amount of leftovers, it is possible to generate intake information.

관리서버(200)는 급식소(1)의 일측, 바람직하게는 급식소(1)의 출구부근에 설치될 수 있고, 탑재된 디스플레이부(210)를 통해 각 사용자별 생성된 섭취정보를 표시할 수 있다.The management server 200 may be installed on one side of the food service station 1, preferably near the exit of the food service station 1, and may display intake information generated for each user through the mounted display unit 210. .

이러한 관리서버(200)는 네트워크를 통해 각 스캐너(100 ~ 130)들과 연결될 수 있고, 스캐너(100 ~ 130)들부터 전송되는 ID카드 스캐닝 결과, 식판 인식결과 및 식사전후 식판에 대한 영상 등을 통해, 해당 사용자와 그의 섭취정보를 생성 및 제공하게 된다.This management server 200 can be connected to each of the scanners (100 ~ 130) through a network, the ID card scanning results transmitted from the scanners (100 ~ 130), plate recognition results and images of the plate before and after meals, etc. Through this, the user and his/her intake information will be created and provided.

특히, 본 발명의 실시예에 따른 급식관리 시스템에서는 각 사용자별 섭취정보를 스캐너를 통해 획득한 영상에 영상 처리 기법을 적용하여 정량화하고 이를 수치, 텍스트 및 그래프 등의 형태로 제공할 수 있다. 이러한 관리서버(200)의 구성부에 대한 상세한 설명은 후술한다.In particular, in the food service management system according to an embodiment of the present invention, intake information for each user can be quantified by applying an image processing technique to an image obtained through a scanner and provided in the form of figures, texts and graphs. A detailed description of the components of the management server 200 will be described later.

전술한 구조에 따라, 본 발명의 실시예에 따른 급식관리 시스템은 급식소에 설치되며, 사용자를 확인하고, 식사 전후 식판에 대하여 스캐닝한 이미지를 이용하여 급식량 및 잔반량을 획득하며, 이에 기초하여 섭취정보를 생성하고, 이와 연계된 각종 영양과 관련된 정보를 제공함으로써 사용자들이 자신의 식습관 등을 용이하게 확인할 수 있다.According to the above-described structure, the food service management system according to an embodiment of the present invention is installed in a food service station, checks the user, and acquires the amount of food and leftover food using the scanned image of the plate before and after a meal, and intake based on this By generating information and providing information related to various nutrition related thereto, users can easily check their eating habits.

이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템에 포함되는 관리서버를 설명한다.Hereinafter, a management server included in the food service management system according to an embodiment of the present invention will be described with reference to the drawings.

도 2는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버의 구조를 나타낸 도면이다. 이하의 설명에서 본 발명의 관리서버를 구성하는 각 구성부들은 컴퓨터에 의해 실행 가능한 프로그램 형태로 구현될 수 있고, 컴퓨터에 의해 읽고 쓰기가 가능한 기록매체에 기록되어 관리서버에 탑재될 수 있다.Figure 2 is a view showing the structure of the management server of the food management system according to an embodiment of the present invention. In the following description, each component constituting the management server of the present invention may be implemented in the form of a program executable by a computer, and may be recorded on a recording medium that can be read and written by the computer and mounted on the management server.

도 2를 참조하면, 본 발명의 관리서버(200)는 사용자별 잔반정보를 표시하는 디스플레이부(210), 사용자를 급식대상자로 등록하고, 등록된 사용자들의 식습관 및 영양상태 중, 어느 하나를 포함하는 영양정보를 제공하는 사용자 관리부(220), 급식소를 등록하고, 등록된 급식소의 운영과 관련된 운영정보를 제공하는 급식소 관리부(230), 제1 내지 제3 스캐너와 연결되어 획득된 스캐닝 데이터를 수신하는 장치 제어부(240), 장치 제어부(240)가 수신한 스캐닝 데이터에 대응하여 잔반정보 및 섭취정보를 생성하는 영상 처리부(250) 및 사용자의 개인정보 및 급식소의 운영정보를 저장하는 데이터 베이스(260)를 포함할 수 있다.Referring to FIG. 2 , the management server 200 of the present invention includes a display unit 210 that displays leftover information for each user, registers a user as a food subject, and includes any one of the registered users' eating habits and nutritional status. The user management unit 220 that provides nutritional information to, registers the food service, and receives the obtained scanning data in connection with the food service management unit 230 and the first to third scanners that provide operational information related to the operation of the registered food service center. device control unit 240, the image processing unit 250 for generating leftover information and intake information in response to the scanning data received by the device control unit 240, and a database 260 for storing the user's personal information and the operation information of the cafeteria ) may be included.

디스플레이부(210)는 관리서버(200)에서 각 사용자 별로 생성한 섭취정보를 화면상에 표시할 수 있다. 식사를 완료한 사용자는 식판 반납 이후 급식소에서 떠나기 전, 출구에 배치된 관리서버(200)의 디스플레이부(210)에 표시된 자신에 대한 섭취정보를 확인할 수 있다.The display unit 210 may display intake information generated for each user by the management server 200 on the screen. The user who has completed the meal can check the intake information about himself displayed on the display unit 210 of the management server 200 arranged at the exit before leaving the food service after returning the plate.

여기서, 디스플레이부(210)는 타 구성부들과는 별도의 장치로 구현될 수 있고, 별도의 장소에 위치한 관리서버(200)의 본체와 네트워크를 통해 연결되어 잔반정보를 표시하는 형태로 구현될 수도 있고, 또는 관리서버(200)에서 디스플레이부(210)가 생략되며, 사용자들은 소지한 모바일 단말 또는 전자메일을 통해 전술한 잔반정보를 제공받는 형태로 구현될 수 있다.Here, the display unit 210 may be implemented as a device separate from other components, and may be implemented in a form that is connected to the main body of the management server 200 located in a separate place through a network to display residual information. Alternatively, the display unit 210 may be omitted from the management server 200, and users may be implemented in a form in which the above-described remaining information is provided through their mobile terminal or e-mail.

사용자 관리부(220)는 급식대상자의 개인정보를 관리하는 기능을 제공할 수 있다. 본 발명의 급식관리 시스템에 의한 서비스를 제공받고자 하는 사용자는 미리 관리서버(200)에 등록이 되어 있어야 하며, 스캐너로부터 전송되는 ID카드의 인식결과와 데이터 베이스에 저장된 개인정보를 비교하여 급식대상자로서 등록여부를 판단할 수 있다.The user management unit 220 may provide a function of managing the personal information of the meal target. A user who wants to be provided with the service by the food service management system of the present invention must be registered in the management server 200 in advance, and compare the recognition result of the ID card transmitted from the scanner with the personal information stored in the database as a food service target. Registration can be determined.

또한, 사용자 관리부(220)는 등록된 사용자에 대하여 식습관 및 영양상태와 관련된 영양정보를 관리 및 제공할 수 있으며, 이러한 기능을 구현하기 위한 사용자 관리부(220)의 구성에 대한 설명은 후술한다. In addition, the user management unit 220 may manage and provide nutritional information related to eating habits and nutritional status for registered users, and a description of the configuration of the user management unit 220 for implementing these functions will be described later.

급식소 관리부(230)는 본 발명의 급식관리 시스템이 설치된 급식소에 대한 각종 정보를 관리하는 기능을 제공할 수 있다. 이러한 급식소 관리기능으로는 급식소의 최대배식가능 인원, 소속된 영양사와 관련된 정보와, 일, 주 및 월단위의 식단에 대한 정보 등을 생성, 갱신, 삭제 및 확인 등을 포함할 수 있고, 이는 시스템 운영자 권한을 갖는 사용자에게 제공될 수 있다. The food service management unit 230 may provide a function of managing various types of information about the food service station in which the food service management system of the present invention is installed. Such a food service management function may include creating, updating, deleting, and confirming the maximum number of meals available at the food service center, information related to the affiliated dietitian, and daily, weekly, and monthly diet information, etc. It may be provided to a user with operator authority.

장치 제어부(240)는 관리서버(200)와 연결된 스캐너의 제어기능을 제공할 수 있다. 관리서버(200)는 하나 이상의 스캐너와 연결되어 그로부터 사용자 및 식판에 대한 정보를 수신할 수 있고, 장치 제어부(240)는 소정의 통신모듈 및 콘트롤러를 포함하며 네트워크를 통해 각 스캐너와 연결되어 이를 제어하여 필요한 정보를 수신할 수 있다.The device control unit 240 may provide a control function of a scanner connected to the management server 200 . The management server 200 is connected to one or more scanners to receive information about the user and the plate therefrom, and the device control unit 240 includes a predetermined communication module and controller, and is connected to each scanner through a network to control it. to receive the necessary information.

영상 처리부(250)는 스캐너로부터 수신한 식사전후 식판에 대한 영상을 영상처리 기법을 통해 분석하여 사용자별 급식량 및 잔반량을 산출하고, 이에 기초하여 섭취정보를 생성할 수 있다. The image processing unit 250 may analyze the image of the plate before and after a meal received from the scanner through an image processing technique to calculate the amount of food and leftovers for each user, and generate intake information based thereon.

데이터 베이스(260)는 관리서버(200)의 각 구성부들이 제공하는 기능을 수행하기 위한 개인정보, 급식소 정보 등을 저장할 수 있다. 또한 데이터 베이스(260)에는 관리서버(200)를 구동하기 위한 각종 설정값들이 저장될 수 있다.The database 260 may store personal information, food service information, and the like for performing functions provided by each component of the management server 200 . In addition, various setting values for driving the management server 200 may be stored in the database 260 .

또한, 본 발명의 실시예에 따른 관리서버(200)는 사용자에 잔반정보를 제공하는 주요기능에도 수익발생을 위한 부가기능을 더 제공하는 광고 관리부(270)를 더 포함할 수 있다.In addition, the management server 200 according to an embodiment of the present invention may further include an advertisement management unit 270 that further provides an additional function for generating revenue in addition to the main function of providing residual information to the user.

일 예로서, 광고 관리부(270)는 데이터 베이스(260)에 저장된 개인정보에 기초하여 개인의 선호를 고려한 식품, 섭취 영양 성분을 고려한 건강 보조 식품, 식습관 분석을 통한 의료기기 및 개인의 선호를 반영한 식당 및 메뉴 등에 관한 광고를 디스플레이부(210)를 통해 표시하거나, 사용자의 모바일 단말기에 제공할 수 있다. 이러한 광고 관리부(270)가 제공하는 기능은 급식관리 시스템 운영자의 수익모델이 된다. As an example, the advertisement management unit 270 reflects personal preference based on personal information stored in the database 260, food in consideration of individual preferences, health supplements in consideration of intake nutritional components, medical devices through eating habits analysis, and personal preference. Advertisements related to restaurants and menus may be displayed through the display unit 210 or provided to the user's mobile terminal. The function provided by the advertisement management unit 270 becomes a revenue model of the food service management system operator.

또한, 본 발명의 실시예에 따라 파생되는 수익모델로서, 식단 관리 프로그램 및 섭취 정보, 영양 정보, 질병 확률 및 특화된 건강 상식 및 반찬에 대한 레시피 제공 등의 '프리미엄 서비스'를 도출할 수 있다.In addition, as a profit model derived according to an embodiment of the present invention, it is possible to derive a 'premium service' such as a diet management program and intake information, nutritional information, disease probability, and specialized health common sense and recipes for side dishes.

또한, 광고 관리부(270)는 공익적 기능으로서, 사용자에게 식사전 잔반 축소에 대한 홍보 또는 경각심을 높이기 위한 메시지를 제공할 수 있다. 일 예로서, 급식소에 방문한 사용자들에게 잔반량 감소시 환경보호의 효과가 있다는 메시지를 디스플레이부를 통해 표시할 수 있다.In addition, as a function of public interest, the advertisement management unit 270 may provide the user with a message for promoting or raising awareness about reducing leftovers before a meal. As an example, a message that the effect of environmental protection is effective when the amount of leftovers is reduced may be displayed through the display unit to users who have visited the cafeteria.

전술한 구조에 따라, 본 발명의 실시예에 따른 급식관리 시스템은 연결된 복수의 스캐너를 통해 사용자를 식별하고 잔반정보를 생성하여 화면을 통해 표시함으로써, 급식소 사용자들이 자신의 식습관, 일 예로서, 선호하는 식재료, 맛, 평균 식사량, 속도 등을 쉽게 확인할 수 있다.According to the above-described structure, the food service management system according to an embodiment of the present invention identifies the user through a plurality of connected scanners, generates leftover information and displays it on the screen, so that the food service users have their own eating habits, as an example, preference You can easily check the ingredients, taste, average meal amount, and speed.

이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템에 포함되는 구성부 중, 발명의 주요기능을 구현하는 사용자 관리부 및 급식소 관리부와, 영상 처리부에 대한 구성을 보다 상세히 설명한다.Hereinafter, with reference to the drawings, among the constituent units included in the food service management system according to an embodiment of the present invention, the configuration of the user management unit, the food service management unit, and the image processing unit for implementing the main functions of the present invention will be described in more detail.

도 3a 및 도 3b는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버를 구성하는 사용자 관리부 및 급식소 관리부의 구조를 나타낸 도면이고, 도 4는 본 발명의 실시예에 따른 급식관리 시스템의 관리서버의 구성부 중, 영상 처리부의 구성을 나타낸 도면이다.3a and 3b are diagrams showing the structures of a user management unit and a food service management unit constituting the management server of the food service management system according to an embodiment of the present invention, and FIG. 4 is a management server of the food service management system according to an embodiment of the present invention. It is a diagram showing the configuration of an image processing part among the configuration parts of .

먼저, 도 3a를 참조하면, 본 발명의 관리서버의 사용자 관리부(220)는 하나 이상의 기능에 대응하는 모듈로 구성될 수 있고, 이러한 모듈들은 급식대상자에 한정하여 시스템내 사용자에게 기 발급된 ID카드를 이용하여 시스템내 등록여부를 확인하거나, 등록된 사용자들의 개인정보를 관리하는 개인정보 처리모듈(221), 각종 정보를 참조하여 개인의 식습관을 판단하는 식습관 판단모듈(222) 및, 현재 각 사용자별 영상상태를 산출하는 영상상태 추정모듈(223)을 포함할 수 있다.First, referring to FIG. 3A , the user management unit 220 of the management server of the present invention may be configured with modules corresponding to one or more functions, and these modules are limited to catering subjects and previously issued ID cards to users in the system. The personal information processing module 221 for checking whether to register in the system or managing the personal information of registered users using It may include an image state estimation module 223 for calculating a star image state.

개인정보 처리모듈(221)은 본 발명의 급식관리 시스템에 등록된 사용자들의 개인정보를 관리하는 기능을 구현하는 것으로, 시스템 운영자는 급식대상자에 대한 이름, 연락처 및 주소 등을 입력하여 사용자 계정을 생성할 수 있고, 개인정보 처리모듈은 그 계정마다 사용자의 식습관, 선호음식, 알레르기 보유유무, 현재 영양상태 등을 입력받아 개인정보를 생성 및 저장할 수 있다.The personal information processing module 221 implements a function of managing the personal information of users registered in the meal management system of the present invention, and the system operator creates a user account by inputting the name, contact information and address of the meal recipient. The personal information processing module can generate and store personal information by receiving the user's eating habits, preferred food, allergy status, current nutritional status, etc. for each account.

식습관 판단모듈(222)은 사용자의 급식내역에 대응하여 각 사용자에 대한 식습관을 판단하고 그 정보를 저장할 수 있다. 사용자의 급식소 이용시, 식습관 판단모듈(222)은 매회 급식내역에 따라 각 급식시 제공된 음식의 종류, 식사시간 및 잔반량에 관한 정보를 이용하여 사용자의 식습관을 판단하게 된다. 이러한 식습관 판단결과는 개인정보에 반영될 수 있다.The eating habits determination module 222 may determine the eating habits for each user in response to the user's feeding details and store the information. When using the user's cafeteria, the eating habit determination module 222 determines the user's eating habit by using information about the type of food provided at each meal, meal time, and the amount of leftovers according to each meal history. These dietary judgment results may be reflected in personal information.

영양상태 추정모듈(223)은 사용자의 급식내역에 대응하여 각 사용자의 현재 영양상태를 추정하고 이를 영양정보로서 저장할 수 있다. 영양상태 추정모듈(223)은 사용자가 일정기간 내 급식소를 이용한 내역 및, 이용시 생성된 잔반정보에 따라 사용자가 섭취한 음식 및 음식량을 산출할 수 있고, 이에 기초하여 사용자의 현재 영양상태를 분석하여 영양정보를 생성할 수 있다. 이러한 영양정보는 식습관 정보와 더불어 개인정보에 반영될 수 있다.The nutritional status estimation module 223 may estimate the current nutritional status of each user in response to the user's feeding details and store it as nutritional information. The nutritional status estimation module 223 may calculate the food and amount of food consumed by the user according to the history of the user using the restaurant within a certain period and the leftover information generated during use, and based on this, the user's current nutritional status is analyzed and You can create nutritional information. Such nutritional information may be reflected in personal information along with dietary information.

또한, 도 3b를 참조하면, 본 발명의 관리서버의 급식소 관리부(230)는 하나 이상의 모듈을 포함할 수 있고, 본 발명의 시스템에 설치되는 장소인 급식소와 관련된 정보를 관리하는 급식소 관리모듈(231)과, 그 급식소에 납품되는 식재료에 대한 검수와 관련된 절차를 진행하는 식재료 검수모듈(232)과, 매주 단위의 식단 스켸줄 정보를 생성 및 제공하는 식단 생성모듈(233)을 포함할 수 있다.In addition, referring to FIG. 3b , the food service management unit 230 of the management server of the present invention may include one or more modules, and a food service management module 231 for managing information related to a food service place, which is a place installed in the system of the present invention. ), and a food ingredient inspection module 232 that performs a procedure related to inspection of ingredients delivered to the food service center, and a menu creation module 233 that generates and provides weekly meal schedule information.

급식소 관리모듈(231)은 본 발명의 급식관리 시스템이 설치된 급식소에 대한 정보 관리기능을 제공하는 것으로, 급식소의 최대배식가능 인원 및 소속된 영양사와 관련된 정보를 생성, 갱신 및 삭제할 수 있다.The food service management module 231 provides an information management function for a food service restaurant in which the food service management system of the present invention is installed, and can create, update, and delete information related to the maximum number of meals available at the food service center and affiliated nutritionist.

식재료 검수모듈(232)은 급식소에 납품되는 식재료에 대한 검수 절차기능을 제공할 수 있다. 급식소에는 일 단위로 조리를 위한 식재료들이 납품될 수 있고, 급식소에 소속된 영양사들은 식재료 수령, 검수 및 창고적재의 절차진행에 따른 과정을 관리서버에 입력 및 추후 확인할 수 있다. 이에 따라, 식재료 검수모듈(232)이 제공하는 기능은 영양사 권한을 가진 계정에만 제한적으로 제공될 수 있다. The food material inspection module 232 may provide an inspection procedure function for the food material delivered to the food service restaurant. Food materials for cooking can be delivered to the food service center on a daily basis, and nutritionists belonging to the food service center can input and confirm the process of receiving, inspecting, and storing food in the management server later. Accordingly, the function provided by the food ingredient inspection module 232 may be limitedly provided only to an account with nutritionist authority.

식단 생성모듈(233)은 시스템에 등록된 영양사들이 급식소에서 배급하는 음식에 대한 식단표를 생성할 수 있도록 하는 기능을 제공할 수 있다. 영양사들은 매월초 일주일 단위로 급식자들의 영양상태를 고려하여 식단을 만들고 식단 생성모듈(233)이 제공하는 UI를 통해 식단을 입력하여 식단정보를 생성할 수 있고, 이러한 식단정보는 일주일 단위로 관리서버(200) 및 이와 연결된 웹 사이트 등에 게시되게 된다. The meal creation module 233 may provide a function that allows nutritionists registered in the system to create a menu for food distributed at the food service center. Nutritionists can create a meal plan at the beginning of each month in consideration of the nutritional status of the caterers, input the meal through the UI provided by the meal creation module 233, and create meal information, and this meal information is managed on a weekly basis. It will be posted on the server 200 and a web site connected thereto.

한편, 본 발명의 실시예에 따른 급식관리 시스템은 급식소에 설치되는 하나 이상의 스캐너를 통해 사용자의 ID카드를 스캐닝하여 급식대상자임을 식별할 뿐만 아니라, 식사 전후 식판을 스캐닝하여 급식량 및 잔반량을 획득하고 이에 기초하여 잔반정보를 생성할 수 있다.On the other hand, the food service management system according to an embodiment of the present invention not only identifies the food subject by scanning the user's ID card through one or more scanners installed in the food service station, but also scans the plate before and after a meal to obtain the amount of food and leftovers, Based on this, residual information may be generated.

*특히, 본 발명의 실시예에서는 스캐너를 통해 획득한 이미지에 대하여 영상 처리 기법을 적용하여 보다 정확한 섭취정보를 제공할 수 있으며, 관리서버는 상기의 영상 처리 기법을 적용하기 위한 영상 처리부를 포함할 수 있다.* In particular, in an embodiment of the present invention, more accurate intake information can be provided by applying an image processing technique to an image acquired through a scanner, and the management server may include an image processing unit for applying the image processing technique. can

도 4를 참조하면, 본 발명의 관리서버에 포함되는 영상 처리부(250)는 식사후 식판을 촬영한 식후영상을 전처리하는 전처리모듈(251), 저장된 영상 저장소(253)로부터 상기 식전영상을 제공받아 상기 식후영상과 비교하는 비교모듈(252), 비교모듈(252)에 의한 비교결과에 따라 잔반정보를 생성하는 잔반 추정모듈(254) 및 상기 잔반정보에 대응하여 수치, 텍스트 또는 그래프의 형태의 섭취정보를 생성 및 출력하는 섭취정보 생성모듈(255)을 포함할 수 있다.4, the image processing unit 250 included in the management server of the present invention is provided with the pre-meal image from the pre-processing module 251 for pre-processing the post-meal image taken after the meal, and the stored image storage 253. The comparison module 252 for comparing with the postprandial image, the leftover estimation module 254 for generating residual information according to the comparison result by the comparison module 252, and the intake in the form of figures, texts or graphs in response to the residual information It may include an intake information generation module 255 for generating and outputting information.

전처리모듈(251)은 스캐너로부터 식사전후 식판을 촬영한 영상을 비교를 위해 일정 크기로 변환 및 노이즈를 제거하여 영상에 대한 전처리를 수행할 수 있다. 식전영상은 영상 저장소에 식별된 식판별로 저장될 수 있고, 이후 식후영상이 입력되면 전처리후 비교모듈(252)에 제공하게 된다.The pre-processing module 251 may perform pre-processing on the image by converting the image taken from the scanner before and after a meal into a predetermined size for comparison and removing noise. The pre-meal image may be stored for each plate identified in the image storage, and when the post-meal image is input thereafter, it is provided to the comparison module 252 after pre-processing.

비교모듈(252)은 전처리된 식전영상과 식후영상을 수치화하여 비교할 수 있다. 영상을 계조값을 갖는 복수의 화소로 구성되어 있으며, 비교모듈(252)은 각 화소의 계조값의 차를 계산하여 비교를 수행할 수 있다. The comparison module 252 may digitize and compare the pre-prandial image and the post-prandial image. The image is composed of a plurality of pixels having grayscale values, and the comparison module 252 may perform comparison by calculating the difference between the grayscale values of each pixel.

영상 저장소(253)는 전처리된 식전영상을 식판별로 저장할 수 있고, 비교모듈(252)의 요청에 따라 식후영상에 대응하는 식전영상을 제공할 수 있다.The image storage 253 may store the pre-meal image for each meal plate, and may provide a pre-meal image corresponding to the post-meal image at the request of the comparison module 252 .

영상 저장소(253)에 저장된 영상들은 비교절차가 수행되거나, 일정시간이 지나면 자동으로 삭제될 수 있다.The images stored in the image storage 253 may be automatically deleted after a comparison procedure is performed or a predetermined time elapses.

잔반 추정모듈(254)은 식전영상과 식후영상에 대응하여 급식량 및 잔반량을 판단하고, 이의 차 연산을 통해 잔반정보를 산출할 수 있다. 스캐너로부터 입력되는 영상에서 회색 또는 백색에 대응하며 영상의 각 측단과 연결되는 부분을 식판에 대응하는 부분으로 판단될 수 있고, 비교모듈은 식전영상 대비 식후영상에서 회색 또는 백색영역의 증가면적에 따라 잔반정보를 산출할 수 있다. The leftover estimation module 254 may determine the amount of food and the amount of leftover food in response to the pre-meal image and the post-meal image, and calculate the remaining information through the difference calculation. In the image input from the scanner, the part corresponding to gray or white and connected to each side of the image can be determined as the part corresponding to the plate, and the comparison module is based on the increased area of the gray or white region in the postprandial image compared to the preprandial image. Residual information can be calculated.

또한, 잔반 추정모듈(254)은 영상에 기초하여 밥의 부피, 국의 높이, 반찬의 부피의 감소량을 추정하거나, 영상 전체의 밝기분포를 히스토그램화하고, 두 히스토그램의 차에 따라 음식물의 변동정도를 산출할 수 있다.In addition, the leftover estimation module 254 estimates the amount of reduction in the volume of rice, the height of the soup, and the volume of side dishes based on the image, or a histogram of the brightness distribution of the entire image, and the degree of variation of food according to the difference between the two histograms. can be calculated.

섭취정보 생성모듈(255)은 잔반 추정모듈(254)에 의해 산출된 잔반정보에 따라, 수치, 텍스트 및 그래프 형태의 자료인 섭취정보를 생성할 수 있다. 이러한 섭취정보는 개인정보에 누적 기록될 수 있고, 관리서버의 디스플레이부를 통해 화면에 표시되거나, 네트워크를 통해 사용자의 단말기에 전송될 수 있다. The intake information generation module 255 may generate intake information, which is data in the form of figures, texts, and graphs, according to the leftover information calculated by the leftovers estimation module 254 . Such intake information may be accumulated in personal information, displayed on the screen through the display unit of the management server, or transmitted to the user's terminal through a network.

또한, 본 발명의 실시예에 따른 영상 처리부(250)는 변동정도 추정시 그 정확도를 높이기 위한 보정수단을 더 포함할 수 있다.In addition, the image processing unit 250 according to an embodiment of the present invention may further include a correction means for increasing the accuracy when estimating the degree of variation.

보정모듈(256)은 각 스캐너에 설치되는 하나 이상의 센서로부터 센싱값을 입력받고, 잔반 추정모듈(254)에 변동정도에 센싱값을 일정비율로 반영하여 잔반정보를 보정할 수 있다. The correction module 256 may correct the residual information by receiving a sensed value from one or more sensors installed in each scanner, and reflecting the sensed value to the degree of variation in the residual estimating module 254 at a certain rate.

즉, 보정모듈(256)은 스캐너에는 온도센서 및 로드셀과 같은 무게감지센서가 탑재될 수 있고, 감지된 식판의 온도 및 무게를 활용하여 보정값을 생성함으로써 잔반정보를 보정하게 된다. That is, the correction module 256 may be equipped with a weight sensor such as a temperature sensor and a load cell in the scanner, and correct the remaining information by generating a correction value using the detected temperature and weight of the plate.

일 예로서, 식사전후 식판의 온도차이가 크지 않은 경우, 특히 국 같은 음식의 섭취가 거의 발생하지 않은 것으로 판단할 수 있으며, 또한 식사전후 식판의 무게차이가 크지 않는 경우, 식사량이 매우 적은 것으로 판단 할 수 있다. As an example, when the temperature difference between the plate before and after a meal is not large, it can be determined that in particular, food such as soup hardly occurs, and when the difference in weight between the plate before and after a meal is not large, it is determined that the amount of food is very small can do.

식사에 포함된 국, 밥, 반찬의 종류를 인식하는 데 있어서, 김치의 경우 30°이상을 넘지 않는 것이 일반적이므로, 판단 기준에서 제외하거나, 국의 경우 40°이하의 경우를 제외하는 것과 같이 판단에 대한 보정을 수행할 수 있다In recognizing the types of soup, rice, and side dishes included in a meal, in the case of kimchi, it is generally not more than 30°. can be corrected for

보정모듈(256)은 센서들로부터 제공되는 센서값에 대하여 다양한 경우의 수가 설정됨에 따라 보정값을 생성할 수 있다. The correction module 256 may generate a correction value as the number of various cases is set for the sensor value provided from the sensors.

전술한 구조에 따라, 본 발명의 실시예에 따른 관리서버는 급식대상자 및 급식소에 대한 관리기능을 제공함과 동시에, 급식대상자들에게 잔반량및 음식 섭취량에 따른 섭취정보, 그리고, 이에 따른 섭취 영양성분 등에 대한 정보를 제공할 수 있다.According to the above-described structure, the management server according to an embodiment of the present invention provides a management function for catering subjects and food service stations, and at the same time, provides food service subjects with information on the amount of leftover food and food intake according to the amount of food consumed, and nutritional component intake accordingly. information can be provided, etc.

이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템의 운영방법을 설명한다.Hereinafter, an operating method of a food service management system according to an embodiment of the present invention will be described with reference to the drawings.

도 5는 본 발명의 실시예에 따른 급식관리 시스템의 운영방법을 나타낸 도면이다. 이하의 설명에서 각 단계별 주체는, 별도의 기재가 없더라도 전술한 본 발명의 급식관리 시스템을 이루는 복수의 스캐너 및 관리서버와, 이들을 구성하는 구성부가 된다.5 is a view showing an operating method of the food management system according to an embodiment of the present invention. In the following description, the subject of each stage becomes a plurality of scanners and management servers constituting the food service management system of the present invention described above, and a component constituting them, even if there is no separate description.

도 5를 참조하면, 본 발명의 실시예에 따른 급식관리 시스템의 운영방법은 제1 내지 제3 스캐너 및 관리서버를 포함하는 급식관리 시스템의 운영방법으로서, 급식대상인 사용자의 ID카드를 스캐닝하여 사용자를 식별하는 단계(S100), 식사전 식판의 인식코드를 스캐닝하여 식판을 식별하고, 사용자의 식판에 대한 식전영상을 획득하는 단계(S110), 식사후 식판을 스캐닝하여 식별된 식판을 통해 사용자의 식판에 대한 식후영상을 획득하는 단계(S120) 및, 획득된 식전영상 및 식후영상에 기초하여 전반정보를 산출하고, 잔반정보에 대응하는 섭취정보를 생성하는 단계(S130)를 포함할 수 있다.Referring to FIG. 5 , the operating method of the food service management system according to an embodiment of the present invention is an operating method of the food service management system including first to third scanners and a management server, and scans the ID card of the user who is the object of the meal. Step of identifying (S100), scanning the recognition code of the pre-meal plate to identify the plate, and obtaining a pre-meal image for the user's plate (S110), scanning the plate after a meal and scanning the plate after the meal to determine the user's It may include a step (S120) of obtaining a post-meal image for the plate, and a step (S130) of calculating overall information based on the obtained pre-meal image and post-meal image, and generating intake information corresponding to the leftover information.

급식대상인 사용자의 ID카드를 스캐닝하여 사용자를 식별하는 단계(S100)는 급식소에 설치된 제1 스캐너가 사용자가 제시한 ID카드를 스캐닝하여 그 정보를 관리서버에 전송하고, 관리서버가 해당 ID카드의 사용자가 급식대상자임을 식별하는 단계이다. In the step of identifying the user by scanning the ID card of the user who is the meal target (S100), the first scanner installed in the food service station scans the ID card presented by the user and transmits the information to the management server, and the management server sends the ID card of the corresponding ID card. This is the step of identifying that the user is a food subject.

다음으로, 식사전 식판의 인식코드를 스캐닝하여 식판을 식별하고, 사용자의 식판에 대한 식전영상을 획득하는 단계(S110)는 정상 사용자 즉, 급식대상자로 식별된 사용자가 식판을 골라 배식을 받으면, 제2 스캐너가 그 식판에 구비된 인식코드를 스캐닝하는 동시에, 식판에 담긴 음식을 스캐닝 하여 식사전 식판 영상을 생성하고, 그 정보를 관리서버에 전송하는 단계와, 관리서버가 인식코드 스캐닝 결과에 따라 해당 식판을 식별하고, 식전영상을 획득하는 단계로 이루어질 수 있다. 여기서, 식전영상은 관리서버의 영상 처리부에 의해 영상 처리되어 급식량을 산출하는 데 이용될 수 있다. Next, the step of identifying the plate by scanning the recognition code of the plate before a meal, and obtaining a pre-meal image for the user's plate (S110) is a normal user, that is, when a user identified as a food subject selects a plate and receives a meal, The second scanner scans the recognition code provided on the plate, and at the same time scans the food on the plate to generate a pre-meal plate image, and transmits the information to the management server; Accordingly, it may consist of a step of identifying the corresponding plate and acquiring a pre-meal image. Here, the pre-meal image may be image-processed by the image processing unit of the management server and used to calculate the amount of food.

식사후 식판을 스캐닝하여 식별된 식판을 통해 사용자의 식판에 대한 식후영상을 획득하는 단계(S120)는 식판별로 관리서버의 영상 처리부가 식사후 식판에 대한 영상인 식후영상을 획득하는 단계이다. 이러한 식후영상은 잔반량을 산출하는 데 이용될 수 있다.The step of scanning the plate after a meal and acquiring the post-meal image of the user's plate through the identified plate (S120) is a step in which the image processing unit of the management server acquires the post-meal image, which is an image of the plate after a meal, for each plate. This postprandial image can be used to calculate the amount of leftovers.

*이후, 획득된 식전영상 및 식후영상에 기초하여 잔반정보를 산출하고, 잔반정보에 대응하는 섭취정보를 생성하는 단계(S130)는 상기 S110 단계 및 S120 단계에서 산출한 급식량 및 잔반량의 차를 통해 실제 식사량에 대응하는 잔반정보 및 섭취정보를 생성하는 단계이다.* Thereafter, the step (S130) of calculating the remaining information based on the obtained pre-meal and post-meal images, and generating intake information corresponding to the remaining information (S130) is the difference between the amount of food and the amount of leftovers calculated in the steps S110 and S120. It is a step of generating leftover information and intake information corresponding to the actual meal amount through

특히, S130 단계에서는 영상 처리부가 급식량과 잔반량의 차에 따라 잔반정보를 산출함에 따라, 이러한 잔반정보는 해당 사용자의 실제 식사량을 나타내는 것으로 볼 수 있다. 또한, 본 발명에서는 이러한 잔반정보에 기초하여 사용자의 음식물 섭취량에 대한 섭취정보를 생성하고, 이를 수치, 텍스트 및 그래프 등의 형태로 출력함으로써 사용자에게 유용한 섭취정보를 제공하게 된다.In particular, in step S130, as the image processing unit calculates the leftover information according to the difference between the amount of food and the amount of leftovers, this leftover information can be viewed as representing the actual amount of meals of the corresponding user. In addition, the present invention provides useful intake information to the user by generating intake information about the user's food intake based on the leftover information and outputting it in the form of figures, texts, graphs, and the like.

또한, 도시되어 있지는 않지만, S130 단계 이후, 식사에 따른 섭취정보를 표시하는 단계 및 상기 섭취정보에 대응하여 쿠폰을 출력하는 단계를 더 포함할 수 있으며, 이러한 단계에 따라, 섭취정보를 통해 이용자의 정확한 섭취량을 판단할 수 있으며, 그 섭취량에 대한 섭취정보를 이용자에게 공급하여 칼로리 및 영양정보를 제공하고 잔반을 줄이기 위한 다양한 혜택으로서 커피 쿠폰 보상 등을 제공할 수 있다.In addition, although not shown, after the step S130, the step of displaying the intake information according to the meal and the step of outputting a coupon in response to the intake information may be further included, and according to this step, the user's It is possible to determine the exact amount of intake, and by supplying intake information about the intake to the user, it is possible to provide calorie and nutritional information and provide coffee coupon compensation as various benefits for reducing leftovers.

즉, 본 발명의 실시예에 따르면, 급식 공급자에게는 이용자들의 정확하고 구체적인 선호 음식 및 음식별 섭취량을 알려 급식의 질을 개선하고 잔반을 줄이기 위한 개선에 도움이 되는 정보를 제공할 수 있다.That is, according to an embodiment of the present invention, it is possible to provide information that is helpful in improving the quality of food service and reducing leftovers by notifying users of accurate and specific preferred food and intake amount for each food to the food service provider.

전술한 단계에 따라, 본 발명의 실시예에 따른 급식관리 시스템의 운영방법은 식판의 영상을 취득하는 단계에 따라 각 급식대상자들이 실제 식사량에 따른 섭취정보를 제공할 수 있고, 사용자는 이러한 섭취정보를 직접 확인하여 자신의 식습관을 확인 및 관리할 수 있게 된다.According to the above-described steps, the operating method of the food service management system according to an embodiment of the present invention can provide intake information according to the actual amount of food to each meal target according to the step of acquiring the image of the plate, and the user can provide such intake information You will be able to check and manage your own eating habits by directly checking the

이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템에서 급식제공 전후 잔반정보를 생성하는 방법을 상세히 설명한다. 이하의 단계에서 실행주체는 별도의 기재가 없더라도, 영상 처리부 및 그의 비교모듈이 된다.Hereinafter, with reference to the drawings, a method for generating the leftover information before and after the provision of meals in the food service management system according to an embodiment of the present invention will be described in detail. In the following steps, the executing entity becomes the image processing unit and its comparison module, even if there is no separate description.

도 6a 및 도 6b는 본 발명의 실시예에 따른 급식관리 시스템의 잔반정보 생성을 위한 영상 분석방법을 나타낸 도면이다.6A and 6B are diagrams illustrating an image analysis method for generating leftover information of a food service management system according to an embodiment of the present invention.

먼저, 도 6a를 참조하면, 식판을 인식하는 단계(S200)로서, 영상 처리부의 비교모듈이 스캐너가 촬영한 배식이 완료된 식판을 인식하는 단계이다. 상세하게는, 식판내 밥, 국, 반찬 및 그릇이 각각 담기는 구역들을 식판에 형성된 경계면을 통해 구획하고, 식판의 방향을 인식하여 음식물이 담기는 구역을 확정하게 된다.First, referring to FIG. 6A , as a step of recognizing a plate ( S200 ), the comparison module of the image processing unit recognizes the plate after the dispensing photographed by the scanner is completed. In detail, zones in which rice, soup, side dishes, and dishes are placed on the plate are partitioned through the boundary surface formed on the plate, and the direction of the plate is recognized to determine the zone in which food is placed.

다음으로, 식판상의 음식물을 분류하는 단계(S210)는 비교모듈이 식판내 구획된 구역별로 음식물의 종류를 인식하는 단계로서, 이미지 센서 즉 스캐너에 의해 획득된 영상을 기계학습을 위한 복수의 음식물 관련 학습영상에 대한 지식 데이터 베이스에 축적된 학습영상과 비교함으로써 각 구역별 영상 인식결과와 해당일의 메뉴를 매칭시켜 음식물을 판단하게 된다.Next, the step of classifying the food on the plate (S210) is a step in which the comparison module recognizes the type of food for each partitioned area in the plate, and the image acquired by the image sensor, that is, the scanner is related to a plurality of food for machine learning. By comparing the learning image with the learning image accumulated in the knowledge database for the learning image, the food is determined by matching the image recognition result for each area with the menu of the day.

이때, 매칭 성공률이 80 % 초과인 경우 즉시 결과를 영상 저장소에 저장하고, 80 % 이하인 경우 정의되지 않는 음식으로 분류하여 영상 저장소에 저장하게 된다.At this time, if the matching success rate is more than 80%, the result is immediately stored in the image storage, and if it is less than 80%, it is classified as undefined food and stored in the image storage.

음식물의 경계면을 따라 영역을 설정하는 단계(S220)는 구역별로 음식물의 경계면을 정확하게 설정해 주는 단계이다. 이때, 온도, 색상 및 형태 등이 고려될 수 있다. 일 예로서, 식판 내 음식물 중, 샐러드와 김치 사이를 정확하게 나누는 음식물 경계면을 설정하게 된다.The step of setting the area along the boundary surface of the food ( S220 ) is a step of accurately setting the boundary surface of the food for each zone. In this case, temperature, color and shape may be considered. As an example, among the foods on the plate, a food boundary that accurately divides between salad and kimchi is set.

다음으로, 영역별로 메뉴에 따라 재료를 인식하는 단계(S230)는 구역별 메뉴가 인식된 상태에서 음식물 경계면이 설정됨에 따라, 음식물 경계면이 이루는 영역 내 음식물을 이루는 재료를 식별하는 단계이다.Next, the step of recognizing the material according to the menu for each area ( S230 ) is a step of identifying the material constituting the food in the area formed by the food boundary as the food boundary is set while the menu for each area is recognized.

일 예로서, 제1 구역부터 제5 구역까지 구획된 식판에 대하여, 제1 구역에 샐러드가 담긴다고 가정하면, 제1 구역의 샐러드를 이루는 재료인 양배추, 브로콜리, 오이 및 당근 등을 각각 식별한다. 이러한 S230 단계에서도 기계 학습 및 영상 비교 절차가 수행될 수 있다. 이때, 제1 구역에 동일한 양의 샐러드가 담긴다고 가정한다 하더라도 식판별로 인식되는 재료의 양을 다를 수 있다.As an example, with respect to the plate partitioned from the first zone to the fifth zone, assuming that the salad is contained in the first zone, cabbage, broccoli, cucumber, carrot, etc., which are ingredients constituting the salad of the first zone, are identified respectively. . In this step S230, machine learning and image comparison procedures may be performed. In this case, even if it is assumed that the same amount of salad is contained in the first zone, the amount of ingredients recognized for each plate may be different.

이어서, 음식물의 부피를 계산하는 단계(S240)는 스캐너에 포함된 3D 센서를 통해 획득된 정보를 이용하여 음식별 경계면을 기준으로 각 음식별 부피를 인식하는 단계이다. 전술한 3D 센서는 피사체에 대한 깊이값(depth)를 측정할 수 있으며, 이를 통해 음식물 경계면 내에 높이를 추출하고, 경계면과 높이를 이용하여 부피를 산출함으로써 음식물의 양을 계산하게 된다.Next, the step of calculating the volume of food ( S240 ) is a step of recognizing the volume of each food based on the boundary surface for each food using the information obtained through the 3D sensor included in the scanner. The above-described 3D sensor can measure a depth value of a subject, and through this, extract a height within a food boundary surface, and calculate a volume by using the boundary surface and height to calculate the amount of food.

전술한 단계들에 따라, 영상 처리부는 획득한 식전영상을 저장하고, 이후 식사가 완료된 식판을 재 촬영한 식후영상을 이용하여 잔반정보를 생성할 수 있다.According to the above-described steps, the image processing unit may store the acquired pre-meal image, and then generate the leftover information using the post-meal image obtained by re-photographing the plate on which the meal is completed.

도 6b를 참조하면, 식판을 인식하는 단계(S300)로서, 영상 처리부의 비교모듈이 스캐너가 촬영한 배식이 완료된 식판을 인식하고, 식판 경계면을 따라 구역을 확정하는 단계이다.Referring to FIG. 6B , as a step of recognizing the plate ( S300 ), the comparison module of the image processing unit recognizes the plate that the scanner photographed and the plate is completed, and determines the area along the plate boundary.

식판상의 음식물의 경계면을 따라 영역을 설정하는 단계(S310)는 구역별로 음식물의 경계면을 정확하게 설정해 주는 단계이다.The step of setting the area along the boundary surface of the food on the plate ( S310 ) is a step of accurately setting the boundary surface of the food for each zone.

이어서, 영역별 음식물의 부피를 계산하는 단계(S320)는 음식별 경계면을 기준으로 스캐너에 포함된 3D 센서를 이용하여 획득된 정보에 따라 각 음식별 부피를 인식하는 단계이다. 이러한 S320 단계에서, 비교 모듈은 부피가 식전영상과 대비하여 음식물의 양이 5 % 이하로 판단되면 해당 구역의 메뉴 잔반량을 0 %로 간주하여 타 구역에 대한 음식물의 부피량을 산출하고, 음식물의 양이 5 % 를 초과하는 것으로 판단되면 이하의 S330 단계를 수행하게 된다.Next, the step of calculating the volume of food for each region ( S320 ) is a step of recognizing the volume of each food according to information obtained using the 3D sensor included in the scanner based on the boundary surface for each food. In this step S320, if the comparison module determines that the volume of food is 5% or less compared to the pre-meal image, the remaining amount of menu in the corresponding area is regarded as 0% and calculates the volume of food for other areas, If it is determined that the amount of is more than 5%, the following step S330 is performed.

음식물을 분류하고 식전 음식물과 매칭하는 단계(S330)는 기계 학습을 위한 지식 데이터 베이스의 학습영상을 이용하여 메뉴내 재료를 인식하고, 상기 S310 단계 및 S320 단계에서 산출된 부피량에 기초하여 메뉴별 및 재료별 잔반량을 계산함으로써 잔반정보를 생성하는 단계이다.In the step (S330) of classifying food and matching it with pre-meal food, the ingredients in the menu are recognized using the learning image of the knowledge database for machine learning, and each menu is based on the volume calculated in the steps S310 and S320. and generating residual information by calculating the residual amount for each material.

한편, 전술한 급식 시스템 운영방법에서 섭취정보를 생성하기 위해서는 식사전후 식판을 스캐닝하여 음식의 양을 파악함으로써 급식량, 잔반량 등을 획득하게 되며, 이하, 도면을 참조하여 본 발명의 실시예에 따른 급식관리 시스템에서 이용하는 스캐너의 구조를 설명한다.On the other hand, in order to generate intake information in the above-described food service system operating method, the amount of food and leftovers are obtained by scanning the plate before and after a meal to determine the amount of food. The structure of the scanner used in the food service management system is explained.

도 7은 본 발명의 실시예에 따른 급식관리 시스템에서 이용하는 스캐너의 구조를 나타낸 도면이다.7 is a view showing the structure of the scanner used in the food management system according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시예에 따른 스캐너(120)는 몸체(121), 몸체(121)의 일측에 수직하게 연결되는 지지부(122), 지지부(122)의 상부로 결합되며 상기 식판이 안착되는 거치대(123), 몸체(121)의 일측으로 거치대(123)의 상부를 향하도록 설치되고, 식판(7)상의 음식을 촬영하는 스테레오 카메라(124)를 포함할 수 있다.Referring to FIG. 7 , the scanner 120 according to an embodiment of the present invention includes a body 121 , a support 122 vertically connected to one side of the body 121 , and an upper portion of the support 122 , and the plate The holder 123 to be seated, one side of the body 121 is installed to face the upper portion of the holder 123 , and may include a stereo camera 124 for photographing food on the plate 7 .

몸체(121)는 스캐너(120)의 외관을 이루며, 급식소의 배식구 근처에 고정되는 형태로 설치될 수 있다. 몸체(121)의 일측으로 소정높이로는 지지부(122)가 연결될 수 있다.The body 121 forms the exterior of the scanner 120, and may be installed in a fixed form near the food outlet of the food service station. A support part 122 may be connected to one side of the body 121 at a predetermined height.

지지부(122)는 측방 일정길이로 돌출되고, 위에서 보았을 때 직사각형 형상으로 형성될 수 있다. 이러한 지지부(122)는 상부로 배치되는 거치대(123)를 하부에서 지지하게 된다.The support part 122 protrudes by a predetermined length from the side, and may be formed in a rectangular shape when viewed from above. The support 122 supports the cradle 123 disposed on the upper portion from the lower portion.

거치대(123)는 식사 전후 식판이 안착될 수 있다. 이러한 거치대(123)는 식판이 후술하는 스테레오 카메라(124)의 렌즈와 대향되도록 지지부(122)의 상에 고정되도록 결합될 수 있다.The holder 123 may be seated before and after a meal. The holder 123 may be coupled to be fixed on the support 122 so that the plate faces the lens of the stereo camera 124 to be described later.

특히, 거치대(123)의 하부는, 지지부(122)상에 설치되는 하나 이상의 로드셀(125)에 의해 지지 및 결합될 수 있고, 이러한 로드셀(125)은 거치대(123) 및 그 상부로 안착되는 식판(7)의 무게를 감지하고 이를 관리서버에 전송할 수 있다.In particular, the lower portion of the cradle 123 may be supported and coupled by one or more load cells 125 installed on the support 122 , and these load cells 125 are the cradle 123 and a plate mounted thereon. It can detect the weight of (7) and transmit it to the management server.

또한, 거치대(123)의 일측에는 상부에 안착된 식판의 온도를 감지하는 하나 이상의 온도센서(미도시)가 실장될 수 있고, 이러한 온도센서에 의해 감지된 온도는 관리서버에 전송되어 전술한 무게와 더불어 현재 식판에 담긴 음식의 무게 및 온도를 측정하여 관리 서버에 의해 급식량, 잔반량 또는 변동정도를 산출하는 데 보정값으로 이용될 수 있다.In addition, one or more temperature sensors (not shown) for sensing the temperature of the plate seated on the cradle 123 may be mounted on one side of the cradle 123, and the temperature sensed by these temperature sensors is transmitted to the management server and the above-described weight In addition, by measuring the weight and temperature of the food currently on the plate, it can be used as a correction value to calculate the amount of food, the amount of leftovers, or the degree of variation by the management server.

스테레오 카메라(124)는 몸체(121)상에 설치되되, 지지부(122)와 소정거리 이격되는 위치에 배치됨에 따라, 거치대(123)상의 식판(7)의 전 영역이 스캐닝 할 수 있는 위치에 설치될 수 있다. The stereo camera 124 is installed on the body 121, and as it is disposed at a position spaced apart from the support 122 by a predetermined distance, the entire area of the plate 7 on the cradle 123 is installed at a position where it can be scanned. can be

이러한 스테레오 카메라(124)는 렌즈가 거치대(123)를 대향 하도록 설치되며, 식사 전후의 식판을 각각 촬영하여 식전식판 영상 및 식후식판영상을 관리서버에 전송하게 된다. The stereo camera 124 is installed so that the lens faces the cradle 123, each of the plates before and after a meal is photographed to transmit the pre-meal plate image and the post-meal plate image to the management server.

상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서, 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.Although many matters are specifically described in the above description, these should be construed as examples of preferred embodiments rather than limiting the scope of the invention. Accordingly, the invention should not be defined by the described embodiments, but should be defined by the claims and equivalents to the claims.

1 : 급식소 3 : ID카드
6, 7 : 식사전,후 식판 100 ~ 120 : 제1 내지 제3 스캐너
200 : 관리서버 210 : 디스플레이부
220 : 사용자 관리부 230 : 급식소 관리부
240 : 장치 관리부 250 : 영상 처리부
260 : 데이터 베이스 270 : 광고 관리부
1: cafeteria 3: ID card
6, 7: Plates before and after meals 100 to 120: First to third scanners
200: management server 210: display unit
220: user management unit 230: food service management unit
240: device manager 250: image processing unit
260: database 270: advertisement management unit

Claims (10)

인식코드를 스캐닝하여 식판을 식별하고, 급식대상인 사용자에게 제공된 식사 전의 상기 식판에 대한 식전영상을 획득하는 식전 스캐너;
인식코드를 스캐닝하여 상기 식판을 식별하고, 상기 사용자에게 제공된 식사 후의 상기 식판을 스캐닝하여 상기 식판에 대한 식후영상을 획득하는 식후 스캐너; 및
상기 식전 스캐너 및 식후 스캐너를 제어하여 획득된 식전영상 또는 식후영상에 기초하여 상기 사용자에 대한 섭취정보를 생성하는 관리서버;를 포함하고,
상기 관리서버는,
급식 대상자들의 안면을 포함한 모습들이 영상으로 촬영되어 저장된 데이터베이스,
상기 데이터베이스에 저장된 영상을 기반으로, 안면 인식을 통해 카메라로부터 촬영되는 상기 사용자가 급식 대상자인지를 판별하는 사용자 관리부,
상기 식전 스캐너 및 식후 스캐너와 연결되어 획득된 스캐닝 데이터를 수신하는 장치 제어부 및
상기 장치 제어부가 수신한 스캐닝 데이터에 대응하여 상기 섭취정보를 생성하는 영상 처리부를 포함하되,
상기 영상 처리부는, 상기 식전 스캐너에 의해 획득된 식전영상 내에서 상기 식판을 인식하고, 상기 인식된 식판 내에 포함된 구역들을 상기 식판에 형성된 경계면을 통해 구획하고, 상기 식판의 방향을 기반으로 상기 구역들 중 음식물이 아닌 물체가 담긴 구역을 제외한 실제 음식물이 담긴 구역을 결정하고, 상기 결정된 구역 내에 담긴 음식물의 종류를 인식하고, 상기 식전 스캐너에 의해 획득된 식전영상에 포함된 깊이값을 이용하여 상기 결정된 구역 내에 담긴 음식물의 경계면에 대한 높이를 추출하고, 상기 경계면과 상기 높이를 이용하여 상기 결정된 구역 내에 담긴 음식물의 부피를 계산하고, 기계학습을 위한 지식 데이터 베이스의 학습영상을 이용하여 상기 음식물의 메뉴 내 재료를 인식하며, 상기 계산된 부피에 기초하여 상기 음식물의 메뉴별 및 재료별 잔반량을 계산함으로써 잔반정보를 생성하고,
상기 영상처리부는, 상기 기계학습을 위한 지식 데이터 베이스의 학습영상을 이용하여 상기 식전영상을 분석하여 인식하고, 상기 식전영상에 대한 인식 결과와 미리 정해진 메뉴를 이용하여 상기 결정된 구역 내에 담긴 음식물의 종류를 인식하되, 상기 미리 정해진 메뉴는 상기 관리서버에 구비된 식단정보를 참조하여 도출되는 것을 특징으로 하는, 급식관리 시스템.
a pre-meal scanner that identifies the plate by scanning the recognition code, and acquires a pre-meal image of the plate before the meal provided to the user who is the target of the meal;
a post-meal scanner that scans an identification code to identify the plate, and scans the plate after a meal provided to the user to obtain a post-meal image of the plate; and
A management server for generating intake information for the user based on the pre-meal or post-meal image obtained by controlling the pre-meal scanner and the post-meal scanner;
The management server,
A database in which images are recorded and stored, including the faces of the food recipients;
Based on the image stored in the database, a user management unit that determines whether the user, photographed from the camera through facial recognition, is a subject to be fed;
a device control unit connected to the pre-meal scanner and the post-meal scanner to receive the acquired scanning data; and
Including an image processing unit for generating the intake information in response to the scanning data received by the device control unit,
The image processing unit recognizes the plate in the pre-meal image obtained by the pre-meal scanner, divides the regions included in the recognized plate through the interface formed on the plate, and based on the direction of the plate, the region Determining an area containing actual food except for an area containing an object other than food, recognizing the type of food contained in the determined area, and using the depth value included in the pre-meal image obtained by the pre-meal scanner Extracting the height of the boundary surface of the food contained in the determined area, calculating the volume of the food contained in the determined area using the boundary surface and the height, and using the learning image of the knowledge database for machine learning of the food Recognizing the ingredients in the menu, and generating leftover information by calculating the amount of leftovers for each menu and each ingredient of the food based on the calculated volume,
The image processing unit analyzes and recognizes the pre-meal image by using the learning image of the knowledge database for machine learning, and uses the recognition result of the pre-meal image and a predetermined menu to determine the type of food contained in the determined area. However, the predetermined menu is characterized in that derived by referring to the diet information provided in the management server, the food management system.
제1항에 있어서,
상기 관리서버는,
식사전 잔반 축소에 대한 홍보 또는 경각심을 높이기 위한 메시지를 제공하는 광고 관리부를 더 포함하는 것을 특징으로 하는, 급식관리 시스템.
According to claim 1,
The management server,
Food management system, characterized in that it further comprises an advertisement management unit that provides a message for raising awareness or publicity about the reduction of leftovers before a meal.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200137172A 2019-09-05 2020-10-22 Management system of cafeteria and operation method thereof KR102329480B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200137172A KR102329480B1 (en) 2019-09-05 2020-10-22 Management system of cafeteria and operation method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190109848A KR20190104980A (en) 2019-09-05 2019-09-05 Management system of cafeteria and operation method thereof
KR1020200137172A KR102329480B1 (en) 2019-09-05 2020-10-22 Management system of cafeteria and operation method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190109848A Division KR20190104980A (en) 2019-09-05 2019-09-05 Management system of cafeteria and operation method thereof

Publications (2)

Publication Number Publication Date
KR20200123069A KR20200123069A (en) 2020-10-28
KR102329480B1 true KR102329480B1 (en) 2021-11-22

Family

ID=73018171

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200137172A KR102329480B1 (en) 2019-09-05 2020-10-22 Management system of cafeteria and operation method thereof

Country Status (1)

Country Link
KR (1) KR102329480B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113240727B (en) * 2021-03-22 2024-10-18 杭州雄伟科技开发股份有限公司 System and method for acquiring residual quantity prompt information of dishes in dinner plate

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100975960B1 (en) * 2010-01-29 2010-08-18 이종홍 School meal managing system for controlling student's nutritive conditions

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120058294A (en) * 2010-11-29 2012-06-07 한국전자통신연구원 Meal plate for appropriate feeding behavior and meal quantity management
KR101789732B1 (en) * 2015-07-29 2017-10-25 피도연 Method and apparatus for providing food information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100975960B1 (en) * 2010-01-29 2010-08-18 이종홍 School meal managing system for controlling student's nutritive conditions

Also Published As

Publication number Publication date
KR20200123069A (en) 2020-10-28

Similar Documents

Publication Publication Date Title
JP7494439B2 (en) Food service management system and its operation method
KR102606359B1 (en) Cafeteria management system
US8682929B2 (en) User access to item information
US12094015B2 (en) Method, information terminal, and non-transitory computer-readable recording medium
KR102487925B1 (en) Method, server and program for providing information on the operation and management information of the group feeding
KR102329480B1 (en) Management system of cafeteria and operation method thereof
KR20190104980A (en) Management system of cafeteria and operation method thereof
JP2022530263A (en) Food measurement methods, equipment and programs
NL2022213B1 (en) Food waste detection method and system
KR20240123777A (en) A method, device and program for measuring food
CN114746891A (en) Control method, information terminal, program, and recording medium
US12063948B2 (en) Method and system for foodservice with instant feedback
US20230178212A1 (en) Method and system for foodservice with iot-based dietary tracking
US20230196802A1 (en) Multi-sensor device for dietary tracking
KR20220145006A (en) Dietary Compliance Assessment System Using Artificial Intelligence
CN111860263A (en) Information input method and device and computer readable storage medium
WO2018008686A1 (en) Management system for managing nutritional component in meal
Budiningsari et al. Validity of a digital photo-based dietary assessment tool: Development and initial evaluation
KR20140004386U (en) System and method to figure out how much people take a meal in institutional food service cafeteria
JP2004334629A (en) Eating habit information collecting method, eating habit information collecting/providing system , and terminal
KR20220076047A (en) Healthy menu plan srevice online marketing system
WO2023034403A1 (en) Customer management services

Legal Events

Date Code Title Description
A107 Divisional application of patent
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant