KR20200126576A - A method, server, device and program for measuring amount of food - Google Patents

A method, server, device and program for measuring amount of food Download PDF

Info

Publication number
KR20200126576A
KR20200126576A KR1020190050377A KR20190050377A KR20200126576A KR 20200126576 A KR20200126576 A KR 20200126576A KR 1020190050377 A KR1020190050377 A KR 1020190050377A KR 20190050377 A KR20190050377 A KR 20190050377A KR 20200126576 A KR20200126576 A KR 20200126576A
Authority
KR
South Korea
Prior art keywords
food
plate
volume
image data
amount
Prior art date
Application number
KR1020190050377A
Other languages
Korean (ko)
Other versions
KR102471775B1 (en
Inventor
김대훈
Original Assignee
주식회사 누비랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 누비랩 filed Critical 주식회사 누비랩
Priority to KR1020190050377A priority Critical patent/KR102471775B1/en
Priority to CN202080039179.5A priority patent/CN113874678A/en
Priority to PCT/KR2020/005762 priority patent/WO2020222561A1/en
Priority to EP20798930.2A priority patent/EP3964793A4/en
Priority to JP2021564482A priority patent/JP2022530263A/en
Publication of KR20200126576A publication Critical patent/KR20200126576A/en
Application granted granted Critical
Publication of KR102471775B1 publication Critical patent/KR102471775B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Abstract

The present invention relates to a method for measuring the amount of food. The present invention calculates the amount of food based on information on the size, depth, and capacity of a plurality of spaces formed on a plate containing food, and an image photographed from a photographing means. The method for measuring the amount of food comprises the following steps of: extracting, by an extraction unit, the food image data accommodated in each space of a food plate from food plate image data taken by one or more photographing units; determining, by a determination unit, the type of each food based on the extracted food image data; and calculating, by a calculation unit, the volume of each food by using height information for each pixel of the extracted food image data.

Description

음식량 측정 방법, 장치, 서버 및 프로그램 {A method, server, device and program for measuring amount of food}{A method, server, device and program for measuring amount of food}

본 발명은 음식량을 측정하는 방법에 관한 것이다.The present invention relates to a method of measuring the amount of food.

최근 들어, 웰빙(Well-Being), 다이어트(Diet) 등과 같이 건강한 식단을 유지하려는 사람들이 많아짐에 따라서 음식량을 측정하는 기술의 수요가 증가하고 있다.In recent years, as more people want to maintain a healthy diet such as well-being and diet, the demand for a technology for measuring food quantity is increasing.

이를 이용하면, 학교, 기업, 군대, 관공서, 병원 등과 같이 복수의 사람들에게 배식을 하는 장소에서도 사람들에게 배식, 급식되는 음식의 양을 측정하여 이를 통해 배식량과 잔반량을 측정함으로써, 수요량과 공급량을 예상하여 효율적인 배식관리를 진행하고, 배식자들의 칼로리를 관리해줄 수 있는 등 많은 장점이 있다.By using this, even in places where food is served to multiple people, such as schools, companies, military, government offices, hospitals, etc., the amount of food served and fed to people is measured, and the amount of food and residual quantity is measured by measuring the amount of food served and the amount of supply. There are many advantages, such as being able to perform efficient food management in anticipation of and manage the calories of the distributors.

하지만, 현재 공개된 대부분의 기술들은 카메라를 통해 촬영된 이미지를 단순 이미지 검색하는데 그치고 있기 때문에 그 정확도가 현저하게 떨어지고, 이미지 검색에서 정확도가 떨어지다 보니 칼로리 계산 등과 같은 다음 단계들에서는 더 큰 오차가 발생한다는 문제점이 있다.However, since most of the currently released technologies are merely searching for images taken through a camera, their accuracy is remarkably degraded, and since the accuracy in image search is poor, a larger error occurs in the next steps such as calorie calculation. There is a problem.

이에, 본 출원인은 단순하게 음식을 이미지로 검색하는데 그치지 않고 정확하게 분석하고 산출할 수 있는 발명을 안출하게 되었다.Accordingly, the applicant of the present invention came up with an invention that can accurately analyze and calculate food, not just searching for food by image.

대한민국 공개특허공보 제10-2005-0083210호 (2005.08.26)Republic of Korea Patent Publication No. 10-2005-0083210 (2005.08.26)

상술한 바와 같은 문제점을 해결하기 위한 본 발명은 스테레오 카메라 또는 깊이 카메라를 통해 촬영된 이미지의 픽셀별 높이 정보를 이용하여 음식의 부피를 산출하는 음식량 측정 방법을 제공할 수 있다.The present invention for solving the above-described problem can provide a food amount measurement method of calculating the volume of food by using height information for each pixel of an image photographed through a stereo camera or a depth camera.

또한, 본 발명은 배식식판의 정보를 이용하여 산출된 음식의 부피를 보정하는 음식량 측정 방법을 제공할 수 있다.In addition, the present invention can provide a food amount measuring method for correcting the volume of food calculated by using the information on the serving plate.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 음식량 측정 방법은, 분석부가 배식식판(사용자의 배식받은 식판) 이미지를 분석하여, 상기 식판에 수용된 하나 이상의 음식을 인식하는 단계; 산출부가 식판 정보와 상기 배식식판 이미지 내 음식의 이미지를 이용하여 각 음식의 부피를 산출하는 단계; 및 상기 산출부가 음식 정보와 상기 산출된 각 음식의 부피를 이용하여 각 음식의 무게를 산출하는 단계;를 포함하며, 상기 서버는, 기본식판(배식 전 식판) 이미지와 식판에 형성된 복수의 공간에 대한 크기, 깊이 및 용량을 포함하는 식판 정보, 음식별 부피당 무게를 포함하는 음식 정보가 저장된 데이터베이스를 포함한다.The method of measuring the amount of food according to an embodiment of the present invention for solving the above-described problem includes the steps of: analyzing an image of a serving plate (the user's serving plate) by an analysis unit to recognize one or more foods accommodated in the plate; Calculating, by a calculation unit, the volume of each food using the plate information and the image of the food in the plate image; And calculating the weight of each food by using the food information and the calculated volume of each food by the calculation unit, wherein the server includes a basic plate (pre-dining plate) image and a plurality of spaces formed on the plate. It includes a database in which food information including plate information including size, depth and capacity of each food, and food information including weight per volume for each food is stored.

또한, 상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 음식량 측정 서버는, 기본식판(배식 전 식판) 이미지와 식판에 형성된 복수의 공간에 대한 크기, 깊이 및 용량을 포함하는 식판 정보, 음식별 부피당 무게를 포함하는 음식 정보가 저장된 데이터베이스; 배식식판(사용자의 배식받은 식판) 이미지를 분석하여, 상기 식판에 수용된 하나 이상의 음식을 인식하는 분석부; 상기 식판 정보와 상기 배식식판 이미지 내 음식의 이미지를 이용하여 각 음식의 부피를 산출하고, 상기 음식 정보와 상기 산출된 각 음식의 부피를 이용하여 각 음식의 무게를 산출하는 산출부;를 포함한다.In addition, the food quantity measurement server according to an embodiment of the present invention for solving the above-described problems includes a basic plate (pre-dining plate) image and plate information including size, depth and capacity for a plurality of spaces formed on the plate, A database storing food information including weight per volume for each food; An analysis unit that analyzes the image of the serving plate (the plate received by the user) and recognizes one or more foods accommodated in the plate; And a calculation unit that calculates the volume of each food using the food plate information and the image of the food in the food plate image, and calculates the weight of each food using the food information and the calculated volume of each food; .

또한, 상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 음식량 측정 장치는, 기본식판(배식 전 식판) 이미지와 식판에 형성된 복수의 공간에 대한 크기, 깊이 및 용량을 포함하는 식판 정보, 음식별 부피당 무게를 포함하는 음식 정보가 저장된 데이터베이스; 배식식판(사용자의 배식받은 식판) 이미지를 분석하여, 상기 식판에 수용된 하나 이상의 음식을 인식하는 분석부; 상기 식판 정보와 상기 배식식판 이미지 내 음식의 이미지를 이용하여 각 음식의 부피를 산출하고, 상기 음식 정보와 상기 산출된 각 음식의 부피를 이용하여 각 음식의 무게를 산출하는 산출부;를 포함한다.In addition, the food quantity measurement apparatus according to an embodiment of the present invention for solving the above-described problem includes a basic plate (pre-food plate) image and plate information including size, depth, and capacity for a plurality of spaces formed on the plate, A database storing food information including weight per volume for each food; An analysis unit that analyzes the image of the serving plate (the plate received by the user) and recognizes one or more foods accommodated in the plate; And a calculation unit that calculates the volume of each food using the food plate information and the image of the food in the food plate image, and calculates the weight of each food using the food information and the calculated volume of each food; .

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method may be further provided.

상기와 같은 본 발명에 따르면, 스테레오 카메라 또는 깊이 카메라를 통해 촬영된 이미지의 픽셀별 높이 정보를 이용하여 음식의 부피를 산출하여, 정확한 음식의 부피를 산출할 수 있는 효과가 있다.According to the present invention as described above, it is possible to calculate the volume of food by calculating the volume of food by using height information for each pixel of an image photographed through a stereo camera or a depth camera.

또한, 본 발명은 배식식판 공간들의 크기, 깊이 및 용량에 대한 정보를 통해 산출된 음식의 부피를 보정하여 보다 정확하게 음식의 부피를 산출할 수 있는 효과가 있다.In addition, the present invention has the effect of more accurately calculating the volume of food by correcting the volume of food calculated through information on the size, depth, and capacity of the plate spaces.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시예에 따른 음식량 측정 방법의 흐름도이다.
도 2는 본 발명의 실시예에 따른 기본식판 이미지의 예시도이다.
도 3은 본 발명의 실시예에 따른 음식이 수용된 배식식판 이미지의 예시도이다.
도 4는 도 3에서 하나의 공간에 두 개의 음식이 적층된 것을 예시한 도면이다.
도 5는 본 발명의 실시예에 따른 음식량 측정 서버의 블록도이다.
도 6은 본 발명의 실시예에 따른 음식량 측정 장치의 블록도이다.
도 7 및 도 8은 본 발명의 실시예에 따른 음식량 측정 장치의 예시도이다.
1 is a flowchart of a method for measuring food amount according to an embodiment of the present invention.
2 is an exemplary view of a basic plate image according to an embodiment of the present invention.
3 is an exemplary diagram of an image of a food plate containing food according to an embodiment of the present invention.
4 is a view illustrating that two foods are stacked in one space in FIG. 3.
5 is a block diagram of a food quantity measurement server according to an embodiment of the present invention.
6 is a block diagram of a food amount measuring apparatus according to an embodiment of the present invention.
7 and 8 are exemplary diagrams of a food quantity measuring apparatus according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Prior to the description, the meaning of terms used in the present specification will be briefly described. However, it should be noted that the description of terms is not intended to limit the technical idea of the present invention unless explicitly described as limiting the present invention, since it is intended to help the understanding of the present specification.

배식소: 학교, 회사, 군대와 같이 단체에게 식사를 제공하는 장소를 의미한다.Food Service: A place that provides meals to groups, such as schools, companies, and the military.

배식구: 배식소에서 음식을 배식받는 위치를 의미한다.Distributor: This refers to the location where food is served at the deli.

퇴식구: 배식소에서 식사를 마친 사람(배식대상)들이 식판(500)을 반납하는 위치를 의미한다.Exit: Refers to the location where people (to be served) who have finished eating at the bakery return the plate 500.

도 1은 본 발명의 실시예에 따른 음식량 측정 방법의 흐름도이고, 도 2는 본 발명의 실시예에 따른 기본식판 이미지의 예시도이며, 도 3은 본 발명의 실시예에 따른 음식이 수용된 배식식판 이미지의 예시도이고, 도 4는 도 3에서 하나의 공간(510)에 두 개의 음식이 적층된 것을 예시한 도면이다.1 is a flow chart of a method for measuring the amount of food according to an embodiment of the present invention, FIG. 2 is an exemplary diagram of a basic food plate image according to an embodiment of the present invention, and FIG. 3 is a food plate containing food according to an embodiment of the present invention. An exemplary diagram of an image, and FIG. 4 is a diagram illustrating that two foods are stacked in one space 510 in FIG. 3.

도 1 내지 도 4를 참조하여, 본 발명의 실시예에 따른 음식량 측정 방법에 대해서 설명하도록 한다.A method of measuring food amount according to an embodiment of the present invention will be described with reference to FIGS. 1 to 4.

본 발명의 실시예에 따른 음식량 측정 방법은 컴퓨터에 의해 수행되며, 컴퓨터는 음식량 측정 장치(30), 또는 음식량 측정 서버(10)를 의미한다.The food amount measurement method according to the embodiment of the present invention is performed by a computer, and the computer refers to the food amount measuring device 30 or the food amount measuring server 10.

수신부(110)가 촬영부(50)를 통해 촬영된 배식식판 이미지를 수신한다. (S520단계)The receiving unit 110 receives the food plate image photographed through the photographing unit 50. (S520 step)

이때, 배식식판은 사용자가 식판(500)에 음식을 배식받은 상태의 식판(500)을 의미하고, 기본식판은 음식을 배식받기 전 기본적인 식판(500)을 의미한다.At this time, the serving plate means the plate 500 in a state in which the user has received food on the plate 500, and the basic plate means the basic plate 500 before receiving the food.

촬영부(50)는 스테레오 카메라 및 깊이 카메라 중 적어도 하나를 포함하며, 바람직하게는, 일정 거리 이격되어 설치된 제1촬영부(53) 및 제2촬영부(55)를 통해 촬영된 2개의 배식식판 이미지를 수신한다.The photographing unit 50 includes at least one of a stereo camera and a depth camera, and preferably, two distribution plates photographed through the first photographing unit 53 and the second photographing unit 55 installed at a certain distance apart. Receive the image.

촬영부(50)에 스테레오 카메라가 포함되어 있는 경우, 하나의 촬영부(50)는 2개의 촬영수단을 포함하고 있기 때문에 산출부(140)는 스테레오 카메라를 통해 촬영된 차이값을 통해서 이미지 데이터의 깊이를 산출할 수 있게 된다.When a stereo camera is included in the photographing unit 50, since one photographing unit 50 includes two photographing means, the calculation unit 140 uses the difference value photographed through the stereo camera to determine the image data. The depth can be calculated.

깊이 카메라는 3D 스캐너, 3D 센서, ToF(Time of Flight) 카메라, 적외선(IR) 카메라 등과 같이 타겟을 촬영하고 3차원 거리 정보(데이터)를 획득할 수 있는 장치라면 무엇이든 적용이 가능하다.The depth camera can be applied to any device such as a 3D scanner, a 3D sensor, a Time of Flight (ToF) camera, an infrared (IR) camera, etc. that can photograph a target and acquire 3D distance information (data).

또한, 제1촬영부(53)와 제2촬영부(55)는 식판(500)을 상측에서 촬영할 수 있는 위치에 일정 거리 이격되어 식판(500)을 서로 다른 각도로 촬영할 수 있게 설치되는 것이 바람직하다.In addition, it is preferable that the first photographing unit 53 and the second photographing unit 55 are spaced a predetermined distance at a position where the meal plate 500 can be photographed from the upper side so that the meal plate 500 can be photographed at different angles. Do.

카메라는 빛을 인식하는 장치이기 때문에, 빛 반사와 같은 환경의 영향을 많이 받게 된다. 따라서 위와 같이 2개 이상의 촬영부(50)를 이용하여 촬영을 함으로써 환경의 영향을 최소화 하도록 하고, 2개 이상의 촬영부(50)를 이용하여 촬영을 하더라도 환경의 영향을 받을 수 있기 때문에 이에 대한 보정이 필요하다.Since a camera is a device that recognizes light, it is highly affected by environment such as light reflection. Therefore, by taking a picture using two or more photographing units 50 as above, the effect of the environment is minimized, and even if a picture is taken using two or more photographing units 50, the environment may be affected. I need this.

따라서, 컴퓨터는 배식소의 특성, 환경에 따라 최적화하기 위해서 학습모듈이 촬영되는 이미지들을 통해 현장의 상황을 학습하고, 필터처리, 고정물체 및 Reference 물체를 기준으로 환경상태를 인지하도록 할 수 있다.Accordingly, in order to optimize according to the characteristics and environment of the distribution center, the computer learns the situation of the field through the images taken by the learning module, and recognizes the environmental condition based on filter processing, fixed objects, and reference objects.

S520단계 다음으로, 보정부(150)가 이미지 보정을 수행할 수 있다.After step S520, the correction unit 150 may perform image correction.

보다 상세하게는, 보정부(150)가 2개의 배식식판 이미지 데이터를 이용하여 노이즈 성분을 제거하고, 배식식판 이미지의 기울기를 인식하여 수평 상태의 이미지로 보정할 수 있다.In more detail, the correction unit 150 may remove a noise component using the image data of the two serving plates, recognize the inclination of the plate image, and correct the image in a horizontal state.

상술한 바와 같이, 배식소에서 배식식판을 촬영할 때 배식식판을 특정 위치에 올려놓고 안정적으로 촬영을 할 수도 있지만, 배식소의 사정에 따라서 사용자가 식판(500)을 들고 걸어가는 것을 촬영할 수도 있다.As described above, when taking a picture of the food plate at the bakery, it is possible to stably photograph the food plate by placing it in a specific position, but depending on the circumstances of the bakery, it is also possible to take a picture of the user walking with the plate 500.

따라서, 배식식판의 각도가 기울어져 있을 수 있기 때문에 보정부(150)가 배식식판 이미지의 기울기(기울어진 정보)를 인식하고, 배식식판 이미지를 수평상태의 이미지로 보정하여 음식의 부피를 정확하게 산출할 수 있도록 한다.Therefore, since the angle of the plate may be inclined, the correction unit 150 recognizes the inclination (inclined information) of the plate image and corrects the plate image to a horizontal image to accurately calculate the volume of the food. To be able to do it.

또한, 수신부(110)를 통해 수신된 2개의 배식식판 이미지 데이터에 현장의 상황(흔들림, 빛 반사 등)에 따라서 노이즈가 발생할 수 있기 때문에 2개의 배식식판 이미지를 비교하여 노이즈를 제거하도록 할 수 있다.In addition, since noise may occur in the image data of the two serving plates received through the receiving unit 110 according to the situation (shake, light reflection, etc.) in the field, the noise can be removed by comparing the two plate images. .

상술한 보정부(150)의 구성과 동작들로 인하여, 본 발명의 실시예에 따른 음식량 측정 방법은, 배식소에서 음식량 측정 장치를 별도로 구비하지 못하고 식판을 소지하고 걸어가는 사용자에 대한 영상을 촬영하여 배식식판 이미지, 식후식판 이미지를 획득하는 경우에도 식판의 각도를 수평상태로 보정함으로써, 차후 단계들이 수행될 때 정확도를 상승시킬 수 있는 효과를 발휘하게 된다.Due to the configuration and operations of the above-described correction unit 150, the food quantity measurement method according to the embodiment of the present invention captures an image of a user walking with a food plate without a separate food quantity measurement device in the bakery. Thus, even in the case of obtaining the image of the plate image and the image of the plate, the angle of the plate is corrected to a horizontal state, thereby exerting the effect of increasing the accuracy when the subsequent steps are performed.

S520단계 다음으로, 추출부(120)가 배식식판 이미지 데이터에서 식판(500)의 각 공간(510)에 수용된 음식 이미지 데이터를 추출한다. (S530단계)Step S520 Next, the extraction unit 120 extracts food image data accommodated in each space 510 of the plate 500 from the plate image data. (S530 step)

보다 상세하게는, 배식식판 이미지에는 식판(500)과 음식의 이미지가 함께 포함되어 있기 때문에, 음식 이미지 데이터를 식판(500)으로부터 추출하는 것을 의미한다.More specifically, since the image of the food plate 500 and the food are included in the food plate image, it means that food image data is extracted from the plate 500.

S530단계 다음으로, 판단부(130)가 추출된 음식 이미지 데이터를 통해 각 음식의 종류를 판단한다. (S540단계)Step S530 Next, the determination unit 130 determines the type of each food through the extracted food image data. (S540 step)

판단부(130)는 촬영부(50)에 포함된 RGB 카메라를 통해 촬영된 데이터, 또는 스테레오 카메라를 통해 촬영된 RGB 데이터를 이용하여 음식 종류를 판단할 수 있다.The determination unit 130 may determine the type of food using data photographed through an RGB camera included in the photographing unit 50 or RGB data photographed through a stereo camera.

이때, 선행되는 단계로, 수신부(110)가 배식소에서 배식중인 음식 리스트 정보를 수신하는 단계(S510단계)가 더 포함될 수 있다.In this case, as a preceding step, a step of receiving, by the receiving unit 110, information on a list of foods being served at the bakery (step S510) may be further included.

그리고, 판단 단계(S540단계)에서 판단부(130)는 추출된 음식 이미지 데이터와 음식 리스트 정보를 매칭하여 각 음식의 종류를 판단할 수 있다.Then, in the determination step (S540), the determination unit 130 may determine the type of each food by matching the extracted food image data and food list information.

이와 같이, 판단부(130)가 음식 이미지 데이터를 분석하여 음식의 종류를 자체적으로 판단할 수도 있고, 저장되어 있는 음식 리스트 정보와 매칭하여 음식의 종류를 판단할 수도 있다.In this way, the determination unit 130 may determine the type of food by analyzing the food image data, or may determine the type of food by matching with the stored food list information.

S540단계 다음으로, 산출부(140)가 추출된 음식 이미지 데이터의 픽셀별 높이 정보(3차원 거리 데이터)를 이용하여 각 음식의 부피를 산출한다. (S550단계)Step S540 Next, the calculation unit 140 calculates the volume of each food by using height information (three-dimensional distance data) for each pixel of the extracted food image data. (S550 step)

위에서 언급한 바와 같이, 배식식판 이미지는 스테레오 카메라 또는 깊이 카메라를 포함하는 촬영부(50)를 통해 촬영되었기 때문에 음식 이미지 데이터에 픽셀별 높이 정보(3차원 거리 데이터)가 포함되어 있고, 이를 이용하여 각 음식의 부피를 산출할 수 있게 된다.As mentioned above, since the food plate image was photographed through the photographing unit 50 including a stereo camera or a depth camera, height information for each pixel (three-dimensional distance data) is included in the food image data, and using this You can calculate the volume of each food.

일 실시예로, 제1촬영부(53) 및 제2촬영부(55)를 통해 촬영된 2개의 배식식판 이미지를 보정하여 하나의 배식식판 이미지를 생성하고 취합된 이미지 데이터를 이용하여 부피 산출을 수행할 수도 있다.In one embodiment, a single plate image is generated by correcting two food plate images taken through the first and second photographing units 53 and the second photographing unit 55, and volume calculation is performed using the collected image data. You can also do it.

일 실시예로, 컴퓨터는 기본식판(배식 전 식판(500)) 이미지와 식판(500)에 형성된 복수의 공간(510)에 대한 크기, 깊이 및 용량을 포함하는 식판 정보가 저장된 데이터베이스(170)를 포함한다.In one embodiment, the computer includes a database 170 in which food plate information including the size, depth and capacity of the image and the plurality of spaces 510 formed on the plate 500 is stored. Include.

그리고, 부피 산출 단계(S550단계)는 보정부(150)가 각 음식이 수용된 공간(510)의 크기, 깊이 및 용량 정보를 이용하여 산출된 각 음식의 부피를 보정하는 단계가 더 포함될 수 있다.In addition, the volume calculation step (S550) may further include a step of correcting the volume of each food calculated using the size, depth, and capacity information of the space 510 in which each food is accommodated.

보다 상세하게는, 컴퓨터의 데이터베이스(170)에는 배식소에서 이용하는 식판(500)에 대한 데이터가 저장되어 있기 때문에, 이를 이용하여 추출된 각 음식의 크기(부피)를 보다 정확하게 산출할 수 있게 된다.In more detail, since data on the food plate 500 used in the food service is stored in the database 170 of the computer, the size (volume) of each extracted food can be more accurately calculated using this.

또한, 식판(500)의 종류에 따라서 각 공간(510)의 깊이가 상이하기 때문에 보정부(150)가 식판 정보를 이용하면 음식이 쌓인 정도를 보다 정확하게 판단할 수 있게 된다.In addition, since the depth of each space 510 is different according to the type of the plate 500, if the correction unit 150 uses the plate information, it is possible to more accurately determine the degree of food accumulation.

일 실시예로, 부피 산출 단계(S550단계)는 적층된 음식의 부피를 산출하는 단계(S555단계)를 더 포함할 수 있다.In an embodiment, the volume calculation step (S550) may further include calculating the volume of the stacked food (S555).

보다 상세하게는, 식판(500) 내 특정 공간(510)에는 복수의 음식이 적층되어 있을 수 있다. 따라서, 산출부(140)는 식판(500) 내 특정 공간(510)에 서로 다른 음식이 적층된 것으로 인식되는 경우, 상측에 위치한 음식의 이미지 데이터와 산출된 부피 정보, 그리고 해당 공간(510)의 크기, 깊이 및 용량 정보를 이용하여 하측에 위치한 음식의 부피를 산출한다.In more detail, a plurality of foods may be stacked in a specific space 510 in the plate 500. Therefore, when it is recognized that different foods are stacked on a specific space 510 in the food plate 500, the calculation unit 140, the image data of the food located on the upper side, the calculated volume information, and the corresponding space 510 The volume of food located on the lower side is calculated using the size, depth, and volume information.

도 3 (a)는 배식식판에서 밥이 수용된 공간(510)에 밥 위에 계란 후라이가 적층된 것을 예시한 도면이고, (b)는 생선이 적층된 것을 예시한 도면이다.3 (a) is a diagram illustrating that fried eggs are stacked on the rice in a space 510 in which rice is accommodated in a distribution plate, and (b) is a diagram illustrating that fish are stacked.

도 3을 참조하여 예를 들면, 산출부(140)는 식판 정보와 계란 후라이의 이미지 데이터를 통해 계란 후라이의 크기와 부피를 산출한다.Referring to FIG. 3, for example, the calculation unit 140 calculates the size and volume of the fried egg through plate information and image data of the fried egg.

그리고, 산출부(140)는 계란 후라이의 크기와 부피 정보를 통해서 해당 간(510)에 수용된 밥의 높이를 예측할 수 있게 되며, 이와 함께 식판 정보를 이용하여 해당 간(510)에 수용된 밥의 부피를 산출할 수 있게 된다.Then, the calculation unit 140 can predict the height of the rice accommodated in the liver 510 through the size and volume information of the fried egg, and the volume of rice accommodated in the liver 510 using the plate information. Can be calculated.

또한, 도 3 (b)도 마찬가지로, 산출부(140)가 식판 정보와 생선의 이미지를 통해 생선의 크기와 부피를 산출하고, 이를 이용하여 해당 간(510)에 수용된 밥의 부피를 산출하게 된다.In addition, in the same manner as in FIG. 3(b), the calculation unit 140 calculates the size and volume of the fish through the plate information and the image of the fish, and uses this to calculate the volume of rice accommodated in the liver 510. .

일 실시예로, 컴퓨터의 데이터베이스(170)에는 다른 음식의 상측에 적층되는 음식들에 대한 데이터가 미리 저장되어 있을 수 있다. (예를 들어, 계란 후라이, 생선, 김 등)In one embodiment, the database 170 of the computer may previously store data on foods stacked on top of other foods. (For example, fried eggs, fish, seaweed, etc.)

또한, 산출부(140)는 식판(500) 내 특정 공간(510)에 수용된 음식의 종류가 액체인 것으로 판단되는 경우, 액체와 해당 공간(510)이 맞닿는 위치와 해당 공간(510)의 크기, 깊이 및 용량 정보를 이용하여 액체의 부피를 산출할 수 있다.In addition, when it is determined that the type of food accommodated in the specific space 510 in the plate 500 is a liquid, the calculation unit 140 may provide a location where the liquid and the corresponding space 510 abut and the size of the space 510, The volume of the liquid can be calculated using the depth and volume information.

특정 공간(510)에 '국'과 같은 액체 형태의 음식이 수용되면 필연적으로 '국'과 해당 공간(510)이 일정 높이에서 맞닿는 부분이 생기게 된다. 산출부(140)는 이를 이용하여 배식식판 이미지에서 액체 형태의 음식물과 해당 공간(510)이 맞닿는 위치를 인식하고, 해당 공간(510)의 공간 정보(크기, 깊이, 용량)을 이용하여 음식물의 부피를 산출하게 된다.When food in a liquid form such as'guk' is accommodated in a specific space 510, there is inevitably a portion where the'guk' and the corresponding space 510 abut at a certain height. Using this, the calculation unit 140 recognizes the location where the food in the form of a liquid and the corresponding space 510 contact in the image of the food plate, and uses the space information (size, depth, capacity) of the space 510 to To calculate the volume.

예를 들어, 도 3에 표기된 'A' 영역에 '국'과 공간(510)이 맞닿는 부분이 표시되어 있으며, 산출부(140)는 이미지 데이터 내 A영역과 같은 부분을 통해 액체와 액체가 수용된 공간(510)이 맞닿는 위치를 확인할 수 있게 된다.For example, a portion where the'station' and the space 510 abuts is displayed in the'A' area shown in FIG. 3, and the calculation unit 140 contains the liquid and the liquid through the same area as the area A in the image data. The position where the space 510 abuts can be confirmed.

한편, 부피 산출 단계(S550단계)는 보정부(150)가 배식식판 이미지 내에 식판과 함께 촬영된 노이즈 성분을 보정하는 단계를 더 포함할 수 있다. 구체적으로, 보정부(150)가 배식식판 이미지 데이터 내에서 음식이 아니면서 부피를 가지는 노이즈 성분을 검출하고, 각 음식의 부피를 산출하는 단계에서 산출된 음식의 부피에서 검출된 노이즈 성분의 부피를 제외하는 보정을 수정하는 단계를 더 포함할 수 있다.Meanwhile, the volume calculation step (S550) may further include a step of correcting, by the correction unit 150, a noise component photographed together with the food plate in the food plate image. Specifically, the correction unit 150 detects a noise component that is not food and has a volume in the plate image data, and calculates the volume of the noise component detected from the volume of food calculated in the step of calculating the volume of each food. It may further comprise the step of correcting the correction to be excluded.

여기서, 노이즈 성분은 음식이 아니면서 부피를 가지는 것으로, 노이즈 성분의 부피로 인해 음식의 부피가 실제보다 더 크게 산출될 수 있다. 따라서 보정부(150)는 음식의 부피를 정확히 산출하기 위해 촬영된 이미지 내에서 노이즈 성분을 인식하고 산출부(140)에 의해 산출된 음식의 부피에서 해당 노이즈 성분의 부피를 제외시키는 보정을 수행할 수 있다.Here, the noise component is not food and has a volume, and the volume of the food may be calculated larger than the actual volume due to the volume of the noise component. Therefore, the correction unit 150 recognizes the noise component in the captured image in order to accurately calculate the volume of the food, and performs correction to exclude the volume of the noise component from the volume of the food calculated by the calculation unit 140. I can.

예를 들어, 손이나 수저가 음식이 아니면서 부피를 가지는 노이즈 성분일 수 있으며, 이 밖에 유제품의 뚜껑 등이 이에 해당할 수 있지만, 이에 제한되지 않는다.For example, a hand or a spoon may be a noise component having a volume while not being food, and the lid of a dairy product may correspond to this, but is not limited thereto.

일례로, 노이즈 성분을 보정하는 단계에서 보정부(150)는 사용자의 손에 대한 이미지를 배식식판 이미지에서 인식하고 산출부(140)에 의해 산출된 음식의 부피값에서 손에 대한 부피값을 제외시키는 보정을 수행할 수 있다.For example, in the step of correcting the noise component, the correction unit 150 recognizes the image of the user's hand from the food plate image and excludes the volume value of the hand from the volume value of the food calculated by the calculation unit 140 It is possible to perform the correction to make.

예를 들어, 상술한 바와 같이 배식소의 사정에 따라서 사용자가 식판(500)을 들고 걸어가는 것을 촬영하여 이미지를 획득할 수도 있는데, 식판을 들고 있는 손의 이미지 데이터 때문에 음식의 부피 산출에 오류가 발생할 수도 있기 때문에 보정부가 배식식판 이미지 데이터를 통해 산출된 음식의 부피값에서 손과 같은 신체부위에 대한 부피값을 제외시키는 보정을 실시함으로써, 음식의 부피 산출 단계에서 정확도를 상승시킬 수 있다.For example, as described above, an image may be obtained by photographing a user walking while holding the plate 500 according to the circumstances of the food plate, but an error may occur in calculating the volume of the food due to the image data of the hand holding the plate. In addition, since the correction unit performs a correction that excludes the volume value of the body part such as the hand from the volume value of the food calculated through the plate image data, the accuracy can be increased in the food volume calculation step.

일 실시예로, 보정부(150)는 빈 식판(500)과 수저에 대한 이미지 데이터에 대하여 미리 학습되어 배식식판 이미지 내에 수저가 포함되어 있는 경우 이를 인식하고 수저의 부피값을 제외하는 보정을 수행할 수 있다.In one embodiment, the correction unit 150 learns in advance about the image data for the empty plate 500 and the spoon, recognizes the spoonful in the image of the plate, and performs correction excluding the volume value of the spoon. can do.

보다 상세하게는, 보정부(150)는 배식식판 이미지 데이터 내 사용자의 손 또는 수저의 존재 여부를 검출한다. 그리고, 배식식판 이미지 내에 사용자의 손 또는 수저가 포함되어 있는 경우 배식식판 이미지 데이터를 통해 산출된 음식의 부피값에서 사용자의 손 또는 수저의 부피값을 제외시킨다.In more detail, the correction unit 150 detects the presence of a user's hand or spoon in the image data of the plate. In addition, when the user's hand or spoon is included in the plate image, the volume value of the user's hand or spoon is excluded from the volume value of the food calculated through the plate image data.

예를 들어, 보정부(150)는 촬영부를 통해 촬영된 배식식판 이미지, 식후식판 이미지 내에 수저가 포함되어 있는 경우 수저의 부피가 음식의 부피에 포함되어 음식의 부피가 산출될 수 있으므로, 수저의 부피를 배식식판 이미지 데이터를 통해 산출된 음식의 부피에서 제외시키는 보정을 수행할 수 있다.For example, the correction unit 150 may calculate the volume of the food as the volume of the spoon is included in the volume of the food when the spoon is included in the image of the plate image and the image of the after-meal taken through the photographing unit. It is possible to perform correction to exclude the volume from the volume of food calculated through the plate image data.

상술한 보정부(150)의 구성과 동작들로 인하여, 본 발명의 실시예에 따른 음식량 측정 방법은, 차후 단계들이 수행될 때 정확도를 상승시킬 수 있는 효과를 발휘하게 된다.Due to the configuration and operation of the correction unit 150 described above, the food amount measurement method according to the exemplary embodiment of the present invention has an effect of increasing the accuracy when subsequent steps are performed.

S550단계 다음으로, 산출부(140)가 S550단계에서 산출된 각 음식의 부피 정보와 음식 정보를 이용하여 각 음식의 무게를 산출한다. (S560단계)Next to step S550, the calculation unit 140 calculates the weight of each food by using the volume information and food information of each food calculated in step S550. (S560 step)

컴퓨터의 데이터베이스(170)는 음식별 부피당 무게를 포함하는 음식 정보가 저장되어 있다.The database 170 of the computer stores food information including weight per volume for each food.

음식들은 종류에 따라서 부피당 무게가 다르며, 열량(칼로리)도 서로 상이하다. 따라서, 본 발명의 실시예에서는 음식별 부피당 부게를 포함하는 음식 정보가 데이터베이스(170)에 저장되어 있고, 산출부(140)가 이를 이용하여 음식의 부피 정보로부터 음식의 무게를 산출하게 된다.Different types of foods have different weight per volume and different calories (calories) from each other. Accordingly, in an embodiment of the present invention, food information including food items per volume per food is stored in the database 170, and the calculation unit 140 calculates the weight of the food from the food volume information using this.

그리고, 데이터베이스(170)에는 각 음식별 무게당 칼로리 정보가 저장되어 있을 수 있다.In addition, the database 170 may store calorie information per weight for each food.

이를 이용하여, 산출부(140)는 무게 산출 단계(S560단계) 다음에, 각 음식의 산출된 무게 정보를 이용하여 사용자의 배식식판에 수용된 음식물의 칼로리를 계산하고, 계산 결과를 담당자 또는 사용자의 단말로 제공할 수 있다.Using this, the calculation unit 140 calculates the calories of the food accommodated in the user's plate by using the calculated weight information of each food after the weight calculation step (step S560), and calculates the calculation result by the person in charge or the user. It can be provided to the terminal.

일 실시예로, 배식소에는 배식식판의 무게를 측정할 수 있는 무게측정장치(미도시)가 마련되어 있을 수 있다.In an embodiment, a weight measuring device (not shown) capable of measuring the weight of the plate may be provided in the bakery.

이를 통해, 수신부(110)가 배식소에 마련된 무게측정장치(미도시)로부터 측정된 매식식판(500)의 무게정보를 수신하는 단계와, 보정부(150)가 S560단계에서 산출된 각 음식들의 무게와 기본식판의 무게의 총합과, 상기 수신된 무게정보를 매칭하여 각 음식의 무게를 보정하는 단계를 더 포함할 수 있다.Through this, the receiving unit 110 receives the weight information of the meal plate 500 measured from the weighing device (not shown) provided in the bakery, and the correction unit 150 It may further include the step of correcting the weight of each food by matching the total weight of the weight and the weight of the basic plate and the received weight information.

상술한 보정 단계는 선택적으로 채용되어 사용될 수 있으며, 무게를 측정하는 과정에서 사용자의 손이나 각종 요인들에 의해서 무게가 실제와 상이하게 측정될 수 있으므로, 무게정보가 임계치를 초과할 정도로 상이하게 측정되는 경우 보정 단계가 수행되지 않을 수도 있다.The above-described correction step can be selectively adopted and used, and since the weight may be measured differently from the actual weight by the user's hand or various factors in the process of measuring the weight, the weight information is measured differently to the extent that it exceeds the threshold. If so, the correction step may not be performed.

본 발명의 실시예에 따른 음식량 측정 방법을 이용하여 컴퓨터가 배식소에서 식사하는 각 배식대상의 배식량, 잔반량을 측정하고 이를 이용하여 식사량을 산출할 수 있다.By using the food amount measurement method according to an embodiment of the present invention, the computer measures the amount of ration and the amount remaining of each ration target eaten at the deli, and the amount of meal may be calculated using this.

그리고, 컴퓨터가 배식소에서 식사하는 배식대상들의 배식량, 잔반량, 식사량을 이용하여 배식소의 운영정보, 배식대상들의 관리정보를 생성할 수 있다. (컴퓨터는 서버, 장치의 구성)In addition, the computer may generate the operation information of the deli and management information of the rations by using the amount of ration, the amount remaining, and the amount of meals of the rations to be eaten at the deli. (Computer consists of server, device)

보다 상세하게는, 컴퓨터가 배식구에 마련된 배식구 촬영부(50)를 통해 촬영된 식전식판 데이터(식전식판 이미지 데이터)를 획득하고, 이를 이용하여 배식대상의 배식량을 산출한다.In more detail, the computer acquires the meal plate data (meal plate image data) photographed through the meal tray photographing unit 50 provided in the food tray, and uses this to calculate the amount of food to be served.

그리고, 컴퓨터가 퇴식구에 마련된 퇴식구 촬영부(50)를 통해 촬영된 식후식판 데이터(식후식판 이미지 데이터)를 획득하고, 이를 이용하여 배식대상의 잔반량을 산출한다.Then, the computer acquires the after-meal plate data (post-meal image data) photographed through the retirement zone photographing unit 50 provided in the retirement zone, and calculates the remaining amount of the serving target using this.

다음으로, 컴퓨터가 산출된 배식량과 잔반량을 이용하여 해당 배식대상의 식사량을 산출한다.Next, the computer calculates the amount of meals to be served by using the calculated amount of ration and the amount remaining.

그리고, 컴퓨터가 배식소에 등록된 배식대상들의 배식량, 잔반량 및 식사량을 기반으로 배식소의 운영정보를 생성하고, 배식소에 등록된 배식대상들의 배식량, 잔반량 및 식사량을 기반으로 각 배식대상들의 관리정보를 생성한다.In addition, the computer generates the operation information of the deli based on the amount of ration, remaining amount, and amount of meals registered in the deli, and each serving based on the amount of ration, remaining amount, and amount of meals registered in the deli. It creates management information of targets.

이때, 식전식판은 배식대상이 식판(500)에 음식을 배식받은 상태의 식판(500)을 의미하며, 위에서 언급한 배식식판과 동일한 의미이다.At this time, the meal plate means the plate 500 in which the food is served on the plate 500, and has the same meaning as the plate plate mentioned above.

이와 같이, 본 발명의 실시예에 따른 음식량 측정 방법, 장치(30), 서버(10)를 이용하여 배식받는 사람들의 배식량, 식사량, 잔반량을 산출하여 배식소와 배식대상들에 대한 정보를 가공할 수 있게 된다.In this way, by using the method of measuring the amount of food, the device 30, and the server 10 according to the embodiment of the present invention, the amount of ration, the amount of meal, and the amount of remaining meals are calculated to provide information on the ration It becomes possible to process.

도 5는 본 발명의 실시예에 따른 음식량 측정 서버(10)의 블록도이다.5 is a block diagram of a food quantity measurement server 10 according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 음식량 측정 서버(10)는 수신부(110), 추출부(120), 판단부(130), 산출부(140), 보정부(150), 인증모듈(160), 데이터베이스(170), 통신부(190)를 포함한다.5, the food amount measurement server 10 according to an embodiment of the present invention includes a receiving unit 110, an extraction unit 120, a determination unit 130, a calculation unit 140, a correction unit 150, and authentication. It includes a module 160, a database 170, and a communication unit 190.

다만, 몇몇 실시예에서 서버(10)는 도 5에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.However, in some embodiments, the server 10 may include fewer or more components than the components illustrated in FIG. 5.

수신부(110)는 하나 이상의 촬영부(50)를 통해 촬영된 배식식판 이미지를 수신한다.The receiving unit 110 receives the image of the food plate photographed through one or more photographing units 50.

추출부(120)는 배식식판 이미지 데이터에서 식판(500)의 각 공간(510)에 수용된 음식 이미지 데이터를 추출한다.The extraction unit 120 extracts food image data accommodated in each space 510 of the food plate 500 from the food plate image data.

판단부(130)는 추출된 음식 이미지 데이터를 통해 각 음식의 종류를 판단한다.The determination unit 130 determines the type of each food through the extracted food image data.

산출부(140)는 추출된 음식 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출한다.The calculation unit 140 calculates the volume of each food by using height information for each pixel of the extracted food image data.

데이터베이스(170)는 기본식판 이미지와 식판(500)에 형성된 복수의 공간(510)에 대한 크기, 깊이 및 용량을 포함하는 식판 정보와, 음식별 부피당 무게를 포함하는 음식 정보가 저장되어 있다.The database 170 stores the basic food plate image, food plate information including the size, depth, and capacity of the plurality of spaces 510 formed on the plate 500, and food information including the weight per volume of each food.

통신부(190)는 배식소에 설치되어 있는 촬영부(50)로부터 촬영된 배식식판 이미지를 수신할 수 있도록 통신을 수행하며, 서버(10)에서 산출하여 생성된 각종 정보들을 담당자 또는 사용자의 단말로 전송하는 역할을 담당할 수 있다.The communication unit 190 performs communication so that the image of the food plate taken from the photographing unit 50 installed in the food service can be received, and various information generated by the server 10 to the person in charge or the user's terminal. Can play a role in transmitting.

인증모듈(160)은 음식량 측정 장치(30), 키오스트 장치(30)와 같은 장치(30)로부터 수신된 사용자 정보를 인증하여 사용자를 식별하고, 사용자에 대한 각종 정보를 로딩한다.The authentication module 160 identifies a user by authenticating user information received from a device 30 such as the food quantity measurement device 30 and the key-ost device 30, and loads various types of information about the user.

또한, 서버(10)의 산출부(140)를 통해 산출된 배식식판 내 음식들의 무게, 칼로리 등에 대한 정보를 인증모듈(160)을 통해 인증된 사용자의 단말로 제공하게 된다. 이때, 서버(10) 자체에서 제공하는 서비스 애플리케이션을 통해 정보를 제공할 수 있다.In addition, information on the weight, calories, etc. of foods in the food tray calculated through the calculation unit 140 of the server 10 is provided to the terminal of the authenticated user through the authentication module 160. In this case, information may be provided through a service application provided by the server 10 itself.

또한, 본 발명의 실시예에 따른 컴퓨터(서버, 장치)는 음식량 산출의 정확도를 향상시키기 위해서 아래 동작들을 수행할 수 있다.In addition, the computer (server, device) according to an embodiment of the present invention may perform the following operations to improve the accuracy of calculating the amount of food.

일 실시예로, 산출부(140)는 상기 단계들을 통해 산출된 배식대상의 식사량과 잔반량의 합이 배식량과 일치하는지 검증을 수행하고, 검증 결과에 따라 불일치하는 경우 산출부(140)는 식사량 또는 잔반량의 합이 배식량과 일치하도록 상기 단계들을 통해 산출된 식사량, 잔반량 및 배식량 중 적어도 하나를 보정할 수 있으며, 이에 따른 결과를 데이터베이스(170)에 기록한다.In one embodiment, the calculation unit 140 verifies whether the sum of the amount of food and the remaining amount of the target food calculated through the above steps matches the amount of ration, and when there is a discrepancy according to the verification result, the calculation unit 140 At least one of the amount of meal, the amount of remaining, and the amount of ration calculated through the above steps may be corrected so that the sum of the amount of food or the amount of leftover equals the amount of ration, and the result is recorded in the database 170.

또한, 산출부(140)는 상기 단계들을 통해 산출된 배식소 배식대상들의 식사량의 총합과 잔반량의 총합을 합한 것이 배식량의 총합과 일치하는지 검증을 수행하고, 검증 결과에 따라 불일치하는 경우 산출부(140)는 식사량의 총합과 잔반량의 총합을 합한 것이 배식량의 총합과 일치하도록 상기 단계들을 통해 산출된 식사량의 총합, 잔반량의 총합 및 배식량의 총합 중 적어도 하나를 보정할 수 있으며, 이에 따른 결과를 데이터베이스(170)에 기록한다.In addition, the calculation unit 140 verifies whether the sum of the total amount of meals and the total amount of leftovers calculated through the above steps matches the total amount of rations, and calculates when there is a discrepancy according to the verification result. The unit 140 may correct at least one of the total amount of meals calculated through the above steps, the total amount of remaining parts, and the total amount of rations so that the sum of the total amount of meals and the total amount of leftovers matches the total amount of rations, and , And records the result in the database 170.

보다 상세하게는, 산출부(140)는 배식소에서 식사하는 배식대상들의 배식량의 총합과 잔반량의 총합의 차이값이 식사량의 총합과 일치하는지 여부를 검증한다.In more detail, the calculation unit 140 verifies whether the difference value between the total amount of rations and the total amount of leftovers of the serving targets eaten at the deli is identical to the total amount of meals.

또한, 산출부(140)는 배식소에 준비된 음식량의 총합을 배식소에서 발생한 잔반량의 총량, 배식소에서 발생한 잔식량의 총량 및 해당 배식소 배식대상들의 식사량의 총합을 합한 것과 비교하여 검증을 수행하고, 검증 결과에 따라 차이가 발생하는 경우 산출부(140)는 배식소에 준비된 음식량의 총합이 배식소에서 발생한 잔반량의 총량, 배식소에서 발생한 잔식량의 총량 및 해당 배식소 배식대상들의 식사량의 총합을 합한 것과 일치하도록 잔반량의 총량, 잔식량의 총량 및 식사량의 총합 중 적어도 하나를 보정할 수 있으며, 예컨대 식사량을 보정할 수 있고, 이에 따른 결과를 데이터베이스(170)에 기록할 수 있다.In addition, the calculation unit 140 compares the total amount of food prepared in the bakeries with the sum of the total amount of residual food generated in the bakeries, the total amount of remaining food generated in the bakeries, and the total amount of meals of the serving targets of the deli And, if a difference occurs according to the verification result, the calculation unit 140 determines that the total amount of food prepared in the bakery is the total amount of residual food generated in the bakery, the total amount of residual food generated in the bakery, and the At least one of the total amount of remaining meals, the total amount of remaining food, and the total amount of meals may be corrected to match the sum of the total amount of meals, and for example, the amount of meals may be corrected, and the result can be recorded in the database 170 have.

여기서, 잔반량은 배식대상에게 배식되어 배식대상이 먹고 남은 음식의 양이고, 잔식량은 배식대상에게 배식되지 않고 남은 음식의 양일 수 있고, 잔식량은 상기 단계들을 통해 산출되거나 별도의 방법을 통해 산출될 수 있다.Here, the remaining amount is the amount of food left over by being served by the target to be served, and the amount of remaining food may be the amount of food left without being served to the target, and the amount of remaining food is calculated through the above steps or through a separate method. Can be calculated.

보다 상세하게는, 데이터베이스(170)에는 배식소에서 매회 배식을 위해 준비한 음식량의 총 부피(무게), 잔식량의 총 부피(무게) 및 잔반량의 총 부피(무게) 측정 결과가 저장될 수 있으며, 산출부(140)는 준비한 음식량의 총 부피(무게)를 잔반량의 총 부피(무게), 잔식량의 총 부피(무게) 및 상기 단계들을 통해 산출된 배식소 배식대상들의 식사량의 총합을 합한 것과 비교하여 검증을 수행하고, 검증 결과에 따라 차이가 발생하는 경우 산출부(140)는 배식소에 준비된 음식량의 총합이 배식소에서 발생한 잔반량의 총량, 배식소에서 발생한 잔식량의 총량 및 해당 배식소 배식대상들의 식사량의 총합을 합한 것과 일치하도록 상기 단계들을 통해 산출된 배식대상들의 식사량의 총합을 보정할 수 있으며, 이에 따른 결과를 데이터베이스(170)에 기록할 수 있다. (예를 들어, 배식소에서 준비한 A 메뉴의 총 부피가 200이고 남은 양이 없이 모두 배식되었다면, 배식대상들에게 배식된 A 메뉴의 부피의 총 합은 200에 근사해야 함)In more detail, the database 170 may store the measurement result of the total volume (weight) of the amount of food prepared for each serving at the bakery (weight), the total volume of the remaining food (weight), and the total volume (weight) of the remaining amount of food. , The calculation unit 140 is a sum of the total volume (weight) of the prepared food amount, the total volume (weight) of the remaining amount, the total volume (weight) of the remaining food, and the total amount of meals of the food service targets calculated through the above steps. Compared with that, if there is a difference according to the verification result, the calculation unit 140 determines that the total amount of food prepared in the bakery is the total amount of residual food generated in the bakery, the total amount of residual food generated in the bakery, and the corresponding It is possible to correct the total amount of meals of the food service targets calculated through the above steps so as to match the sum of the total amount of meals of the food service targets at the restaurant, and the result may be recorded in the database 170. (For example, if the total volume of menu A prepared at the pantry is 200 and all are served with no remaining amount, the total volume of menu A served to the serving targets should approximate 200)

이와 같이, 산출부(140)가 각종 정보들을 이용하여 검증을 수행하고, 산출/보정으로 인한 정확도를 기록함으로써 문제점을 파악하고 개선해 나갈 수 있게 된다.In this way, the calculation unit 140 performs verification using various types of information and records the accuracy due to calculation/correction, so that problems can be identified and improved.

일 실시예로, 본 발명의 실시예에 따른 산출부(140)의 인공지능 알고리즘은 부피 인식의 검증 및 신뢰성 증가 방안으로 이미지 학습결과를 이용한 부피 인식 정확도 비교 및 보완 작업이 수행될 수 있다. 예를 들어, 서로 다른 양의 빵에 대한 이미지를 입력시키고 부피가 적고 많음에 대하여 판단을 하게 하고 오차나 노이즈가 발생할 경우 재학습시킴으로써 정확도를 상승시킬 수 있다.In one embodiment, the artificial intelligence algorithm of the calculation unit 140 according to an embodiment of the present invention may perform volume recognition accuracy comparison and supplementation using image learning results as a method of verifying volume recognition and increasing reliability. For example, it is possible to increase the accuracy by inputting images of different amounts of bread, making a judgment about whether the volume is small or large, and re-learning when an error or noise occurs.

이상으로 설명한 본 발명의 실시예에 따른 음식량 측정 음식량 측정 서버(10)는 도 1 내지 도 4를 통해 설명한 음식량 측정 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.The food quantity measurement food quantity measurement server 10 according to the embodiment of the present invention described above differs only from the food quantity measurement method described with reference to FIGS. 1 to 4 and the category of the invention, and since the contents are the same, duplicate descriptions and examples will be omitted. .

도 6은 본 발명의 실시예에 따른 음식량 측정 장치(30)의 블록도이고, 도 7 및 도 8은 본 발명의 실시예에 따른 음식량 측정 장치(30)의 예시도이다.6 is a block diagram of a food amount measuring device 30 according to an embodiment of the present invention, and FIGS. 7 and 8 are exemplary views of a food amount measuring device 30 according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시예에 따른 음식량 측정 장치(30)는 배식이 이루어지는 장소에 마련되는 장치(30)로, 수신부(110), 추출부(120), 판단부(130), 산출부(140), 보정부(150), 인증모듈(160), 데이터베이스(170), 촬영부(50), 통신부(190)를 포함한다.6, the food amount measuring device 30 according to an embodiment of the present invention is a device 30 provided at a place where a food is served, and a receiving unit 110, an extraction unit 120, a determination unit 130, It includes a calculation unit 140, a correction unit 150, an authentication module 160, a database 170, a photographing unit 50, and a communication unit 190.

다만, 몇몇 실시예에서 음식량 측정 장치(30)는 도 6에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.However, in some embodiments, the food amount measuring device 30 may include a smaller number of components or more components than the components illustrated in FIG. 6.

도 7 및 도 8을 참조하면, 음식량 측정 장치(30)는 식판(500)이 놓여지는 플레이트(220)가 마련되어 있다.7 and 8, the food amount measuring device 30 is provided with a plate 220 on which a food plate 500 is placed.

도 8을 참조하면, 촬영부(50)는 플레이트(220)에 놓여진 식판(500)을 촬영하며, 도 1 내지 도 4를 통해 설명한 촬영부(50)와 동일한 구성일 수 있다.Referring to FIG. 8, the photographing unit 50 photographs the food plate 500 placed on the plate 220, and may have the same configuration as the photographing unit 50 described with reference to FIGS. 1 to 4.

또한, 플레이트(220)는 내부에 무게측정장치(미도시)가 형성되어 상면에 놓여진 배식식판의 무게를 측정할 수 있다.In addition, the plate 220 may have a weight measuring device (not shown) formed therein to measure the weight of the distribution plate placed on the upper surface.

수신부(110)는 하나 이상의 촬영부(50)를 통해 촬영된 배식식판 이미지를 수신한다.The receiving unit 110 receives the image of the food plate photographed through one or more photographing units 50.

추출부(120)는 배식식판 이미지 데이터에서 식판(500)의 각 공간(510)에 수용된 음식 이미지 데이터를 추출한다.The extraction unit 120 extracts food image data accommodated in each space 510 of the food plate 500 from the food plate image data.

판단부(130)는 추출된 음식 이미지 데이터를 통해 각 음식의 종류를 판단한다.The determination unit 130 determines the type of each food through the extracted food image data.

산출부(140)는 추출된 음식 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출한다.The calculation unit 140 calculates the volume of each food by using height information for each pixel of the extracted food image data.

데이터베이스(170)는 기본식판 이미지와 식판(500)에 형성된 복수의 공간(510)에 대한 크기, 깊이 및 용량을 포함하는 식판 정보와, 음식별 부피당 무게를 포함하는 음식 정보가 저장되어 있다.The database 170 stores the basic food plate image, food plate information including the size, depth, and capacity of the plurality of spaces 510 formed on the plate 500, and food information including the weight per volume of each food.

통신부(190)는 배식소에 설치되어 있는 촬영부(50)로부터 촬영된 배식식판 이미지를 수신할 수 있도록 통신을 수행하며, 서버(10)에서 산출하여 생성된 각종 정보들을 담당자 또는 사용자의 단말로 전송하는 역할을 담당할 수 있다.The communication unit 190 performs communication so that the image of the food plate taken from the photographing unit 50 installed in the food service can be received, and various information generated by the server 10 to the person in charge or the user's terminal. Can play a role in transmitting.

인증모듈(160)은 음식량 측정 장치(30), 키오스트 장치와 같은 장치로부터 수신된 사용자 정보를 인증하여 사용자를 식별하고, 사용자에 대한 각종 정보를 로딩한다.The authentication module 160 identifies a user by authenticating user information received from a device such as the food quantity measurement device 30 and a keyoist device, and loads various types of information about the user.

서버(10)의 산출부(140)를 통해 산출된 배식식판 내 음식들의 무게, 칼로리 등에 대한 정보를 인증모듈(160)을 통해 인증된 사용자의 단말로 제공하게 된다. 이때, 서버(10) 자체에서 제공하는 서비스 애플리케이션을 통해 정보를 제공할 수 있다.Information on the weight, calories, etc. of foods in the food tray calculated through the calculation unit 140 of the server 10 is provided to the terminal of the authenticated user through the authentication module 160. In this case, information may be provided through a service application provided by the server 10 itself.

음식량 측정 장치(30)는 디스플레이(240)를 포함하여, 사용자를 인증할 수 있는 사용자 인증정보를 입력받을 수도 있고, 디스플레이를 통해 촬영된 이미지를 표출할 수도 있다.The food amount measurement device 30 may receive user authentication information for authenticating a user, including the display 240, or may display a photographed image through the display.

또한, 도 7과 같은 형태의 음식량 측정 장치(30)가 마련되어 있는 경우 사용자가 측정부(260)에 식판(500)을 위치시키면 측정부(260) 내에 마련된 촬영부(50)가 식판을 촬영하여 배식식판 이미지, 식후식판 이미지를 획득할 수 있다. 그리고, 음식량 측정 장치(30) 자체에 결제모듈(250)이 구비되어 사용자가 음식량 측정과 결제를 동시에 진행할 수도 있다.In addition, when the food amount measuring device 30 in the form of FIG. 7 is provided, when the user places the food plate 500 on the measurement unit 260, the photographing unit 50 provided in the measurement unit 260 photographs the food plate. An image of a food plate and an image of a meal plate can be obtained. In addition, the payment module 250 is provided in the food quantity measurement device 30 itself, so that the user may measure the food quantity and make payment at the same time.

이상으로 설명한 본 발명의 실시예에 따른 음식량 측정 음식량 측정 장치(30) 구성들의 세부적인 내용은 도 1 내지 도 4를 통해 설명한 음식량 측정 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.The detailed contents of the components of the food quantity measurement apparatus 30 according to the embodiment of the present invention described above are only different from the food quantity measurement method described with reference to FIGS. Examples are omitted.

이상에서 전술한 본 발명의 일 실시예에 따른 음식량 측정 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The food amount measurement method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a server, which is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program is C, C++, JAVA, machine language, etc. that can be read by the computer's processor (CPU) through the device interface of the computer in order for the computer to read the program and execute the methods implemented as a program. It may include a code (Code) coded in the computer language of. Such code may include a functional code related to a function defining necessary functions for executing the methods, and a control code related to an execution procedure necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, such code may further include additional information required for the processor of the computer to execute the functions or code related to a memory reference to which location (address address) of the internal or external memory of the computer should be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server in the remote in order to execute the functions, the code uses the communication module of the computer to determine how It may further include a communication-related code for whether to communicate, what kind of information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium that stores data for a short moment, such as a register, cache, memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access, or on various recording media on the user's computer. Further, the medium may be distributed over a computer system connected through a network, and computer-readable codes may be stored in a distributed manner.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

10: 음식량 측정 서버 30: 음식량 측정 장치
50: 촬영부 53: 제1촬영부
55: 제2촬영부 110: 수신부
120: 추출부 130: 판단부
140: 산출부 150: 보정부
160: 인증모듈 170: 데이터베이스
190: 통신부 220: 플레이트
240: 디스플레이부 250: 결제모듈
260: 측정부 500: 식판
510: 공간
10: food quantity measurement server 30: food quantity measurement device
50: photographing unit 53: first photographing unit
55: second photographing unit 110: receiving unit
120: extraction unit 130: determination unit
140: calculation unit 150: correction unit
160: authentication module 170: database
190: communication unit 220: plate
240: display unit 250: payment module
260: measuring unit 500: plate
510: space

Claims (14)

컴퓨터에 의해 수행되는 음식량 측정 방법에 있어서,
추출부가 하나 이상의 촬영부를 통해 촬영된 배식식판(사용자의 배식받은 식판) 이미지 데이터에서 식판의 각 공간에 수용된 음식 이미지 데이터를 추출하는 단계;
판단부가 상기 추출된 음식 이미지 데이터를 통해 각 음식의 종류를 판단하는 단계; 및
산출부가 상기 추출된 음식 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하는 단계;를 포함하며,
상기 촬영부는, 스테레오 카메라 및 깊이 카메라 중 적어도 하나를 포함하는 것인, 방법.
In the method of measuring the amount of food performed by a computer,
Extracting food image data accommodated in each space of the plate from the image data of the plate (the plate received by the user) photographed by the extraction unit through one or more photographing units;
Determining, by a determination unit, the type of each food based on the extracted food image data; And
Comprising, by a calculation unit, calculating the volume of each food using height information for each pixel of the extracted food image data,
The photographing unit is to include at least one of a stereo camera and a depth camera.
제1항에 있어서,
상기 추출 단계는,
수신부가 일정 거리 이격되어 설치된 제1촬영부 및 제2촬영부를 통해 촬영된 2개의 배식식판 이미지 데이터를 수신하는 단계;
보정부가 상기 2개의 배식식판 이미지 데이터 중에서 노이즈 성분을 제거하고, 배식식판 이미지의 기울기를 인식하여 수평 상태의 이미지로 보정하는 단계;를 포함하는, 방법.
The method of claim 1,
The extraction step,
Receiving the image data of the two food trays photographed through the first photographing unit and the second photographing unit installed at a predetermined distance from the receiving unit;
Comprising; the step of removing a noise component from the image data of the two serving plate, recognizing the inclination of the plate image to correct the image in a horizontal state; including, method.
제1항에 있어서,
보정부가 상기 배식식판 이미지 데이터 내에서 음식이 아니면서 부피를 가지는 노이즈 성분을 검출하고, 각 음식의 부피를 산출하는 단계에서 산출된 음식의 부피에서 검출된 노이즈 성분의 부피를 제외하는 보정을 수정하는 단계;를 더 포함하는, 방법.
The method of claim 1,
The correction unit detects a noise component that is not food in the plate image data and has a volume, and corrects correction to exclude the volume of the noise component detected from the volume of the food calculated in the step of calculating the volume of each food. The method further comprising a;
제1항에 있어서,
상기 컴퓨터는,
기본식판(배식 전 식판) 이미지와 식판에 형성된 복수의 공간에 대한 크기, 깊이 및 용량을 포함하는 식판 정보가 저장된 데이터베이스를 포함하며,
상기 부피 산출 단계는,
보정부가 각 음식이 수용된 공간의 크기, 깊이 및 용량 정보를 이용하여 산출된 각 음식의 부피를 보정하는 단계;를 더 포함하는, 방법.
The method of claim 1,
The computer,
Includes a database in which food plate information including the size, depth, and capacity of a basic plate (pre-food plate) image and a plurality of spaces formed on the plate is stored,
The volume calculation step,
Compensating the volume of each food calculated using the size, depth, and capacity information of the space in which each food is accommodated; further comprising a method.
제4항에 있어서,
상기 데이터베이스는,
음식별 부피당 무게를 포함하는 음식 정보가 저장되어 있으며,
상기 부피 산출 단계 다음에,
산출부가 상기 산출된 각 음식의 부피 정보와 상기 음식 정보를 이용하여 각 음식의 무게를 산출하는 단계;를 더 포함하는, 방법.
The method of claim 4,
The database,
Food information including weight per volume for each food is stored,
After the volume calculation step,
The method further comprising: calculating, by a calculation unit, the weight of each food using the calculated volume information of each food and the food information.
제1항에 있어서,
배식소에서 배식중인 음식 리스트 정보를 수신하는 단계;를 더 포함하며,
상기 판단 단계는,
판단부가 상기 추출된 음식 이미지 데이터와 상기 음식 리스트 정보를 매칭하여 각 음식의 종류를 판단하는 것을 특징으로 하는, 방법.
The method of claim 1,
Receiving information on a list of foods being served at the bakery; further comprising,
The determining step,
The method, characterized in that the determination unit determines the type of each food by matching the extracted food image data with the food list information.
제1항에 있어서,
상기 산출 단계는,
상기 식판 내 특정 공간에 서로 다른 음식이 적층된 것으로 인식되는 경우, 상기 산출부가 상측에 위치한 음식의 이미지 데이터와 산출된 부피 정보, 그리고 해당 공간의 크기, 깊이 및 용량 정보를 이용하여 하측에 위치한 음식의 부피를 산출하는 단계;를 더 포함하는, 방법.
The method of claim 1,
The calculation step,
When it is recognized that different foods are stacked in a specific space in the plate, the calculation unit uses image data of the food located on the upper side, calculated volume information, and the size, depth, and capacity information of the space to be located on the lower side. The method further comprising; calculating the volume of.
제1항에 있어서,
상기 부피 산출 단계는,
상기 식판 내 특정 공간에 수용된 음식이 액체인 것으로 판단되는 경우, 액체와 해당 공간이 맞닿는 위치와 해당 공간의 크기, 깊이 및 용량 정보를 통해 액체의 부피를 산출하는 단계;를 더 포함하는, 방법.
The method of claim 1,
The volume calculation step,
When it is determined that the food accommodated in the specific space in the plate is liquid, calculating a volume of the liquid through information on a location where the liquid and the space contact and the size, depth, and capacity of the space; and further comprising.
제5항에 있어서,
산출부가 배식소에 마련된 촬영부를 통해 촬영된 식전식판 데이터로부터 배식대상의 식전 음식량을 산출하고, 상기 촬영부를 통해 촬영된 식후식판 데이터로부터 잔반량을 산출하여, 상기 식전 음식량과 식후 음식량을 통해 배식대상의 배식량, 잔반량 및 식사량을 산출하는 단계;를 더 포함하는, 방법.
The method of claim 5,
The calculation unit calculates the amount of food before meals from the pre-meal plate data photographed through the photographing unit provided in the bakery, calculates the amount of remaining meals from the after meal plate data photographed through the photographing unit, and calculates the amount of remaining meals from the pre-meal meal amount and the amount of food after meals. The method further comprising; calculating the amount of ration, remaining amount, and amount of meal.
제9항에 있어서,
산출부가 배식소에 준비된 음식량의 총합을 배식소에서 발생한 잔반량의 총량, 배식소에서 발생한 잔식량의 총량 및 해당 배식소 배식대상들의 식사량의 총합을 합한 것과 비교하여 검증을 수행하고, 검증 결과에 따라 차이가 발생하는 경우 상기 산출부는 배식소에 준비된 음식량의 총합이 배식소에서 발생한 잔반량의 총량, 배식소에서 발생한 잔식량의 총량 및 해당 배식소 배식대상들의 식사량의 총합을 합한 것과 일치하도록 식사량의 총합을 보정하는 단계;를 더 포함하는, 방법.
The method of claim 9,
The calculation unit performs verification by comparing the total amount of food prepared in the bakery with the sum of the total amount of leftovers generated at the bakery, the total amount of residual foods generated at the bakery, and the total amount of meals of the serving targets at the serving location. If there is a difference, the calculation unit will determine the amount of meals so that the sum of the amount of food prepared in the bakeries is the sum of the total amount of remaining food in the bakeries, the total amount of remaining food in the bakeries, and Correcting the sum of the; further comprising, the method.
제10항에 있어서,
상기 산출부가 배식소 배식대상들의 배식량의 총합과 잔반량의 총합의 차이값이 식사량의 총합과 일치하는지 여부를 검증하고, 검증 결과에 따라 차이가 발생하는 경우 상기 산출부는 배식소 배식대상들의 배식량의 총합과 잔반량의 총합의 차이값이 식사량의 총합과 일치하도록 식사량의 총합을 보정하는 단계;를 더 포함하는, 방법.
The method of claim 10,
The calculation unit verifies whether or not the difference value between the total amount of rations and the total amount of leftovers of the rations at the rations matches the total amount of meals, and if a difference occurs according to the verification result, the calculation unit Correcting the total amount of meals so that the difference value between the total amount of food and the total amount of remaining food matches the total amount of food.
하나 이상의 촬영부를 통해 촬영된 배식식판(사용자의 배식받은 식판) 이미지 데이터에서 식판의 각 공간에 수용된 음식 이미지 데이터를 추출하는 추출부;
상기 추출된 음식 이미지 데이터를 통해 각 음식의 종류를 판단하는 판단부;
상기 추출된 음식 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하는 산출부;를 포함하며,
상기 촬영부는, 스테레오 카메라 및 깊이 카메라 중 적어도 하나를 포함하는 것인, 서버.
An extraction unit for extracting food image data accommodated in each space of the plate from image data of the plate (the plate received by the user) photographed through one or more photographing units;
A determination unit determining the type of each food based on the extracted food image data;
Includes; a calculation unit for calculating the volume of each food by using height information for each pixel of the extracted food image data,
The photographing unit will include at least one of a stereo camera and a depth camera.
하나 이상의 촬영부를 통해 촬영된 배식식판(사용자의 배식받은 식판) 이미지 데이터에서 식판의 각 공간에 수용된 음식 이미지 데이터를 추출하는 추출부;
상기 추출된 음식 이미지 데이터를 통해 각 음식의 종류를 판단하는 판단부;
상기 추출된 음식 이미지 데이터의 픽셀별 높이 정보를 이용하여 각 음식의 부피를 산출하는 산출부;를 포함하며,
상기 촬영부는, 스테레오 카메라 및 깊이 카메라 중 적어도 하나를 포함하는 것인, 장치.
An extraction unit for extracting food image data accommodated in each space of the plate from image data of the plate (the plate received by the user) photographed through one or more photographing units;
A determination unit determining the type of each food based on the extracted food image data;
Includes; a calculation unit for calculating the volume of each food by using height information for each pixel of the extracted food image data,
The photographing unit, the apparatus comprising at least one of a stereo camera and a depth camera.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제11항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 프로그램.A program, combined with a computer that is hardware, stored in a medium to execute the method of any one of claims 1 to 11.
KR1020190050377A 2019-04-29 2019-04-30 A method, server, device and program for measuring amount of food KR102471775B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020190050377A KR102471775B1 (en) 2019-04-30 2019-04-30 A method, server, device and program for measuring amount of food
CN202080039179.5A CN113874678A (en) 2019-04-29 2020-04-29 Food measuring method, device and program
PCT/KR2020/005762 WO2020222561A1 (en) 2019-04-29 2020-04-29 Food measurement method, device, and program
EP20798930.2A EP3964793A4 (en) 2019-04-29 2020-04-29 Food measurement method, device, and program
JP2021564482A JP2022530263A (en) 2019-04-29 2020-04-29 Food measurement methods, equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190050377A KR102471775B1 (en) 2019-04-30 2019-04-30 A method, server, device and program for measuring amount of food

Publications (2)

Publication Number Publication Date
KR20200126576A true KR20200126576A (en) 2020-11-09
KR102471775B1 KR102471775B1 (en) 2022-11-28

Family

ID=73429573

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190050377A KR102471775B1 (en) 2019-04-29 2019-04-30 A method, server, device and program for measuring amount of food

Country Status (1)

Country Link
KR (1) KR102471775B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022169083A1 (en) * 2021-02-04 2022-08-11 엘지전자 주식회사 Cooking device and control method thereof
KR20230028848A (en) * 2021-08-23 2023-03-03 주식회사 위두쉽 Volume measurement apparatus using the correction algorithm and thereof method
KR102510810B1 (en) * 2022-03-18 2023-03-16 주식회사 조이네트웍스 Customer management system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050083210A (en) 2004-01-30 2005-08-26 주식회사 카스 Meal scale for diet
KR20070049862A (en) * 2005-11-09 2007-05-14 삼성전자주식회사 Method and system for unification management in dining room
KR101375018B1 (en) * 2012-11-22 2014-03-17 경일대학교산학협력단 Apparatus and method for presenting information of food using image acquisition
KR20170014181A (en) * 2015-07-29 2017-02-08 피도연 Method and apparatus for providing food information
KR101876147B1 (en) * 2017-11-30 2018-07-06 김대웅 Food waste reduction guide system
JP2018528545A (en) * 2015-09-09 2018-09-27 フィットリー インコーポレイテッドFitly Inc. System and method for nutrition analysis using food image recognition
KR20180110443A (en) * 2017-03-29 2018-10-10 서울대학교산학협력단 Apparatus and method for providing calorie information

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050083210A (en) 2004-01-30 2005-08-26 주식회사 카스 Meal scale for diet
KR20070049862A (en) * 2005-11-09 2007-05-14 삼성전자주식회사 Method and system for unification management in dining room
KR101375018B1 (en) * 2012-11-22 2014-03-17 경일대학교산학협력단 Apparatus and method for presenting information of food using image acquisition
KR20170014181A (en) * 2015-07-29 2017-02-08 피도연 Method and apparatus for providing food information
JP2018528545A (en) * 2015-09-09 2018-09-27 フィットリー インコーポレイテッドFitly Inc. System and method for nutrition analysis using food image recognition
KR20180110443A (en) * 2017-03-29 2018-10-10 서울대학교산학협력단 Apparatus and method for providing calorie information
KR101876147B1 (en) * 2017-11-30 2018-07-06 김대웅 Food waste reduction guide system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022169083A1 (en) * 2021-02-04 2022-08-11 엘지전자 주식회사 Cooking device and control method thereof
KR20230028848A (en) * 2021-08-23 2023-03-03 주식회사 위두쉽 Volume measurement apparatus using the correction algorithm and thereof method
KR102510810B1 (en) * 2022-03-18 2023-03-16 주식회사 조이네트웍스 Customer management system

Also Published As

Publication number Publication date
KR102471775B1 (en) 2022-11-28

Similar Documents

Publication Publication Date Title
KR20200126576A (en) A method, server, device and program for measuring amount of food
US9202121B2 (en) Liveness detection
CN108416902B (en) Real-time object identification method and device based on difference identification
US11756282B2 (en) System, method and computer program for guided image capturing of a meal
US20110182477A1 (en) Method for computing food volume in a method for analyzing food
EP3888001A1 (en) Anti-spoofing
AU2018256502B2 (en) Classification and identification systems and methods
CN111630524B (en) Method and device for measuring object parameters
Kuhad et al. Using distance estimation and deep learning to simplify calibration in food calorie measurement
TWI605245B (en) Method, portable device, and system for detecting physiological phenotype of crops
KR20200126577A (en) Method, server and program for providing information on the operation and management information of the group feeding
EP3964793A1 (en) Food measurement method, device, and program
JP2018147416A (en) Meal identification system, identification method and identification program
US11126898B2 (en) Computer vision classifier using item micromodels
KR102488997B1 (en) A method, server, device and program for measuring amount of food using potable device
US20220222844A1 (en) Method, device, and program for measuring food
US20150254527A1 (en) Methods for 3d object recognition and registration
CN116703503A (en) Intelligent recommendation method and system for campus canteen dishes
KR102430486B1 (en) Device, method and program for calculating the position of products in a product showcase based on artificial intelligence using a load cell arrangement structure
KR20210049704A (en) A method, device and program for measuring food
KR20190048922A (en) Smart table and controlling method thereof
CN114641830A (en) Food volume and calorie calculation method, electronic device, electronic apparatus, and storage medium
CN111126322A (en) Article identification method, device and equipment applied to unmanned vending device
CN114581265B (en) System and method for analyzing eating preference of diner
CN111767757A (en) Identity information determination method and device

Legal Events

Date Code Title Description
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant