KR102436656B1 - Method for providing educational game to improve eating habits - Google Patents

Method for providing educational game to improve eating habits Download PDF

Info

Publication number
KR102436656B1
KR102436656B1 KR1020200128026A KR20200128026A KR102436656B1 KR 102436656 B1 KR102436656 B1 KR 102436656B1 KR 1020200128026 A KR1020200128026 A KR 1020200128026A KR 20200128026 A KR20200128026 A KR 20200128026A KR 102436656 B1 KR102436656 B1 KR 102436656B1
Authority
KR
South Korea
Prior art keywords
score
image
food
processor
tableware
Prior art date
Application number
KR1020200128026A
Other languages
Korean (ko)
Other versions
KR20220045376A (en
Inventor
박규영
임현빈
Original Assignee
넷마블 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넷마블 주식회사 filed Critical 넷마블 주식회사
Priority to KR1020200128026A priority Critical patent/KR102436656B1/en
Publication of KR20220045376A publication Critical patent/KR20220045376A/en
Application granted granted Critical
Publication of KR102436656B1 publication Critical patent/KR102436656B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras

Abstract

본 개시의 몇몇 실시예에 따른, 교육용 식습관 개선 게임 제공 방법이 개시된다. 상기, 교육용 식습관 개선 게임 제공 방법은, 식기 또는 음식물 중 적어도 하나가 포함된 영상을 획득하는 단계; 상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계; 및 상기 스코어에 기초하여 기 설정된 메시지를 출력하는 단계를 포함할 수 있다.A method of providing an educational eating habit improvement game according to some embodiments of the present disclosure is disclosed. The method of providing a game for improving eating habits for education includes: acquiring an image including at least one of tableware and food; calculating a score based on at least one of a change in the position of the dishes or a change in the amount of the food; and outputting a preset message based on the score.

Description

교육용 식습관 개선 게임 제공 방법{METHOD FOR PROVIDING EDUCATIONAL GAME TO IMPROVE EATING HABITS}METHOD FOR PROVIDING EDUCATIONAL GAME TO IMPROVE EATING HABITS

본 개시는 교육용 게임에 관한 것으로, 구체적으로 아이의 식습관을 개선하기 위한 게임을 제공하는 방법에 관한 것이다.The present disclosure relates to an educational game, and more particularly, to a method of providing a game for improving a child's eating habits.

식사는 음식물을 섭취하여 몸에 필요한 영양소를 공급하는 인간에게 있어서 아주 중요한 행위일 수 있다. 이러한 식사는 인간에게 있어서 필수적인 행위인데도 불구하고, 어린 나이에 올바른 식습관이 잡히지 않는 경우, 성인이 되어서도 많은 질병이 발생할 수 있다.Eating can be a very important activity for humans to provide nutrients necessary for the body by consuming food. Although such a diet is an essential activity for humans, if a proper eating habit is not established at a young age, many diseases can occur even in adulthood.

예를 들어, 현대 사회에서 많이 차지하는 당뇨, 고혈압, 비만, 거식증 등은 어린 나이에 올바르게 형성되지 못한 식습관으로 인하여 발생할 수도 있다.For example, diabetes, high blood pressure, obesity, anorexia, etc., which occupy a lot in modern society, may be caused by poor eating habits at a young age.

이러한 식습관이 중요하다는 것을 많은 부모들이 인지하고는 있지만, 아이에게 올바른 식습관을 가르치는 것은 쉽지가 않다. 아이의 집중력 혹은 주의력은 성인에 비해 형성이 덜 되었기 때문에, 한끼 분의 음식을 먹이는 것 만으로도 힘들기 때문이다.Although many parents are aware that these eating habits are important, it is not easy to teach children the right eating habits. This is because a child's concentration or attention is less formed than that of an adult, so it is difficult just to feed one meal's worth of food.

그러다 보니, 부모들은 식사를 잘하면 선물을 주겠다는 약속을 아이들과 하곤 한다. 그러나, 이러한 회유책으로는 아이가 올바른 식습관을 갖고 식사에 집중하도록 만드는 것이 충분하지 못할 수 있다.As a result, parents often make promises to their children that they will give them a present if they eat well. However, these conciliatory measures may not be enough to get your child to eat right and focus on eating.

따라서, 아이가 올바른 식습관을 가질 수 있도록 할 수 있는 교육용 게임에 대한 수요가 존재한다.Therefore, there is a demand for educational games that can help children have the right eating habits.

대한민국 등록특허 10-2101633Republic of Korea Patent Registration 10-2101633

본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 교육용 식습관 개선 게임을 제공하고자 한다.The present disclosure has been devised in response to the background art described above, and is intended to provide a game for improving eating habits for education.

본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위한 본 개시의 일 실시예에 따라, 교육용 식습관 개선 게임 제공 방법은, 식기 또는 음식물 중 적어도 하나가 포함된 영상을 획득하는 단계; 상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계; 및 상기 스코어에 기초하여 기 설정된 메시지를 출력하는 단계; 를 포함할 수 있다.According to an embodiment of the present disclosure for solving the above-described problem, a method for providing an educational eating habit improvement game includes: acquiring an image including at least one of tableware and food; calculating a score based on at least one of a change in the position of the dishes or a change in the amount of the food; and outputting a preset message based on the score. may include.

또한, 상기 영상은, 식판 및 피촬영자를 더 포함하고, 상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계는, 상기 영상에서 상기 식판의 위치와 관련된 제 1 포인트와 상기 피촬영자의 입의 위치와 관련된 제 2 포인트를 인식하는 단계; 및 상기 제 1 포인트에서 상기 제 2 포인트로 상기 식기의 위치가 변화한 경우, 현재 스코어에 기 설정된 제 1 스코어를 부가하는 단계; 를 포함할 수 있다.In addition, the image further includes a plate and a person to be photographed, and the step of calculating a score based on at least one of a change in the position of the tableware or a change in the amount of food may include: recognizing a first point and a second point related to a position of the subject's mouth; and adding a preset first score to a current score when the position of the tableware is changed from the first point to the second point. may include.

또한, 상기 제 1 포인트에서 상기 제 2 포인트로 상기 식기의 위치가 변화한 경우, 현재 스코어에 기 설정된 제 1 스코어를 부가하는 방법으로 상기 스코어를 산출하는 단계는, 상기 식기 상에 음식물이 존재한다고 인식한 경우, 상기 현재 스코어에 상기 제 1 스코어를 부가하는 단계; 를 포함할 수 있다.Also, when the position of the tableware is changed from the first point to the second point, calculating the score by adding a preset first score to the current score may include indicating that food is present on the tableware. if recognized, adding the first score to the current score; may include.

또한, 상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계는, 제 1 시점에 촬영된 제 1 영상에서 상기 음식물이 존재하는 제 1 영역을 인식하는 단계; 제 1 시점 이후인 제 2 시점에 촬영된 제 2 영상에서 상기 음식물이 존재하는 제 2 영역을 인식하는 단계; 및 상기 제 1 영역의 크기와 상기 제 2 영역의 크기를 비교하여 상기 스코어를 산출하는 단계; 를 포함할 수 있다.The calculating of the score based on at least one of a change in the position of the tableware and a change in the amount of food may include: recognizing a first region in which the food is present in a first image captured at a first time point; recognizing a second region in which the food is present in a second image captured at a second time point after the first time point; and calculating the score by comparing the size of the first region with the size of the second region. may include.

또한, 상기 제 2 시점은, 상기 식기의 움직임이 기 설정된 시간 동안 인식되지 않은 시점일 수 있다.Also, the second time point may be a time point at which the movement of the tableware is not recognized for a preset time.

또한, 상기 제 1 영역의 크기와 상기 제 2 영역의 크기를 비교하여 상기 스코어를 산출하는 단계는, 상기 제 1 영역 크기와 상기 제 2 영역의 크기의 차이를 산출하는 단계; 및 상기 차이에 기초하여 산출된 제 2 스코어를 현재 스코어에 부가하는 단계; 를 포함할 수 있다.The calculating of the score by comparing the size of the first region with the size of the second region may include calculating a difference between the size of the first region and the size of the second region; and adding a second score calculated based on the difference to the current score. may include.

또한, 상기 제 1 영역은, 상기 제 1 영상에서 식판과 관련된 제 1 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역이고, 상기 제 2 영역은, 상기 제 2 영상에서 상기 제 1 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역일 수 있다.In addition, the first area is an area in which at least one object having a color other than the first color related to the plate in the first image exists, and the second area is, in the second image, other than the first color It may be an area in which at least one object having a color of .

또한, 상기 제 1 영역은, 상기 제 1 영상에서 식판과 관련된 제 1 색상 및 상기 식기와 관련된 제 2 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역이고, 상기 제 2 영역은, 상기 제 2 영상에서 상기 제 1 색상 및 상기 제 2 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역일 수 있다.In addition, the first area is an area in which at least one object having a color other than a first color related to a plate and a second color related to the tableware in the first image exists, and the second area is, The second image may be an area in which at least one object having a color other than the first color and the second color exists.

또한, 상기 영상을 획득하기 전에, 빈 식판이 촬영된 제 1 이미지 및 상기 음식물이 담긴 식판이 촬영된 제 2 이미지를 획득하는 단계; 를 더 포함하고, 상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계는, 상기 제 1 이미지 및 상기 제 2 이미지와 상기 영상을 비교하여 상기 스코어를 산출하는 단계; 를 포함할 수 있다.In addition, before acquiring the image, obtaining a first image of the empty plate and the second image of the plate containing the food is taken; The method further comprising: calculating a score based on at least one of a change in the position of the tableware or a change in the amount of food, wherein calculating the score by comparing the first image and the second image with the image step; may include.

또한, 상기 제 1 이미지 및 상기 제 2 이미지와 상기 영상을 비교하여 상기 스코어를 산출하는 단계는, 상기 영상이 상기 제 1 이미지와 유사한 정도 또는 상기 영상이 상기 제 2 이미지와 비유사한 정도 중 적어도 하나에 기초하여 상기 스코어를 산출하는 단계; 를 포함할 수 있다.The calculating of the score by comparing the first image and the second image with the image may include at least one of a degree to which the image is similar to the first image and a degree to which the image is dissimilar to the second image. calculating the score based on may include.

또한, 상기 스코어는, 상기 음식물의 종류에 따라 다른 값을 가질 수 있다.Also, the score may have a different value depending on the type of the food.

또한, 상기 음식물의 상기 종류는, 상기 영상에 포함된 음식물의 색상 또는 형상 중 적어도 하나에 기초하여 인식될 수 있다.Also, the type of the food may be recognized based on at least one of a color or a shape of the food included in the image.

또한, 상기 영상에 포함된 상기 피촬영자의 저작 횟수를 인식하는 단계; 상기 저작 횟수에 기초하여 제 3 스코어를 산출하는 단계; 및 상기 제 3 스코어를 상기 현재 스코어에 부가하는 단계; 를 더 포함할 수 있다.In addition, recognizing the number of times the subject included in the image to be photographed; calculating a third score based on the number of times of writing; and adding the third score to the current score. may further include.

또한, 상기 스코어가 기 설정된 목표 스코어에 도달했는지 여부를 인식한 경우, 기 설정된 메시지를 부모 단말로 전송하는 단계; 를 더 포함할 수 있다.In addition, when it is recognized whether the score has reached a preset target score, transmitting a preset message to the parent terminal; may further include.

또한, 상기 스코어가 상기 목표 스코어에 도달했다고 인식한 경우, 기 설정된 상품의 자동 결제 알고리즘을 실행하는 단계; 를 더 포함할 수 있다.In addition, when it is recognized that the score has reached the target score, executing an automatic payment algorithm for a preset product; may further include.

또한, 상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계는, 식판으로부터 식판 및 음식물의 무게와 관련된 데이터를 수신하는 단계; 상기 데이터에 기초하여 제 4 스코어를 산출하는 단계; 및 상기 제 4 스코어를 현재 스코어에 부가하는 단계; 를 포함할 수 있다.The calculating of the score based on at least one of a change in the position of the tableware or the change in the amount of food may include: receiving data related to the weight of the plate and the food from the plate; calculating a fourth score based on the data; and adding the fourth score to a current score; may include.

본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtainable in the present disclosure are not limited to the above-mentioned solutions, and other solutions that are not mentioned are clearly to those of ordinary skill in the art to which the present disclosure belongs from the description below. can be understood

본 개시의 몇몇 실시예에 따르면, 아이가 올바른 식습관을 가질 수 있도록 하는 게임을 제공할 수 있도록 한다.According to some embodiments of the present disclosure, it is possible to provide a game that allows a child to have a correct eating habit.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the description below. .

다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수 있음은 명백할 것이다. 다른 예시들에서, 공지의 구조들 및 장치들이 하나 이상의 양상들의 기재를 용이하게 하기 위해 블록도 형태로 도시된다.
도 1은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치의 일례를 설명하기 위한 블록 구성도이다.
도 2는 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 기 설정된 메시지를 출력하는 방법의 일례를 설명하기 위한 흐름도이다.
도 3은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 식기의 위치 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 흐름도이다.
도 4는 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 식기의 위치 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 도면이다.
도 5는 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 음식물의 양의 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 흐름도이다.
도 6은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 음식물의 양의 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 도면이다.
도 7은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 음식물의 양의 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 흐름도이다.
도 8은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 피촬영자의 저작 횟수에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 흐름도이다.
도 9는 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.
Various aspects are now described with reference to the drawings, wherein like reference numbers are used to refer to like elements collectively. In the following examples, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more aspects. It will be evident, however, that such aspect(s) may be practiced without these specific details. In other instances, well-known structures and devices are shown in block diagram form in order to facilitate describing one or more aspects.
1 is a block diagram illustrating an example of a computing device according to some embodiments of the present disclosure.
2 is a flowchart illustrating an example of a method for a computing device to output a preset message according to some embodiments of the present disclosure.
3 is a flowchart illustrating an example of a method in which a computing device calculates a score based on a change in a position of a tableware according to some embodiments of the present disclosure;
4 is a diagram for describing an example of a method for a computing device to calculate a score based on a change in a position of a tableware according to some embodiments of the present disclosure;
5 is a flowchart illustrating an example of a method of calculating, by a computing device, a score based on a change in an amount of food according to some embodiments of the present disclosure.
6 is a diagram for describing an example of a method of calculating a score based on a change in an amount of food by a computing device according to some embodiments of the present disclosure;
7 is a flowchart illustrating an example of a method of calculating, by a computing device, a score based on a change in an amount of food according to some embodiments of the present disclosure.
FIG. 8 is a flowchart illustrating an example of a method in which a computing device calculates a score based on the number of times a photographed person writes, according to some embodiments of the present disclosure.
9 shows a general schematic diagram of an example computing environment in which embodiments of the present disclosure may be implemented.

다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 감지될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다. 구체적으로, 본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.Various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be appreciated by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of the various methods in principles of various aspects may be employed, and the descriptions set forth are intended to include all such aspects and their equivalents. Specifically, as used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. is not to be construed as an advantage or advantage of any aspect or design described over other aspects or designs. It may not be.

이하, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략한다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다.Hereinafter, the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical ideas disclosed in the present specification are not limited by the accompanying drawings.

비록 제 1, 제 2 등이 다양한 소자나 구성요소들을 서술하기 위해서 사용되나, 이들 소자나 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자나 구성요소를 다른 소자나 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제 1 소자나 구성요소는 본 발명의 기술적 사상 내에서 제 2 소자나 구성요소 일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements or elements, these elements or elements are not limited by these terms, of course. These terms are only used to distinguish one element or component from another. Therefore, it goes without saying that the first element or component mentioned below may be the second element or component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다. In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or.” That is, unless otherwise specified or clear from context, "X employs A or B" is intended to mean one of the natural implicit substitutions. That is, X employs A; X employs B; or when X employs both A and B, "X employs A or B" may apply to either of these cases. It should also be understood that the term “and/or” as used herein refers to and includes all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements and/or groups thereof. should be understood as not Also, unless otherwise specified or unless it is clear from context to refer to a singular form, the singular in the specification and claims should generally be construed to mean “one or more”.

더불어, 본 명세서에서 사용되는 용어 "정보" 및 "데이터"는 종종 서로 상호교환 가능하도록 사용될 수 있다.In addition, as used herein, the terms “information” and “data” may often be used interchangeably.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "part" for the components used in the following description are given or used in consideration of ease of writing the specification, and do not have a meaning or role distinct from each other by themselves.

본 개시의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 개시를 설명하는데 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.Objects and effects of the present disclosure, and technical configurations for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. In describing the present disclosure, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the subject matter of the present disclosure, the detailed description thereof will be omitted. And the terms to be described later are terms defined in consideration of functions in the present disclosure, which may vary according to the intention or custom of the user or operator.

그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. Only the present embodiments are provided so that the present disclosure is complete, and to fully inform those of ordinary skill in the art to which the present disclosure belongs, the scope of the disclosure, and the present disclosure is only defined by the scope of the claims . Therefore, the definition should be made based on the content throughout this specification.

본 개시에서, 교육용 식습관 개선 게임은 아이가 올바른 식습관을 형성할 수 있도록 할 수 있다.In the present disclosure, an educational eating habit improvement game can enable a child to form a correct eating habit.

구체적으로, 컴퓨팅 장치는 카메라를 통해 피촬영자(아이), 식기, 음식물 및 식판 등을 촬영할 수 있다. 그리고, 컴퓨팅 장치는 카메라를 통해 획득된 영상을 통해 피촬영자가 식사를 하고 있는지 여부를 인식할 수 있다. 예를 들어, 컴퓨팅 장치는 영상을 통해 식판에 있는 음식물이 피촬영자의 입안으로 들어갔다고 인식한 경우, 피촬영자가 식사를 했다고 인식할 수 있다. 이 경우, 컴퓨팅 장치는 피촬영자가 인식할 수 있는 칭찬의 메시지 등을 출력할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the computing device may photograph a subject (a child), dishes, food, and plates through the camera. In addition, the computing device may recognize whether the person to be photographed is eating through the image acquired through the camera. For example, when the computing device recognizes that the food on the plate has entered the mouth of the person to be photographed through the image, the computing device may recognize that the person to be photographed has eaten. In this case, the computing device may output a message of praise and the like that can be recognized by the photographed person. However, the present invention is not limited thereto.

이하, 본 개시에 따른 교육용 식습관 개선 게임 제공 방법에 대해 도 1 내지 도 9를 통해 설명한다.Hereinafter, a method of providing an educational eating habit improvement game according to the present disclosure will be described with reference to FIGS. 1 to 9 .

도 1은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치의 일례를 설명하기 위한 블록 구성도이다.1 is a block diagram illustrating an example of a computing device according to some embodiments of the present disclosure.

도 1을 참조하면, 컴퓨팅 장치(100)는 프로세서(110), 저장부(120) 및 통신부(130)를 포함할 수 있다. 다만, 상술한 구성 요소들은 컴퓨팅 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 컴퓨팅 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Referring to FIG. 1 , a computing device 100 may include a processor 110 , a storage unit 120 , and a communication unit 130 . However, since the above-described components are not essential in implementing the computing device 100 , the computing device 100 may have more or fewer components than those listed above.

컴퓨팅 장치(100)는 사용자가 소유하고 있는 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc), 웹캡(web-cam) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.The computing device 100 is a personal computer (PC), a notebook (note book), a mobile terminal, a smart phone (smart phone), a tablet PC (tablet pc), a web cap (web-cam) owned by the user and the like, and may include all types of terminals capable of accessing a wired/wireless network. However, the present invention is not limited thereto.

본 개시에서, 컴퓨팅 장치(100)는 카메라부(미도시)를 통해 피촬영자가 식사하는 모습을 촬영할 수 있다. 그리고, 컴퓨팅 장치(100)는 카메라부를 통해 획득된 영상을 통해 피촬영자가 식사를 하고 있는지 여부를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 컴퓨팅 장치(100)가 피촬영자를 촬영한 영상을 통해 피촬영자가 식사를 하고 있는지 여부를 인식하는 방법은 도 2 내지 도 8을 통해 후술한다.In the present disclosure, the computing device 100 may take a picture of a person to be photographed eating through a camera unit (not shown). And, the computing device 100 may recognize whether the person to be photographed is eating through the image acquired through the camera unit. However, the present invention is not limited thereto. Hereinafter, a method in which the computing device 100 recognizes whether the person to be photographed is eating through an image photographed will be described later with reference to FIGS. 2 to 8 .

한편, 본 개시에서 컴퓨팅 장치(100)는 마이크로프로세서, 메인프레임 컴퓨터, 디지털 프로세서, 휴대용 디바이스 또는 디바이스 제어기 등과 같은 임의의 타입의 서버일 수도 있다. 이 경우, 컴퓨팅 장치(100)는 카메라부를 구비하는 외부 단말로부터 피촬영자가 식사하는 모습을 촬영한 영상을 수신할 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the computing device 100 may be any type of server, such as a microprocessor, a mainframe computer, a digital processor, a portable device, or a device controller. In this case, the computing device 100 may receive an image of a photographed person eating a meal from an external terminal having a camera unit. However, the present invention is not limited thereto.

한편, 프로세서(110)는 통상적으로 컴퓨팅 장치(100)의 전반적인 동작을 처리할 수 있다. 프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 저장부(120)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.Meanwhile, the processor 110 may typically process the overall operation of the computing device 100 . The processor 210 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the storage unit 120 . .

저장부(120)는 메모리 및/또는 영구저장매체를 포함할 수 있다. 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The storage unit 120 may include a memory and/or a permanent storage medium. The memory includes a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), and a random access memory (RAM). Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk, optical disk It may include at least one type of storage medium.

본 개시에서, 저장부(120)는 프로세서(110)가 생성하거나 결정한 임의의 형태의 정보 및 통신부(130)가 수신한 임의의 형태의 정보를 저장할 수 있다.In the present disclosure, the storage unit 120 may store any type of information generated or determined by the processor 110 and any type of information received by the communication unit 130 .

한편, 통신부(130)는 컴퓨팅 장치(100)와 통신 시스템 사이, 컴퓨팅 장치(100)와 부모 단말(미도시) 사이 또는 컴퓨팅 장치(100)와 네트워크(미도시) 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.On the other hand, the communication unit 130 is one that enables communication between the computing device 100 and the communication system, between the computing device 100 and the parent terminal (not shown), or between the computing device 100 and the network (not shown). It may include more than one module.

이러한 통신부(130)는 이동통신 모듈, 유선 인터넷 모듈 및 무선 인터넷 모듈 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.The communication unit 130 may include at least one of a mobile communication module, a wired Internet module, and a wireless Internet module. However, the present invention is not limited thereto.

도 2는 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 기 설정된 메시지를 출력하는 방법의 일례를 설명하기 위한 흐름도이다.2 is a flowchart illustrating an example of a method for a computing device to output a preset message according to some embodiments of the present disclosure.

도 2를 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 식기 또는 음식물 중 적어도 하나가 포함된 영상을 획득할 수 있다(S110).Referring to FIG. 2 , the processor 110 of the computing device 100 may acquire an image including at least one of tableware and food ( S110 ).

구체적으로, 프로세서(110)는 카메라부를 통해 식기 또는 음식물 중 적어도 하나가 포함된 영상을 획득할 수 있다. 여기서, 식기는 숟가락, 젓가락, 포크 또는 사용자의 손 등일 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 may acquire an image including at least one of tableware and food through the camera unit. Here, the tableware may be a spoon, chopsticks, a fork, or a user's hand. However, the present invention is not limited thereto.

한편, 본 개시에서 컴퓨팅 장치(100)는 서버일 수도 있다. 이 경우, 컴퓨팅 장치(100)의 프로세서(110)는 통신부(130)를 통해 외부 단말로부터, 식기 또는 음식물 중 적어도 하나가 포함된 영상을 수신할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the computing device 100 may be a server. In this case, the processor 110 of the computing device 100 may receive an image including at least one of tableware and food from an external terminal through the communication unit 130 . However, the present invention is not limited thereto.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 식기의 위치 변화 또는 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출할 수 있다(S120). 여기서, 스코어는 피촬영자(아이)에게 기 설정된 메시지 또는 보상 등을 지급하기 위해 기록하는 수치 등일 수 있다.Meanwhile, the processor 110 of the computing device 100 may calculate a score based on at least one of a change in the position of dishes or a change in the amount of food ( S120 ). Here, the score may be a numerical value recorded in order to provide a preset message or a reward to the person (child) to be photographed.

일례로, 스코어는 식기의 위치 변화 또는 음식물의 양의 변화 각각에 대응하여 기 설정되어 있을 수 있다. 또한, 프로세서(110)는 기록된 현재 스코어가 존재하는 경우, 현재 스코어에 새롭게 산출된 스코어를 부가할 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 프로세서(110)가 현재 스코어에 새롭게 산출된 스코어를 부가하는 내용은 도 3을 통해 후술한다.For example, the score may be preset in response to a change in the position of the dishes or a change in the amount of food. Also, when a recorded current score exists, the processor 110 may add a newly calculated score to the current score. However, the present invention is not limited thereto. Hereinafter, the processor 110 adds the newly calculated score to the current score will be described later with reference to FIG. 3 .

한편, 컴퓨팅 장치(100)의 프로세서(110)는 식기 또는 음식물 중 적어도 하나가 포함된 영상에서 식판의 위치와 관련된 제 1 포인트와 피촬영자의 입의 위치와 관련된 제 2 포인트를 인식할 수 있다. 그리고, 프로세서(110)는 식기의 위치가 제 1 포인트에서 제 2 포인트로 변화했다고 인식한 경우, 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 프로세서(110)가 식기의 위치 변화에 기초하여 스코어를 산출하는 방법의 일례는 도 3을 통해 후술한다.Meanwhile, the processor 110 of the computing device 100 may recognize a first point related to the position of the plate and a second point related to the position of the subject's mouth in the image including at least one of tableware and food. Then, when the processor 110 recognizes that the position of the tableware has changed from the first point to the second point, the processor 110 may calculate a score. However, the present invention is not limited thereto. Hereinafter, an example of a method in which the processor 110 calculates a score based on a change in the position of the tableware will be described with reference to FIG. 3 .

다른 일례로, 프로세서(110)는 제 1 시점에 촬영된 제 1 영상 및 제 1 시점 이후인 제 2 시점에 촬영된 제 2 영상을 통해 음식물의 양이 변화했는지 여부를 인식할 수 있다. 그리고, 프로세서(110)는 음식물의 양이 변화했다고 인식한 경우, 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다. 이하, 프로세서(110)가 음식물의 양의 변화에 기초하여 스코어를 산출하는 방법의 일례는 도 5를 통해 후술한다.As another example, the processor 110 may recognize whether the amount of food has changed through the first image captured at the first time point and the second image captured at a second time point after the first time point. In addition, when recognizing that the amount of food has changed, the processor 110 may calculate a score. However, the present invention is not limited thereto. Hereinafter, an example of a method in which the processor 110 calculates a score based on a change in the amount of food will be described with reference to FIG. 5 .

한편, 컴퓨팅 장치(100)의 프로세서(110)는 산출된 스코어에 기초하여 기 설정된 메시지를 출력할 수 있다(S130). 여기서, 기 설정된 메시지는 칭찬에 대한 메시지 또는 보상 지급에 대한 메시지 등 일 수 있다. 그리고, 기 설정된 메시지는 저장부(120)에 사전 저장되어 있을 수 있다.Meanwhile, the processor 110 of the computing device 100 may output a preset message based on the calculated score ( S130 ). Here, the preset message may be a message for praise or a message for reward payment. In addition, the preset message may be pre-stored in the storage unit 120 .

구체적으로, 프로세서(110)는 식기의 위치가 변화했거나 또는 음식물의 양이 변화함에 따라 스코어가 산출된 경우, 기 설정된 메시지를 출력할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 may output a preset message when a score is calculated according to a change in the position of the dishes or a change in the amount of food. However, the present invention is not limited thereto.

예를 들어, 프로세서(110)는 식기의 위치가 변화했다고 인식함에 따라 스코어가 산출된 경우, "현재 점수는 10점!" 또는 "잘 먹고 있어요" 등의 메시지를 출력할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, when a score is calculated as the processor 110 recognizes that the position of the tableware has changed, "The current score is 10 points!" Alternatively, a message such as "I am eating well" can be output. However, the present invention is not limited thereto.

한편, 본 개시에서, 기 설정된 메시지는 동영상 또는 음향 효과 등을 포함할 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the preset message may include a video or sound effect. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 산출된 스코어가 특정 스코어에 도달했는지 여부에 기초하여, 다양한 메시지를 출력할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may output various messages based on whether the calculated score reaches a specific score.

일례로, 프로세서(110)는 최초로 스코어가 산출된 경우에는 제 1 메시지를 출력할 수 있다. 예를 들어, 제 1 메시지는 "현재 점수는 10점!" 또는 "잘 먹고 있어요" 등과 같은 메시지일 수 있다. 그리고, 프로세서(110)는 산출된 스코어가 특정 스코어에 도달한 경우, 제 2 메시지를 출력할 수 있다. 예를 들어, 제 2 메시지는 "70점 돌파" 또는 "조금만 더 힘내요" 등과 같은 메시지일 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 may output a first message when the score is calculated for the first time. For example, the first message is "The current score is 10 points!" Or it could be a message such as "I'm eating well". Then, when the calculated score reaches a specific score, the processor 110 may output a second message. For example, the second message may be a message such as “break through 70” or “be strong a little more”. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 스코어가 기 설정된 목표 스코어에 도달했는지 여부를 인식한 경우, 기 설정된 메시지를 부모 단말로 전송할 수도 있다. 여기서, 기 설정된 목표 스코어는 부모 단말의 사용자로부터 사전에 입력 받을 수 있다. 이 경우, 부모 단말의 사용자는 메시지를 확인함으로써, 피촬영자가 식사를 잘했는지 여부를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, according to some embodiments of the present disclosure, when the processor 110 of the computing device 100 recognizes whether the score reaches a preset target score, it may transmit a preset message to the parent terminal. Here, the preset target score may be input in advance from the user of the parent terminal. In this case, the user of the parent terminal may recognize whether the person to be photographed has eaten well by checking the message. However, the present invention is not limited thereto.

한편, 본 개시에서, 컴퓨팅 장치(100)의 프로세서(110)가 부모 단말에 전송하는 메시지는 보상의 촉구를 요구하는 메시지 일 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the message transmitted by the processor 110 of the computing device 100 to the parent terminal may be a message requesting compensation. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 스코어가 목표 스코어에 도달했다고 인식한 경우, 기 설정된 상품의 자동 결제 알고리즘을 실행할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, when the processor 110 of the computing device 100 recognizes that the score has reached the target score, it may execute an automatic payment algorithm for a preset product.

구체적으로, 프로세서(110)는 저장부(120)에 저장된 응용 프로그램을 구동함으로써, 교육용 식습관 개선 게임을 제공할 수 있다. 이때, 상기 응용 프로그램에는 인앱(in-app) 결제가 가능한 상품 등이 연동되어 있을 수 있다. 이 경우, 프로세서(110)는 스코어가 목표 스코어에 도달함에 따라 기 설정된 상품의 자동 결제 알고리즘을 실행하여, 적어도 하나의 상품을 구매할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 may provide an educational eating habit improvement game by driving the application program stored in the storage unit 120 . In this case, the application program may be linked with products that can be paid in-app. In this case, the processor 110 may purchase at least one product by executing an automatic payment algorithm for a preset product as the score reaches the target score. However, the present invention is not limited thereto.

상술한 구성에 따르면, 컴퓨팅 장치(100)는 피촬영자가 식사하는 모습을 촬영한 영상에 기초하여, 기 설정된 메시지를 출력할 수 있다. 따라서, 컴퓨팅 장치(100)는 피촬영자가 식사를 잘 마쳐 보상을 받을 수 있도록 유도할 수 있다.According to the above-described configuration, the computing device 100 may output a preset message based on an image of a photographed person eating a meal. Accordingly, the computing device 100 may induce the person to be photographed to receive a reward by completing a meal well.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 식기의 위치 변화에 기초하여, 피촬영자가 식사를 했는지 여부를 인식할 수 있다. 그리고, 프로세서(110)는 식사를 했다고 인식한 경우, 스코어를 산출할 수 있다. 이하, 본 개시에 따른 프로세서(110)가 식기의 위치 변화에 기초하여 스코어를 산출하는 방법의 일례에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may recognize whether the person to be photographed has eaten based on a change in the position of the dishes. And, when it is recognized that the processor 110 has eaten, the processor 110 may calculate a score. Hereinafter, an example of a method in which the processor 110 according to the present disclosure calculates a score based on a change in the position of dishes will be described.

도 3은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 식기의 위치 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 흐름도이다.3 is a flowchart illustrating an example of a method in which a computing device calculates a score based on a change in a position of a tableware according to some embodiments of the present disclosure;

본 개시에서, 컴퓨팅 장치(100)의 프로세서(110)는 카메라부를 통해 식기 또는 음식물 중 적어도 하나가 포함된 영상을 획득할 수 있다. 이때, 프로세서(110)는 식판 및 피촬영자가 더 포함된 영상을 획득할 수 있다.In the present disclosure, the processor 110 of the computing device 100 may acquire an image including at least one of tableware and food through the camera unit. In this case, the processor 110 may acquire an image further including a plate and a person to be photographed.

이 경우, 도 3을 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 획득된 영상에서 식판의 위치와 관련된 제 1 포인트와 피촬영자의 입의 위치와 관련된 제 2 포인트를 인식할 수 있다(S121).In this case, referring to FIG. 3 , the processor 110 of the computing device 100 may recognize a first point related to the position of the plate and a second point related to the position of the subject's mouth in the acquired image ( S121).

일례로, 프로세서(110)는 다수의 학습 데이터를 통해 도출된 학습 모델을 이용하여 식판, 피촬영자의 안면 및 입의 위치 등을 인식할 수 있다. 그리고, 프로세서(110)는 인식된 식판과 관련된 위치 및 피촬영자의 입의 위치를 각각 제 1 포인트 및 제 2 포인트로 인식할 수 있다. 다만, 이에 한정되는 것은 아니고, 제 1 포인트 및 제 2 포인트는 부모로부터의 입력에 기초하여 인식될 수도 있다.As an example, the processor 110 may recognize a plate, the position of the face and mouth of the photographed person, etc. using a learning model derived through a plurality of learning data. In addition, the processor 110 may recognize the position associated with the recognized plate and the position of the subject's mouth as the first point and the second point, respectively. However, the present invention is not limited thereto, and the first point and the second point may be recognized based on an input from a parent.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 포인트에서 제 2 포인트로 식기의 위치가 변화한 경우(S122, Yes), 현재 스코어에 기 설정된 제 1 스코어를 부가할 수 있다(S123).Meanwhile, when the position of the tableware is changed from the first point to the second point (S122, Yes), the processor 110 of the computing device 100 may add a preset first score to the current score (S123). .

구체적으로, 프로세서(110)는 인식된 식기가 제 1 포인트에서 제 2 포인트로 변화했다고 인식한 경우, 기 설정된 제 1 스코어를 산출할 수 있다. 그리고, 프로세서(110)는 제 1 스코어가 산출된 경우, 현재 스코어에 기 설정된 제 1 스코어를 부가할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, when recognizing that the recognized tableware has changed from the first point to the second point, the processor 110 may calculate a preset first score. Then, when the first score is calculated, the processor 110 may add a preset first score to the current score. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 스코어가 산출된 경우, 식기의 위치 변화 또는 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어가 산출됨에 따라 출력하는 메시지와는 상이한 메시지를 출력할 수 있다. 그리고, 프로세서(110)는 제 1 스코어를 현재 스코어에 부가할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, according to some embodiments of the present disclosure, when the first score is calculated, the processor 110 of the computing device 100 determines that the score is calculated based on at least one of a change in the position of dishes or a change in the amount of food. It is possible to output a message different from the message output accordingly. Then, the processor 110 may add the first score to the current score. However, the present invention is not limited thereto.

한편, 본 개시에서, 프로세서(110)는 다수의 학습 데이터를 통해 도출된 학습 모델을 이용하여 식기를 인식할 수 있다. 다만, 이에 한정되는 것은 아니고, 식기는 부모로부터의 입력에 기초하여 인식될 수도 있다.Meanwhile, in the present disclosure, the processor 110 may recognize dishes using a learning model derived through a plurality of learning data. However, the present invention is not limited thereto, and the tableware may be recognized based on an input from a parent.

한편, 본 개시의 몇몇 실시예에 따르면, 식기에는 식기의 이동을 감지하기 위한 센서 등이 부착되어 있을 수 있다. 이 경우, 컴퓨팅 장치(100)의 통신부(130)는 식기에 부착된 센서로부터, 식기가 움직였는지 여부를 인식하는 데이터를 수신할 수도 있다. 그리고, 프로세서(110)는 수신한 데이터에 기초하여 식기가 제 1 포인트에서 제 2 포인트로 이동했다고 인식한 경우, 현재 스코어에 기 설정된 제 1 스코어를 부가할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, according to some embodiments of the present disclosure, a sensor for detecting movement of the dish may be attached to the dish. In this case, the communication unit 130 of the computing device 100 may receive data for recognizing whether the dish has moved from a sensor attached to the dish. Then, when the processor 110 recognizes that the dish has moved from the first point to the second point based on the received data, the processor 110 may add a preset first score to the current score. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 식기 상에 음식물이 존재한다고 인식한 경우에만, 현재 스코어에 제 1 스코어를 부가할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may add the first score to the current score only when recognizing that there is food on the tableware.

구체적으로, 프로세서(110)는 식기의 위치가 제 1 포인트에서 제 2 포인트로 변화할 때, 식기 상에 음식물이 존재하는지 여부를 인식할 수 있다. 그리고, 프로세서(110)는 식기 상에 음식물이 존재한다고 인식한 경우, 현재 스코어에 제 1 스코어를 부가할 수 있다. 또한, 프로세서(110)는 식기 상에 음식물이 존재하지 않다고 인식한 경우에는, 현재 스코어에 제 1 스코어를 부가하지 않을 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, when the position of the tableware changes from the first point to the second point, the processor 110 may recognize whether food is present on the tableware. Then, when recognizing that food is present on the tableware, the processor 110 may add the first score to the current score. Also, when recognizing that there is no food on the tableware, the processor 110 may not add the first score to the current score. However, the present invention is not limited thereto.

한편, 본 개시에서, 컴퓨팅 장치(100)의 프로세서(110)는 학습 모델 또는 부모로부터의 입력에 기초하여, 식기를 인식하고 있을 수 있다. 이때, 프로세서(110)는 인식된 식기에 식기 외 다른 오브젝트가 안착 또는 존재한다고 인식한 경우, 상기 인식된 오브젝트를 음식물이라고 인식할 수 있다. 다만, 이에 한정되는 것은 아니고, 프로세서(110)는 학습 모델 또는 부모로부터의 입력에 기초하여 음식물을 인식할 수도 있다.Meanwhile, in the present disclosure, the processor 110 of the computing device 100 may recognize dishes based on a learning model or an input from a parent. In this case, when the processor 110 recognizes that an object other than the tableware is seated or exists on the recognized tableware, the processor 110 may recognize the recognized object as food. However, the present invention is not limited thereto, and the processor 110 may recognize food based on a learning model or an input from a parent.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 포인트에서 제 2 포인트로 식기의 위치가 변화하지 않았다고 인식한 경우(S122, No), 식기의 위치가 변화했다고 인식할 때까지 대기할 수 있다. 다만, 이에 한정되는 것은 아니다.On the other hand, when the processor 110 of the computing device 100 recognizes that the position of the dishes has not changed from the first point to the second point (S122, No), it can wait until it is recognized that the position of the dishes has changed. have. However, the present invention is not limited thereto.

한편, 본 개시에서, 컴퓨팅 장치(100)의 프로세서(110)는 식기의 위치 변화가 기 설정된 시간동안 이루어지지 않고 있는지 여부를 인식할 수도 있다. 이 경우, 프로세서(110)는 피촬영자가 식사를 유도할 수 있도록 하는 메시지, 동영상 또는 알람 등을 출력할 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the processor 110 of the computing device 100 may recognize whether the position change of the dishes has not been made for a preset period of time. In this case, the processor 110 may output a message, a video, an alarm, or the like that allows the person to be photographed to eat. However, the present invention is not limited thereto.

상술한 구성에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 식기, 음식물, 식판 및 피촬영자가 촬영된 영상에서 식기의 위치가 변화했는지 여부에 기초하여, 피촬영자가 음식물을 섭취했는지를 인식할 수 있다. 그리고, 프로세서(110)는 피촬영자가 음식물을 섭취했다고 인식한 경우, 현재 스코어에 제 1 스코어를 부가하여 기록할 수 있다. 다만, 이에 한정되는 것은 아니다.According to the above-described configuration, the processor 110 of the computing device 100 recognizes whether the person to be photographed has eaten food, based on whether the position of the dishes, food, plate, and the photographed person has changed in the photographed image. can do. Then, when the processor 110 recognizes that the person to be photographed has eaten food, the processor 110 may record the current score by adding the first score. However, the present invention is not limited thereto.

도 4는 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 식기의 위치 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 도면이다.4 is a diagram for describing an example of a method for a computing device to calculate a score based on a change in a position of a tableware according to some embodiments of the present disclosure;

도 4를 참조하면, 컴퓨팅 장치(100)의 프로세서(미도시)는 카메라부(미도시)를 통해 식기(200), 음식물(300), 식판(400) 및 피촬영자(500) 중 적어도 하나를 촬영할 수 있다. 다만, 이에 한정되는 것은 아니다.Referring to FIG. 4 , the processor (not shown) of the computing device 100 captures at least one of the tableware 200 , the food 300 , the plate 400 , and the subject 500 through the camera unit (not shown). can be filmed However, the present invention is not limited thereto.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 촬영된 영상으로부터, 식기(200), 음식물(300), 식판(400) 및 피촬영자(500) 중 적어도 하나를 인식할 수 있다. 이때, 프로세서(110)는 촬영된 영상으로부터 식판(400)의 위치와 관련된 제 1 포인트로부터 피촬영자(500)의 입의 위치와 관련된 제 2 포인트를 인식할 수 있다. 그리고, 프로세서(110)는 식기(200)의 위치가 가 제 1 포이트로부터 제 2 포인트로 변화했다고 인식한 경우, 피촬영자(500)가 식사를 했다고 인식할 수 있다. 이 경우, 프로세서(110)는 제 1 스코어를 산출하여, 현재 스코어에 제 1 스코어를 부가할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the processor 110 of the computing device 100 may recognize at least one of the tableware 200 , the food 300 , the plate 400 , and the subject 500 from the captured image. At this time, the processor 110 may recognize the second point related to the position of the mouth of the subject 500 from the first point related to the position of the plate 400 from the captured image. Then, when the processor 110 recognizes that the position of the tableware 200 has changed from the first point to the second point, the processor 110 may recognize that the subject 500 has eaten. In this case, the processor 110 may calculate the first score and add the first score to the current score. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 음식물의 양의 변화에 기초하여, 스코어를 산출할 수도 있다. 이하, 도 5를 통해 본 개시에 따른 프로세서(110)가 음식물의 양의 변화에 기초하여 스코어를 산출하는 방법의 일례에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may calculate a score based on a change in the amount of food. Hereinafter, an example of a method in which the processor 110 according to the present disclosure calculates a score based on a change in the amount of food will be described with reference to FIG. 5 .

도 5는 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 음식물의 양의 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 흐름도이다.5 is a flowchart illustrating an example of a method of calculating, by a computing device, a score based on a change in an amount of food according to some embodiments of the present disclosure.

도 5를 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 시점에 촬영된 제 1 영상에서 음식물이 존재하는 제 1 영역을 인식할 수 있다(S210).Referring to FIG. 5 , the processor 110 of the computing device 100 may recognize a first area in which food is present in a first image captured at a first point in time ( S210 ).

일례로, 프로세서(110)는 다수의 학습 데이터를 통해 도출된 학습 모델을 이용하여 음식물을 인식할 수 있다. 그리고, 프로세서(110)는 인식된 음식물이 존재하는 영역을 제 1 영역으로 인식할 수 있다. 다만, 이에 한정되는 것은 아니고, 제 1 영역 또는 음식물은 부모로부터의 입력에 기초하여 인식될 수도 있다.For example, the processor 110 may recognize food using a learning model derived through a plurality of learning data. In addition, the processor 110 may recognize an area in which the recognized food exists as the first area. However, the present invention is not limited thereto, and the first region or food may be recognized based on an input from a parent.

한편, 본 개시에서 제 1 시점은 피촬영자가 음식물의 섭취를 시작하는 시점일 수도 있다. 일례로, 제 1 시점은 영상의 촬영이 시작되는 시점일 수 있다. 다른 일례로, 제 1 시점은 부모로부터의 입력에 기초하여 설정되는 시점일 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the first time point may be a time point at which the person to be photographed starts to consume food. For example, the first time point may be a time point at which image capturing starts. As another example, the first time point may be a time point set based on an input from a parent. However, the present invention is not limited thereto.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 시점 이후인 제 2 시점에 촬영된 제 2 영상에서 음식물이 존재하는 제 2 영역을 인식할 수 있다(S220). 여기서, 제 2 시점은 제 1 시점으로부터 기 설정된 시간 이후의 시점일 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the processor 110 of the computing device 100 may recognize the second region in which food is present in the second image captured at the second time point after the first time point ( S220 ). Here, the second time point may be a time point after a preset time from the first time point. However, the present invention is not limited thereto.

일례로, 컴퓨팅 장치(100)의 프로세서(110)는 식기의 위치 변화가 인식된 경우의 시점을 제 2 시점으로 인식할 수도 있다. 이 경우, 프로세서(110)는 지속적으로 제 2 영역을 인식할 필요 없이, 식기의 위치 변화가 인식된 제 2 시점에만 제 2 영역을 인식할 수도 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 of the computing device 100 may recognize a point in time when a change in the position of the dishes is recognized as the second time point. In this case, the processor 110 may recognize the second region only at the second time point when the position change of the dishes is recognized, without the need to continuously recognize the second region. However, the present invention is not limited thereto.

다른 일례로, 제 2 시점은 피촬영자가 식사를 마쳤다고 인식되는 시점일 수도 있다.As another example, the second time point may be a time point at which it is recognized that the person to be photographed has finished eating.

구체적으로, 컴퓨팅 장치(100)의 프로세서(110)는 식기의 움직임이 기 설정된 시간 동안 인식되지 않고 있는지 여부를 인식할 수도 있다. 그리고, 프로세서(110)는 식기의 움직임이 기 설정된 시간 동안 인식되지 않은 시점을 제 2 시점으로 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 of the computing device 100 may recognize whether the movement of the dishes is not recognized for a preset time. In addition, the processor 110 may recognize a point in time when the movement of the dishes is not recognized for a preset time as the second time point. However, the present invention is not limited thereto.

또 다른 일례로, 제 2 시점은 부모로부터의 입력에 기초하여, 피촬영자가 식사를 마쳤다고 인식된 시점일 수도 있다. 다만, 이에 한정되는 것은 아니다.As another example, the second time point may be a time point at which it is recognized that the person to be photographed has finished eating based on an input from the parent. However, the present invention is not limited thereto.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 영역의 크기와 제 2 영역의 크기를 비교하여 스코어를 산출할 수 있다(S230).Meanwhile, the processor 110 of the computing device 100 may calculate a score by comparing the size of the first region with the size of the second region ( S230 ).

구체적으로, 프로세서(110)는 제 2 영역의 크기가 제 1 영역의 크기보다 줄어들었다고 인식한 경우, 피촬영자가 음식물을 섭취했다고 인식할 수 있다. 그리고, 프로세서(110)는 피촬영자가 음식물을 섭취한 것에 따른 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, when the processor 110 recognizes that the size of the second region is smaller than the size of the first region, the processor 110 may recognize that the subject to be photographed has eaten food. Then, the processor 110 may calculate a score according to the intake of food by the photographed person. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 기 설정된 시간이 경과한 후에도 제 2 영역의 크기가 제 1 영역의 크기보다 줄어들지 않았다고 인식할 수도 있다. 이 경우, 프로세서(110)는 피촬영자가 식사를 유도할 수 있도록 하는 메시지, 동영상 또는 알람 등을 출력할 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may recognize that the size of the second region has not decreased than the size of the first region even after a preset time has elapsed. In this case, the processor 110 may output a message, a video, an alarm, or the like that allows the person to be photographed to eat. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 영역의 크기와 제 2 영역의 크기의 차이에 기초하여, 스코어를 현재 스코어에 부가할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may add a score to the current score based on a difference between the size of the first region and the size of the second region.

구체적으로, 프로세서(110)는 인식된 제 1 영역 크기와 제 2 영역의 크기의 차이를 산출할 수 있다. 그리고, 프로세서(110)는 산출된 차이에 기초하여 산출된 제 2 스코어를 현재 스코어에 부가할 수도 있다.Specifically, the processor 110 may calculate a difference between the recognized size of the first area and the size of the second area. In addition, the processor 110 may add the second score calculated based on the calculated difference to the current score.

일례로, 프로세서(110)는 산출된 제 1 영역의 크기와 제 2 영역의 크기의 차이가 기 설정된 값 이상인 경우, 제 2 스코어를 부가할 수 있다. 또는 프로세서(110)는 산출된 제 1 영역의 크기와 제 2 영역의 크기의 차이가 기 설정된 값 이하인 경우, 제 2 스코어를 부가하지 않을 수도 있다. 다만, 이에 한정되는 것은 아니다. 이하, 본 개시에 따른 프로세서(110)가 제 1 영역의 크기와 제 2 영역의 크기의 차이에 기초하여 제 2 스코어를 현재 스코어에 부가하는 일례는 도 6을 통해 후술한다.For example, when the difference between the calculated size of the first region and the size of the second region is equal to or greater than a preset value, the processor 110 may add a second score. Alternatively, the processor 110 may not add the second score when the calculated difference between the size of the first region and the size of the second region is less than or equal to a preset value. However, the present invention is not limited thereto. Hereinafter, an example in which the processor 110 according to the present disclosure adds the second score to the current score based on the difference between the size of the first region and the size of the second region will be described later with reference to FIG. 6 .

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 제 2 스코어가 산출된 경우, 식기의 위치 변화 또는 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어가 산출됨에 따라 출력하는 메시지와는 상이한 메시지를 출력할 수 있다. 그리고, 프로세서(110)는 제 2 스코어를 현재 스코어에 부가할 수 있다. Meanwhile, according to some embodiments of the present disclosure, when the second score is calculated, the processor 110 of the computing device 100 determines that the score is calculated based on at least one of a change in the position of the dishes or a change in the amount of food. It is possible to output a message different from the message output accordingly. Then, the processor 110 may add the second score to the current score.

예를 들어, 제 2 스코어가 산출됨에 따라 출력되는 메시지는 "이 영역에 있는 음식만 다 먹어 볼까요??" 또는 "이 영역까지만 먹어요" 등과 같은 메시지일 수 있다. 다만, 이에 한정되는 것은 아니다.For example, as the second score is calculated, the output message is "Shall we eat all the food in this area?" Or it may be a message such as "I only eat this area". However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 색상에 기초하여 음식물을 인식할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may recognize food based on a color.

구체적으로, 프로세서(110)는 제 1 시점에 촬영된 제 1 영상에서 식판과 관련된 제 1 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역을 제 1 영역이라고 인식할 수 있다. 이때, 식판과 관련된 제 1 색상은 부모로부터 사전 입력되어 있을 수 있거나, 또는 음식물이 담기지 않은 빈 식판을 사전에 촬영하여 인식하고 있을 수도 있다. 다만, 이에 한정되는 것은 아니다. 또한, 프로세서(110)는 제 1 시점 이후인 제 2 시점에 촬영된 제 2 영상에서 제 1 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역을 제 2 영역이라고 인식할 수 있다. 그리고, 프로세서(110)는 제 1 영역 및 제 2 영역의 크기를 비교하여, 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 may recognize an area in which at least one object having a color other than the first color associated with the plate in the first image captured at the first point of view is present as the first area. In this case, the first color related to the plate may be pre-inputted by the parent, or an empty plate containing no food may be photographed in advance and recognized. However, the present invention is not limited thereto. Also, the processor 110 may recognize an area in which at least one object having a color other than the first color exists in the second image captured at a second time point after the first time point as the second area. In addition, the processor 110 may calculate a score by comparing the sizes of the first region and the second region. However, the present invention is not limited thereto.

한편, 본 개시에서 제 1 시점에 촬영된 제 1 영상 및 제 2 시점에 촬영된 제 2 영상에는 식기도 촬영되었을 수 있다. 이 경우, 컴퓨팅 장치(100)의 프로세서(110)는 식기와 관련된 제 2 색상 및 식판과 관련된 제 1 색상 이외의 색상을 갖는 적어도 하나의 오브젝트를 음식물로 인식할 수 있다.Meanwhile, in the present disclosure, the tableware may also be photographed in the first image photographed at the first time point and the second image photographed at the second time point. In this case, the processor 110 of the computing device 100 may recognize at least one object having a color other than the second color related to the tableware and the first color related to the plate as food.

구체적으로, 프로세서(110)는 제 1 시점에 촬영된 제 1 영상에서 식판과 관련된 제 1 색상 및 식기와 관련된 제 2 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역을 제 2 영역이라고 인식할 수 있다. 이때, 식기와 관련된 제 2 색상은 부모로부터 사전 입력되어 있거나, 또는 사전에 촬영되어 인식되어 있을 수 있다. 또한, 프로세서(110)는 제 2 시점에 촬영된 제 2 영상에서 제 1 색상 및 제 2 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역을 제 2 영역이라고 인식할 수도 있다. 그리고, 프로세서(110)는 제 1 영역 및 제 2 영역의 크기를 비교하여, 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 recognizes, as a second area, an area in which at least one object having a color other than the first color related to the plate and the second color related to the tableware exists in the first image captured at the first time point. can do. In this case, the second color related to the tableware may be pre-inputted by the parent or may be recognized by being photographed in advance. Also, the processor 110 may recognize an area in which at least one object having a first color and a color other than the first color exists in the second image captured at the second time point as the second area. In addition, the processor 110 may calculate a score by comparing the sizes of the first region and the second region. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 식판에는 음식물의 무게를 감지하기 위한 센서 등이 구비되어 있을 수 있다. 이 경우, 컴퓨팅 장치(100)의 통신부(130)는 식판에 구비된 센서로부터, 식판 및 음식물의 무게와 관련된 데이터를 수신할 수도 있다. 그리고, 프로세서(110)는 수신한 데이터에 기초하여, 음식물의 무게 줄어들었다고 인식한 경우, 피촬영자가 음식물을 섭취하였다고 인식하여 제 4 스코어를 산출할 수도 있다. 이 경우, 프로세서(110)는 현재 스코어에 산출된 제 4 스코어를 부가할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, according to some embodiments of the present disclosure, a sensor for detecting the weight of food may be provided on the plate. In this case, the communication unit 130 of the computing device 100 may receive data related to the weight of the plate and food from a sensor provided on the plate. Also, when the processor 110 recognizes that the weight of the food is reduced based on the received data, the processor 110 may calculate the fourth score by recognizing that the person to be photographed has consumed the food. In this case, the processor 110 may add the calculated fourth score to the current score. However, the present invention is not limited thereto.

상술한 구성에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 영상 및 제 2 영상에서 음식물을 인식할 수 있다. 그리고, 프로세서(110)는 인식된 음식물이 줄어들었는지 여부에 기초하여, 피촬영자가 음식물을 섭취하였다고 인식하고 스코어를 산출할 수도 있다.According to the above configuration, the processor 110 of the computing device 100 may recognize food in the first image and the second image. In addition, the processor 110 may recognize that the subject to be photographed has consumed the food and calculate a score based on whether the recognized food is reduced.

도 6은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 음식물의 양의 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 도면이다.6 is a diagram for describing an example of a method of calculating a score based on a change in an amount of food by a computing device according to some embodiments of the present disclosure;

도 6의 (a)를 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 시점에 촬영된 제 1 영상에서, 음식물이 존재하는 제 1 영역(310)을 인식할 수 있다.Referring to FIG. 6A , the processor 110 of the computing device 100 may recognize the first region 310 in which food is present in the first image captured at the first time point.

일례로, 프로세서(110)는 색상에 기초하여 음식물을 인식하고, 인식된 음식물이 존재하는 영역을 제 1 영역(310)이라고 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 may recognize food based on a color, and recognize an area in which the recognized food exists as the first region 310 . However, the present invention is not limited thereto.

한편, 도 6의 (b)를 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 제 2 시점에 촬영된 제 2 영상에서, 음식물이 존재하는 제 2 영역(320)을 인식할 수 있다. 그리고, 제 1 영역(310) 및 제 2 영역(320)이 인식된 경우, 프로세서(110)는 제 1 영역의 크기와 제 2 영역의 크기를 비교하여 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, referring to FIG. 6B , the processor 110 of the computing device 100 may recognize the second region 320 in which food is present in the second image captured at the second time point. And, when the first region 310 and the second region 320 are recognized, the processor 110 may calculate a score by comparing the size of the first region and the size of the second region. However, the present invention is not limited thereto.

한편, 도 6의 (c)를 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 시점에 촬영된 제 1 영상에서 제 3 영역(330)을 인식하고 있을 수도 있다.Meanwhile, referring to FIG. 6C , the processor 110 of the computing device 100 may recognize the third region 330 in the first image captured at the first time point.

예를 들어, 제 3 영역(330)은 음식물이 존재하는 영역 중 일부 영역일 수 있다. 여기서, 일부 영역은 부모로부터 사전에 입력되어 있을 수 있다.For example, the third region 330 may be a partial region among regions in which food is present. Here, some areas may have been previously input by the parent.

즉, 부모는 직접 또는 부모 단말을 통해 음식물 중 일부 영역을 제 3 영역으로 지정할 수 있다. 다만, 이에 한정되는 것은 아니다.That is, the parent may designate a portion of the food as the third area directly or through the parent terminal. However, the present invention is not limited thereto.

한편, 도 6의 (d)를 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 제 2 시점에 촬영된 제 2 영상에서, 제 3 영역(330)에 음식물이 존재하는지 여부를 인식할 수 있다. 그리고, 프로세서(110)는 제 3 영역에 음식물이 존재하지 않는다고 인식한 경우, 부모가 입력한 분량의 음식을 피촬영자가 모두 섭취했다고 인식하여 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, referring to FIG. 6D , the processor 110 of the computing device 100 may recognize whether food is present in the third area 330 in the second image captured at the second time point. have. In addition, when recognizing that there is no food in the third area, the processor 110 may calculate a score by recognizing that the photographed person has consumed all the food of the amount input by the parent. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 식기의 위치 변화 또는 음식물의 양의 변화에 기초하여 산출되는 스코어는 음식물의 종류에 따라 다른 값을 가질 수 있다.Meanwhile, according to some embodiments of the present disclosure, a score calculated based on a change in the position of dishes or a change in the amount of food may have a different value depending on the type of food.

구체적으로, 음식물은 종류에 따라 기 설정된 값을 가지고 있을 수 있다. 일례로, 복수의 음식물 각각은 부모로부터의 입력에 기초하여 기 설정된 값을 가지고 있을 수 있다.Specifically, the food may have a preset value according to the type. For example, each of the plurality of foods may have a preset value based on an input from a parent.

예를 들어, 방울토마토는 "10점", 브로콜리는 "20점" 등과 같은 스코어가 기 설정되어 있을 수 있다. 이 경우, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 시점에 촬영된 제 1 영상 및 제 2 시점에 촬영된 제 2 영상에 포함된 복수의 음식물 각각의 종류를 인식할 수 있다. 이 경우, 프로세서(110)는 복수의 음식물 종류에 따라 기 설정된 스코어를 산출할 수도 있다. 다만, 이에 한정되는 것은 아니다.For example, a score such as "10 points" for cherry tomatoes and "20 points" for broccoli may be preset. In this case, the processor 110 of the computing device 100 may recognize each type of a plurality of foods included in the first image captured at the first time point and the second image captured at the second time point. In this case, the processor 110 may calculate a preset score according to a plurality of types of food. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 음식물의 종류에 따라 기 설정된 메시지를 가지고 있을 수도 있다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may have a preset message according to the type of food.

예를 들어, 프로세서(110)는 브로콜리가 인식된 경우, 피촬영자의 음식물 섭취 여부가 인식되기 이전에, "브로콜리를 먹으면 힘이 세져요"와 같은 메시지를 출력할 수도 있다. 다만, 이에 한정되는 것은 아니다.For example, when broccoli is recognized, the processor 110 may output a message such as "I get stronger if I eat broccoli" before recognizing whether or not the subject has eaten food. However, the present invention is not limited thereto.

한편, 본 개시에서, 컴퓨팅 장치(100)의 프로세서(110)는 영상에 포함된 음식물의 색상 또는 형상 중 적어도 하나에 기초하여 음식물의 종류를 인식할 수 있다. 다만, 이에 한정되는 것은 아니고, 프로세서(110)는 다수의 학습 데이터를 통해 도출된 학습 모델을 이용하여 음식물 각각을 인식하거나 또는 부모로부터 사전 입력된 데이터에 기초하여 인식할 수도 있다. 이 경우, 프로세서(110)는 복수의 음식물 종류에 따라 기 설정된 스코어를 산출할 수도 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, in the present disclosure, the processor 110 of the computing device 100 may recognize the type of food based on at least one of a color or a shape of the food included in the image. However, the present invention is not limited thereto, and the processor 110 may recognize each food using a learning model derived through a plurality of learning data or may recognize each food based on data pre-inputted from a parent. In this case, the processor 110 may calculate a preset score according to a plurality of types of food. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 음식물이 존재하는 적어도 하나의 영역(310, 320, 330)이 인식된 경우, 적어도 하나의 영역 또는 관련되는 영역에 피촬영자의 음식물 섭취를 유도하는 메시지를 출력할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, when the processor 110 of the computing device 100 recognizes at least one region 310 , 320 , 330 in which food is present, at least one region or a related region It is also possible to output a message inducing the subject to eat food.

예를 들어, 프로세서(110)는 제 3 영역(330) 또는 제 3 영역(330)과 관련되는 영역에 "이번에는 이 부분을 먹어볼까요?" 또는 캐릭터 등과 같은 메시지를 출력할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 may output to the third region 330 or a region related to the third region 330, “Shall we eat this portion this time?” Alternatively, a message such as a character may be output. However, the present invention is not limited thereto.

상술한 구성에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 식판에 음식물이 존재하는 영역을 인식할 수 있다. 그리고, 프로세서(110)는 인식된 영역에 존재하던 음식물의 양이 변화했다고 인식한 경우, 스코어를 산출할 수 있다.According to the above-described configuration, the processor 110 of the computing device 100 may recognize an area in which food is present on the plate. In addition, when recognizing that the amount of food existing in the recognized area has changed, the processor 110 may calculate a score.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 시점에 촬영된 제 1 이미지와 제 2 시점에 촬영된 제 2 이미지가 유사한지 여부에 기초하여, 스코어를 산출할 수도 있다. 이하, 도 7을 통해 본 개시에 따른 프로세서(110)가 제 1 이미지 및 제 2 이미지에 기초하여, 스코어를 산출하는 방법의 일례에 대해 설명한다.On the other hand, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 based on whether the first image photographed at the first time point and the second image photographed at the second time point are similar to each other, can also be calculated. Hereinafter, an example of a method in which the processor 110 according to the present disclosure calculates a score based on the first image and the second image will be described with reference to FIG. 7 .

도 7은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 음식물의 양의 변화에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 흐름도이다.7 is a flowchart illustrating an example of a method of calculating, by a computing device, a score based on a change in an amount of food according to some embodiments of the present disclosure.

도 7을 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 영상을 획득하기 전에, 빈 식판이 촬영된 제 1 이미지 및 음식물이 담긴 식판이 촬영된 제 2 이미지를 획득할 수 있다(S310).Referring to FIG. 7 , before acquiring an image, the processor 110 of the computing device 100 may acquire a first image in which an empty plate is photographed and a second image in which a plate containing food is photographed ( S310 ). .

한편, 본 개시에서 빈 식판이 촬영된 제 1 이미지는 저장부(120)에 기 저장되어 있을 수 있다. 다만, 이에 한정되는 것은 아니다.On the other hand, in the present disclosure, the first image in which the empty plate is photographed may be pre-stored in the storage unit 120 . However, the present invention is not limited thereto.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 제 1 이미지 및 제 2 이미지와 영상을 비교하여 스코어를 산출할 수 있다(S320).Meanwhile, the processor 110 of the computing device 100 may calculate a score by comparing the first image and the second image with the image ( S320 ).

구체적으로, 프로세서(110)는 식판 및 음식물이 촬영된 영상이 제 1 이미지와 유사한 정도 또는 영상이 제 2 이미지와 비유사한 정도 중 적어도 하나에 기초하여 스코어를 산출할 수 있다.Specifically, the processor 110 may calculate a score based on at least one of a degree to which the image of the plate and the food photographed is similar to the first image or the degree to which the image is dissimilar to the second image.

예를 들어, 프로세서(110)는 상기 영상이 제 1 이미지와 유사하다고 인식한 경우, 피촬영자가 음식물을 섭취했다고 인식하여 스코어를 산출할 수 있다. 또는, 프로세서(110)는 상기 영상이 제 2 이미지와 유사하다고 인식한 경우, 피촬영자가 음식물을 섭취하지 않았다고 인식하여 스코어를 산출하지 않을 수 있다. 또는, 프로세서(110)는 상기 영상이 제 2 이미지와 비유사하다고 인식한 경우, 피촬영자가 음식물을 섭취했다고 인식하여 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, when the processor 110 recognizes that the image is similar to the first image, the processor 110 may calculate a score by recognizing that the person to be photographed has eaten food. Alternatively, when the processor 110 recognizes that the image is similar to the second image, the processor 110 may not calculate a score by recognizing that the person to be photographed did not consume food. Alternatively, when the processor 110 recognizes that the image is dissimilar to the second image, the processor 110 may calculate a score by recognizing that the person to be photographed has consumed food. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 피촬영자의 저작 횟수(씹는 횟수)에 기초하여 스코어를 산출할 수도 있다. 이하, 도 8을 통해 본 개시에 따른 프로세서(110)가 피촬영자의 저작 횟수에 기초하여 스코어를 산출하는 방법의 일례에 대해 설명한다.Meanwhile, according to some embodiments of the present disclosure, the processor 110 of the computing device 100 may calculate a score based on the number of times of masturbation (the number of chewing) of the subject. Hereinafter, an example of a method in which the processor 110 according to the present disclosure calculates a score based on the number of times of authorship of a photographed person will be described with reference to FIG. 8 .

도 8은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 피촬영자의 저작 횟수에 기초하여 스코어를 산출하는 방법의 일례를 설명하기 위한 흐름도이다.FIG. 8 is a flowchart illustrating an example of a method in which a computing device calculates a score based on the number of times a photographed person writes, according to some embodiments of the present disclosure.

도 8을 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 영상에 포함된 피촬영자의 저작 횟수를 인식할 수 있다(S410).Referring to FIG. 8 , the processor 110 of the computing device 100 may recognize the number of times a person to be photographed included in an image (S410).

구체적으로, 프로세서(110)는 피촬영자가 촬영된 영상에서 피촬영자의 안면 및 피촬영자의 입을 인식할 수 있다. 그리고, 프로세서(110)는 피촬영자의 입이 움직이는 횟수에 기초하여, 저작 횟수를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.Specifically, the processor 110 may recognize the face of the photographed person and the mouth of the photographed person from the photographed image. In addition, the processor 110 may recognize the number of times of masturbation based on the number of times the subject's mouth moves. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 식기가 식판이 위치한 제 1 포인트에서 피촬영자의 입이 위치한 제 2 포인트로 이동했다고 인식한 경우, 피촬영자의 저작 횟수를 인식할 수도 있다. 따라서, 프로세서(110)는 피촬영자의 입에 음식물이 존재하지 않는 경우에는 저작 횟수를 인식하지 않을 수 있다. 다만, 이에 한정되는 것은 아니다.On the other hand, according to some embodiments of the present disclosure, when the processor 110 of the computing device 100 recognizes that the tableware has moved from the first point where the plate is located to the second point where the mouth of the person to be photographed is located, the It is also possible to recognize the number of times of writing. Accordingly, the processor 110 may not recognize the number of times of masturbation when there is no food in the mouth of the subject. However, the present invention is not limited thereto.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 저작 횟수에 기초하여 제 3 스코어를 산출할 수 있다(S420).Meanwhile, the processor 110 of the computing device 100 may calculate a third score based on the number of times of writing ( S420 ).

일례로, 컴퓨팅 장치(100)의 저장부(120)에는 저작 횟수에 따른 제 3 스코어가 저장되어 있을 수 있다. 이 경우, 프로세서(110)는 저작 횟수에 기초하여 저장부(120)에 사전 저장된 제 3 스코어를 산출할 수 있다. 다만, 이에 한정되는 것은 아니다.For example, the storage unit 120 of the computing device 100 may store the third score according to the number of times of authoring. In this case, the processor 110 may calculate the third score pre-stored in the storage unit 120 based on the number of times of writing. However, the present invention is not limited thereto.

한편, 컴퓨팅 장치(100)의 프로세서(110)는 산출된 제 3 스코어를 현재 스코어에 부가할 수 있다(S430). 그리고, 프로세서(110)는 현재 스코어에 제 3 스코어가 부가됨에 따라 기 설정된 메시지를 출력할 수 있다. 다만, 이에 한정되는 것은 아니다.Meanwhile, the processor 110 of the computing device 100 may add the calculated third score to the current score ( S430 ). In addition, the processor 110 may output a preset message as the third score is added to the current score. However, the present invention is not limited thereto.

한편, 본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 피촬영자의 저작 획수가 충분하지 않다고 인식한 경우, 피촬영자의 저작 횟수가 증가할 수 있도록 유도하는 메시지를 출력할 수도 있다.Meanwhile, according to some embodiments of the present disclosure, when the processor 110 of the computing device 100 recognizes that the number of authoring strokes of the person to be photographed is not sufficient, the processor 110 outputs a message inducing that the number of times of authoring by the person to be photographed can be increased. You may.

예를 들어, 프로세서(110)는 피촬영자가 기 설정된 저작 횟수 이하의 저작 횟수로 음식물을 삼켰다고 인식한 경우, "꼭꼭 씹어먹어요" 등과 같은 메시지를 출력할 수도 있다. 다만, 이에 한정되는 것은 아니다.For example, the processor 110 may output a message such as "chew it tightly" when it is recognized that the person to be photographed has swallowed food with a number of mastications less than or equal to a preset number of mastications. However, the present invention is not limited thereto.

도 1 내지 도 8을 통해 살펴본 바에 따르면, 컴퓨팅 장치(100)의 프로세서(110)는 피촬영자가 음식물을 섭취하는 영상에서 피촬영자가 음식물을 섭취했는지를 인식할 수 있다. 그리고, 프로세서(110)는 피촬영자가 음식물을 섭취함에 따라 산출되는 스코어에 기초하여, 기 설정된 메시지를 출력할 수 있다. 따라서, 컴퓨팅 장치(100)는 피촬영자(아이)의 식사에 대한 흥미가 꾸준히 유발되도록 유도할 수 있다.Referring to FIGS. 1 to 8 , the processor 110 of the computing device 100 may recognize whether the person to be photographed consumes food from an image in which the photographed person consumes food. In addition, the processor 110 may output a preset message based on a score calculated as the person to be photographed consumes food. Accordingly, the computing device 100 may induce the subject (child) to be continuously interested in meals.

도 9는 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.9 shows a general schematic diagram of an example computing environment in which embodiments of the present disclosure may be implemented.

본 개시내용이 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시내용 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.While the present disclosure has been described above generally in the context of computer-executable instructions that may be executed on one or more computers, those skilled in the art will appreciate that the present disclosure may be implemented as a combination of hardware and software and/or in combination with other program modules. you will know

일반적으로, 본 명세서에서의 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로시져, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.Generally, modules herein include routines, procedures, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types. In addition, those skilled in the art will appreciate that the methods of the present disclosure are suitable for single-processor or multiprocessor computer systems, minicomputers, mainframe computers as well as personal computers, handheld computing devices, microprocessor-based or programmable consumer electronics, etc. (each of which is It will be appreciated that other computer system configurations may be implemented, including those that may operate in connection with one or more associated devices.

본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.The described embodiments of the present disclosure may also be practiced in distributed computing environments where certain tasks are performed by remote processing devices that are linked through a communications network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.

컴퓨터는 통상적으로 다양한컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체 로서, 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. Computers typically include a variety of computer-readable media. Media accessible by a computer includes volatile and nonvolatile media, transitory and non-transitory media, removable and non-removable media. By way of example, and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media.

컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computer-readable storage media includes volatile and non-volatile media, temporary and non-transitory media, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. includes media. A computer-readable storage medium may be RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device. device, or any other medium that can be accessed by a computer and used to store the desired information.

컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.Computer readable transmission media typically embodies computer readable instructions, data structures, program modules or other data in a modulated data signal such as a carrier wave or other transport mechanism, and Includes any information delivery medium. The term modulated data signal means a signal in which one or more of the characteristics of the signal is set or changed so as to encode information in the signal. By way of example, and not limitation, computer-readable transmission media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above are also intended to be included within the scope of computer-readable transmission media.

컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.An exemplary environment 1100 implementing various aspects of the disclosure is shown including a computer 1102 , the computer 1102 including a processing unit 1104 , a system memory 1106 , and a system bus 1108 . do. A system bus 1108 couples system components, including but not limited to system memory 1106 , to the processing device 1104 . The processing device 1104 may be any of a variety of commercially available processors. Dual processor and other multiprocessor architectures may also be used as processing unit 1104 .

시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.The system bus 1108 may be any of several types of bus structures that may be further interconnected to a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures. System memory 1106 includes read only memory (ROM) 1110 and random access memory (RAM) 1112 . A basic input/output system (BIOS) is stored in non-volatile memory 1110, such as ROM, EPROM, EEPROM, etc., which BIOS is the basic input/output system (BIOS) that helps transfer information between components within computer 1102, such as during startup. contains routines. RAM 1112 may also include high-speed RAM, such as static RAM, for caching data.

컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)―이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음―, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 예를 들어, USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.Computer 1102 may also include an internal hard disk drive (HDD) 1114 (eg, EIDE, SATA) - this internal hard disk drive 1114 may also be configured for external use within a suitable chassis (not shown). Yes—a magnetic floppy disk drive (FDD) 1116 (eg, for reading from or writing to removable diskette 1118), and an optical disk drive 1120 (eg, a CD-ROM) for reading from, or writing to, disk 1122, or other high capacity optical media such as DVD. The hard disk drive 1114 , the magnetic disk drive 1116 , and the optical disk drive 1120 are connected to the system bus 1108 by the hard disk drive interface 1124 , the magnetic disk drive interface 1126 , and the optical drive interface 1128 , respectively. ) can be connected to The interface 1124 for external drive implementation includes, for example, at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.

이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 저장 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 저장 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer readable media provide non-volatile storage of data, data structures, computer executable instructions, and the like. For computer 1102, drives and media correspond to storing any data in a suitable digital format. Although the description of computer-readable storage media above refers to HDDs, removable magnetic disks, and removable optical media such as CDs or DVDs, those skilled in the art will use zip drives, magnetic cassettes, flash memory cards, cartridges, It will be appreciated that other tangible computer-readable storage media and the like may also be used in the exemplary operating environment and any such media may include computer-executable instructions for performing the methods of the present disclosure. .

운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules may be stored in the drive and RAM 1112 , including an operating system 1130 , one or more application programs 1132 , other program modules 1134 , and program data 1136 . All or portions of the operating system, applications, modules, and/or data may also be cached in RAM 1112 . It will be appreciated that the present disclosure may be implemented in various commercially available operating systems or combinations of operating systems.

사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may enter commands and information into the computer 1102 via one or more wired/wireless input devices, for example, a pointing device such as a keyboard 1138 and a mouse 1140 . Other input devices (not shown) may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like. Although these and other input devices are often connected to the processing unit 1104 through an input device interface 1142 that is connected to the system bus 1108, parallel ports, IEEE 1394 serial ports, game ports, USB ports, IR interfaces, It may be connected by other interfaces, etc.

모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 1144 or other type of display device is also coupled to the system bus 1108 via an interface, such as a video adapter 1146 . In addition to the monitor 1144, the computer typically includes other peripheral output devices (not shown), such as speakers, printers, and the like.

컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 서버 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148 via wired and/or wireless communications. Remote computer(s) 1148 may be workstations, server computers, routers, personal computers, portable computers, microprocessor-based entertainment devices, peer devices, or other common network nodes, and are generally Although including many or all of the components described, only memory storage device 1150 is shown for simplicity. The logical connections shown include wired/wireless connections to a local area network (LAN) 1152 and/or a larger network, eg, a wide area network (WAN) 1154 . Such LAN and WAN networking environments are common in offices and companies, and facilitate enterprise-wide computer networks, such as intranets, all of which can be connected to a worldwide computer network, for example, the Internet.

LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 서버에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, the computer 1102 is connected to the local network 1152 through a wired and/or wireless communication network interface or adapter 1156 . Adapter 1156 may facilitate wired or wireless communication to LAN 1152 , which also includes a wireless access point installed therein for communicating with wireless adapter 1156 . When used in a WAN networking environment, the computer 1102 may include a modem 1158 , connected to a communication server on the WAN 1154 , or otherwise establishing communications over the WAN 1154 , such as over the Internet. have the means A modem 1158 , which may be internal or external and a wired or wireless device, is coupled to the system bus 1108 via a serial port interface 1142 . In a networked environment, program modules described for computer 1102 or portions thereof may be stored in remote memory/storage device 1150 . It will be appreciated that the network connections shown are exemplary and other means of establishing a communication link between the computers may be used.

컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.Computer 1102 may be associated with any wireless device or object that is deployed and operates in wireless communication, for example, printers, scanners, desktop and/or portable computers, portable data assistants (PDAs), communication satellites, wireless detectable tags. It operates to communicate with any device or place, and phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be an ad hoc communication between at least two devices.

Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) makes it possible to connect to the Internet, etc. without a wire. Wi-Fi is a wireless technology such as cell phones that allows these devices, eg, computers, to transmit and receive data indoors and outdoors, ie anywhere within range of a base station. Wi-Fi networks use a radio technology called IEEE 802.11 (a, b, g, etc.) to provide secure, reliable, and high-speed wireless connections. Wi-Fi can be used to connect computers to each other, to the Internet, and to wired networks (using IEEE 802.3 or Ethernet). Wi-Fi networks may operate in unlicensed 2.4 and 5 GHz radio bands, for example, at 11 Mbps (802.11a) or 54 Mbps (802.11b) data rates, or in products that include both bands (dual band). have.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.A person of ordinary skill in the art of the present disclosure will recognize that the various illustrative logical blocks, modules, processors, means, circuits and algorithm steps described in connection with the embodiments disclosed herein include electronic hardware, (convenience For this purpose, it will be understood that it may be implemented by various forms of program or design code (referred to herein as "software") or a combination of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. A person skilled in the art of the present disclosure may implement the described functionality in various ways for each specific application, but such implementation decisions should not be interpreted as a departure from the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다. The various embodiments presented herein may be implemented as methods, apparatus, or articles of manufacture using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program or media accessible from any computer-readable device. For example, computer-readable storage media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash drives. memory devices (eg, EEPROMs, cards, sticks, key drives, etc.). The term “machine-readable medium” includes, but is not limited to, wireless channels and various other media capable of storing, retaining, and/or carrying instruction(s) and/or data.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not intended to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

Claims (16)

식기 또는 음식물 중 적어도 하나가 포함된 영상을 획득하는 단계;
상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계; 및
상기 스코어에 기초하여 기 설정된 메시지를 출력하고, 상기 스코어가 기 설정된 목표 스코어에 도달했다고 인식한 경우, 기 설정된 상품의 자동 결제 알고리즘을 실행하는 단계;
를 포함하는,
교육용 식습관 개선 게임 제공 방법.
acquiring an image including at least one of tableware and food;
calculating a score based on at least one of a change in the position of the dishes or a change in the amount of the food; and
outputting a preset message based on the score, and executing an automatic payment algorithm for a preset product when recognizing that the score has reached a preset target score;
containing,
How to provide educational eating habits improvement games.
제 1 항에 있어서,
상기 영상은,
식판 및 피촬영자를 더 포함하고,
상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계는,
상기 영상에서 상기 식판의 위치와 관련된 제 1 포인트와 상기 피촬영자의 입의 위치와 관련된 제 2 포인트를 인식하는 단계; 및
상기 제 1 포인트에서 상기 제 2 포인트로 상기 식기의 위치가 변화한 경우, 현재 스코어에 기 설정된 제 1 스코어를 부가하는 단계;
를 포함하는,
교육용 식습관 개선 게임 제공 방법.
The method of claim 1,
The video is
Further including a plate and a person to be photographed,
Calculating a score based on at least one of a change in the position of the tableware or a change in the amount of food includes:
Recognizing a first point related to the position of the plate in the image and a second point related to the position of the subject's mouth; and
adding a preset first score to a current score when the position of the tableware changes from the first point to the second point;
containing,
How to provide educational eating habits improvement games.
제 2 항에 있어서,
상기 제 1 포인트에서 상기 제 2 포인트로 상기 식기의 위치가 변화한 경우, 현재 스코어에 기 설정된 제 1 스코어를 부가하는 방법으로 상기 스코어를 산출하는 단계는,
상기 식기 상에 음식물이 존재한다고 인식한 경우, 상기 현재 스코어에 상기 제 1 스코어를 부가하는 단계;
를 포함하는,
교육용 식습관 개선 게임 제공 방법.
3. The method of claim 2,
calculating the score by adding a preset first score to the current score when the position of the tableware changes from the first point to the second point;
adding the first score to the current score when it is recognized that there is food on the tableware;
containing,
How to provide educational eating habits improvement games.
제 1 항에 있어서,
상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계는,
제 1 시점에 촬영된 제 1 영상에서 상기 음식물이 존재하는 제 1 영역을 인식하는 단계;
제 1 시점 이후인 제 2 시점에 촬영된 제 2 영상에서 상기 음식물이 존재하는 제 2 영역을 인식하는 단계; 및
상기 제 1 영역의 크기와 상기 제 2 영역의 크기를 비교하여 상기 스코어를 산출하는 단계;
를 포함하는,
교육용 식습관 개선 게임 제공 방법.
The method of claim 1,
Calculating a score based on at least one of a change in the position of the tableware or a change in the amount of food includes:
recognizing a first area in which the food is present in a first image captured at a first point in time;
recognizing a second region in which the food is present in a second image captured at a second time point after the first time point; and
calculating the score by comparing the size of the first region with the size of the second region;
containing,
How to provide educational eating habits improvement games.
제 4 항에 있어서,
상기 제 2 시점은,
상기 식기의 움직임이 기 설정된 시간 동안 인식되지 않은 시점인,
교육용 식습관 개선 게임 제공 방법.
5. The method of claim 4,
The second time point is
A point in time when the movement of the tableware is not recognized for a preset time,
How to provide educational eating habits improvement games.
제 4 항에 있어서,
상기 제 1 영역의 크기와 상기 제 2 영역의 크기를 비교하여 상기 스코어를 산출하는 단계는,
상기 제 1 영역 크기와 상기 제 2 영역의 크기의 차이를 산출하는 단계; 및
상기 차이에 기초하여 산출된 제 2 스코어를 현재 스코어에 부가하는 단계;
를 포함하는,
교육용 식습관 개선 게임 제공 방법.
5. The method of claim 4,
Comparing the size of the first region and the size of the second region to calculate the score,
calculating a difference between the size of the first region and the size of the second region; and
adding a second score calculated based on the difference to the current score;
containing,
How to provide educational eating habits improvement games.
제 4 항에 있어서,
상기 제 1 영역은,
상기 제 1 영상에서 식판과 관련된 제 1 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역이고,
상기 제 2 영역은,
상기 제 2 영상에서 상기 제 1 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역인,
교육용 식습관 개선 게임 제공 방법.
5. The method of claim 4,
The first area is
It is an area in which at least one object having a color other than the first color related to the plate in the first image exists,
The second area is
an area in which at least one object having a color other than the first color exists in the second image,
How to provide educational eating habits improvement games.
제 4 항에 있어서,
상기 제 1 영역은,
상기 제 1 영상에서 식판과 관련된 제 1 색상 및 상기 식기와 관련된 제 2 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역이고,
상기 제 2 영역은,
상기 제 2 영상에서 상기 제 1 색상 및 상기 제 2 색상 이외의 색상을 갖는 적어도 하나의 오브젝트가 존재하는 영역인,
교육용 식습관 개선 게임 제공 방법.
5. The method of claim 4,
The first area is
An area in which at least one object having a color other than the first color related to the plate and the second color related to the tableware in the first image exists;
The second area is
an area in which at least one object having a color other than the first color and the second color exists in the second image;
How to provide educational eating habits improvement games.
제 1 항에 있어서,
상기 영상을 획득하기 전에, 빈 식판이 촬영된 제 1 이미지 및 상기 음식물이 담긴 식판이 촬영된 제 2 이미지를 획득하는 단계;
를 더 포함하고,
상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계는,
상기 제 1 이미지 및 상기 제 2 이미지와 상기 영상을 비교하여 상기 스코어를 산출하는 단계;
를 포함하는,
교육용 식습관 개선 게임 제공 방법.
The method of claim 1,
Before acquiring the image, obtaining a first image of an empty plate and a second image of a plate containing the food;
further comprising,
Calculating a score based on at least one of a change in the position of the tableware or a change in the amount of food includes:
calculating the score by comparing the first image and the second image with the image;
containing,
How to provide educational eating habits improvement games.
제 9 항에 있어서,
상기 제 1 이미지 및 상기 제 2 이미지와 상기 영상을 비교하여 상기 스코어를 산출하는 단계는,
상기 영상이 상기 제 1 이미지와 유사한 정도 또는 상기 영상이 상기 제 2 이미지와 비유사한 정도 중 적어도 하나에 기초하여 상기 스코어를 산출하는 단계;
를 포함하는,
교육용 식습관 개선 게임 제공 방법.
10. The method of claim 9,
Comparing the first image and the second image with the image to calculate the score,
calculating the score based on at least one of a degree to which the image is similar to the first image or a degree to which the image is dissimilar to the second image;
containing,
How to provide educational eating habits improvement games.
제 1 항에 있어서,
상기 스코어는,
상기 음식물의 종류에 따라 다른 값을 갖는,
교육용 식습관 개선 게임 제공 방법.
The method of claim 1,
The score is
having a different value depending on the type of food,
How to provide educational eating habits improvement games.
제 11 항에 있어서,
상기 음식물의 상기 종류는,
상기 영상에 포함된 음식물의 색상 또는 형상 중 적어도 하나에 기초하여 인식되는,
교육용 식습관 개선 게임 제공 방법.
12. The method of claim 11,
The kind of food is,
Recognized based on at least one of a color or shape of food included in the image,
How to provide educational eating habits improvement games.
제 2 항에 있어서,
상기 영상에 포함된 상기 피촬영자의 저작 횟수를 인식하는 단계;
상기 저작 횟수에 기초하여 제 3 스코어를 산출하는 단계; 및
상기 제 3 스코어를 상기 현재 스코어에 부가하는 단계;
를 더 포함하는,
교육용 식습관 개선 게임 제공 방법.
3. The method of claim 2,
recognizing the number of times the photographed person authored included in the image;
calculating a third score based on the number of times of writing; and
adding the third score to the current score;
further comprising,
How to provide educational eating habits improvement games.
제 1 항에 있어서,
상기 스코어가 기 설정된 목표 스코어에 도달했는지 여부를 인식한 경우, 기 설정된 메시지를 부모 단말로 전송하는 단계;
를 더 포함하는,
교육용 식습관 개선 게임 제공 방법.
The method of claim 1,
transmitting a preset message to a parent terminal when recognizing whether the score has reached a preset target score;
further comprising,
How to provide educational eating habits improvement games.
삭제delete 제 1 항에 있어서,
상기 식기의 위치 변화 또는 상기 음식물의 양의 변화 중 적어도 하나에 기초하여 스코어를 산출하는 단계는,
식판으로부터 식판 및 음식물의 무게와 관련된 데이터를 수신하는 단계;
상기 데이터에 기초하여 제 4 스코어를 산출하는 단계; 및
상기 제 4 스코어를 현재 스코어에 부가하는 단계;
를 포함하는,
교육용 식습관 개선 게임 제공 방법.


The method of claim 1,
Calculating a score based on at least one of a change in the position of the tableware or a change in the amount of food includes:
Receiving data related to the weight of the plate and food from the plate;
calculating a fourth score based on the data; and
adding the fourth score to a current score;
containing,
How to provide educational eating habits improvement games.


KR1020200128026A 2020-10-05 2020-10-05 Method for providing educational game to improve eating habits KR102436656B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200128026A KR102436656B1 (en) 2020-10-05 2020-10-05 Method for providing educational game to improve eating habits

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200128026A KR102436656B1 (en) 2020-10-05 2020-10-05 Method for providing educational game to improve eating habits

Publications (2)

Publication Number Publication Date
KR20220045376A KR20220045376A (en) 2022-04-12
KR102436656B1 true KR102436656B1 (en) 2022-08-25

Family

ID=81187941

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200128026A KR102436656B1 (en) 2020-10-05 2020-10-05 Method for providing educational game to improve eating habits

Country Status (1)

Country Link
KR (1) KR102436656B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033326A (en) * 2008-07-29 2010-02-12 Nec Corp Diet-health management system, method, and program
JP2012212249A (en) * 2011-03-30 2012-11-01 Fujitsu Ltd Meal image analysis method, meal image analysis program and meal image analysis device
KR101782319B1 (en) * 2017-01-13 2017-09-27 정연경 Apparatus for pep talk at table

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102101633B1 (en) 2018-08-24 2020-04-20 주식회사 에이티파마바이오 Infant eating habit education system and its method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033326A (en) * 2008-07-29 2010-02-12 Nec Corp Diet-health management system, method, and program
JP2012212249A (en) * 2011-03-30 2012-11-01 Fujitsu Ltd Meal image analysis method, meal image analysis program and meal image analysis device
KR101782319B1 (en) * 2017-01-13 2017-09-27 정연경 Apparatus for pep talk at table

Also Published As

Publication number Publication date
KR20220045376A (en) 2022-04-12

Similar Documents

Publication Publication Date Title
Taylor et al. Investigating the association between children’s screen media exposure and vocabulary size in the UK
Casperson et al. A mobile phone food record app to digitally capture dietary intake for adolescents in a free-living environment: usability study
EP3289534A1 (en) Location-based wireless diabetes management systems, methods and apparatus
US9462066B2 (en) Social action by quick response (QR) code
CN102694906B (en) The auto-pickup of mobile phone
US20170163471A1 (en) Collaborative Recovery for an Account Associated with a Social Network
KR20210068448A (en) Typing of emotional markers for digital messages
US8861310B1 (en) Surface-based sonic location determination
US20150359201A1 (en) Methods and Apparatus for Tracking and Analyzing Animal Behaviors
CN107103074B (en) Processing method of shared information and mobile terminal
US20160165417A1 (en) Method for providing point of interest and electronic device thereof
US20200233565A1 (en) Customized interactive computing environment
CN114077308A (en) System, method and apparatus for alerting a user to maintain a physical distance
KR102436656B1 (en) Method for providing educational game to improve eating habits
US20080296380A1 (en) Nutritional intake tracker
CN108428027A (en) Event-handling method and device
CN107864272A (en) It is a kind of that the method and system of information, mobile terminal are obtained by a reading equipment
CN109688175B (en) Resource package distribution method, resource package acquisition method, device and storage medium
KR102306841B1 (en) Method and system for matching after school education of children
KR20180055392A (en) Mobile apparatus for improving of children's vegetable-eating and efficacy educating of vegetable-eating and control method thereof
CN111536660A (en) Control method and device of air conditioner, storage medium and air conditioner
KR102508889B1 (en) A method and system for monitoring infant facilities based on digital twin technology
Hwang et al. Vibecomm: Radio-free wireless communication for smart devices using vibration
CN109286557A (en) Chat method, device, server and storage medium based on virtual pet
CN111178348B (en) Method for tracking target object and sound box equipment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant