KR20180121225A - Dietary guidance service system and service method using the same - Google Patents

Dietary guidance service system and service method using the same Download PDF

Info

Publication number
KR20180121225A
KR20180121225A KR1020170055666A KR20170055666A KR20180121225A KR 20180121225 A KR20180121225 A KR 20180121225A KR 1020170055666 A KR1020170055666 A KR 1020170055666A KR 20170055666 A KR20170055666 A KR 20170055666A KR 20180121225 A KR20180121225 A KR 20180121225A
Authority
KR
South Korea
Prior art keywords
sensing
image
character
unit
output image
Prior art date
Application number
KR1020170055666A
Other languages
Korean (ko)
Inventor
김지훈
Original Assignee
김지훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김지훈 filed Critical 김지훈
Priority to KR1020170055666A priority Critical patent/KR20180121225A/en
Publication of KR20180121225A publication Critical patent/KR20180121225A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Nutrition Science (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

The present invention relates to a dietary habit guidance service system and a dietary habit guidance service using the same, enabling children to concentrate on eating, inducing the eating using children′s favorite characters to settle and improve their eating habits and sensing the eating status of the children to perform sufficient writing and eating guidance. The dietary habit guidance service system includes: a sensing unit for writing sensing information; a processing unit for determining a current state of a sensing object; a character control unit for selecting an output image; an output unit for outputting and providing the output image; and a storage unit for storing data for outputting the image.

Description

식습관 유도 서비스 시스템 및 이를 이용한 식습관 유도 서비스{DIETARY GUIDANCE SERVICE SYSTEM AND SERVICE METHOD USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a dietary induction service system and a dietary induction service using the same,

본 발명은 식습관 유도 서비스 시스템 및 이를 이용한 식습관 유도 서비스에 관한 것으로 특히, 어린 아이들이 식사에 집중할 수 있도록 함과 아울러, 식습관의 정착 및 개선이 가능하도록 아이들이 좋아하는 캐릭터를 이용하여 식사를 유도함과 아울러 아이들의 식사상태를 감지하여 충분한 저작 및 식사 지도가 이루어지도록 하는 식습관 유도 서비스 시스템 및 이를 이용한 식습관 유도 서비스에 관한 것이다.The present invention relates to a food service induction service system and a food service induction service using the same, and more particularly, it is intended to allow children to concentrate on a meal and to induce a meal using a child's favorite character so that the eating habit can be fixed and improved. The present invention also relates to a food service inducing service system for enabling a child to fully understand his /

식사는 음식물을 섭취하여 몸에 필요한 영양소를 공급하는 아주 중요한 행위이며, 건강과 직결되는 행위라 할 수 있다. 특히, 식사 중에 주의력을 분산시키는 행동, 급하게 음식물을 섭취하는 것과 같은 바르지 못한 식습관은 건강을 저해하여 소화기관의 질병, 당뇨, 고혈압, 비만을 야기하는 주된 요인이 되고 있다.Diet is a very important act to feed the nutrients necessary for the body by ingesting the food, and it can be said that it is directly related to health. Particularly, inappropriate eating habits such as divergence of attentiveness during eating and eating fast food are the major factors causing digestive diseases, diabetes, hypertension and obesity.

때문에 영유아와 같은 어린 아이들이 어린 시절부터 바른 식습관을 가지게 교육하는 것이 매우 중요하다 할 수 있다.It is therefore very important for young children, such as infants, to be educated to have the right eating habits from childhood.

그러나, 이러한 식사와 식습관이 중요함을 모든 부모들이 인지하고는 있으나, 의도대로 아이들이 식사에 집중하고, 좋은 식습관을 가지도록 가르치는 것이 용이하지 않으며, 한끼 분의 음식을 먹이는 것만으로 곤욕을 치루어야 하는 것이 현실이다.However, it is not easy for all parents to recognize that these meals and eating habits are important, but it is not easy for them to focus on eating and having good eating habits as intended, It is a reality to do.

더욱이, 부모 또는 선생님들과 같이 식사를 하는 경우 대부분의 아이들이 부모 또는 선생님들의 나쁜 식습관을 모방하는 경우가 많아 의지와 다르게 좋은 식습관을 가지도록 하는 것이 곤란하다.Moreover, when eating with parents or teachers, it is often difficult for most children to have a bad eating habit because they often imitate the bad eating habits of their parents or teachers.

최근에는 일부 부모들이 아이들이 좋아하는 영상이나, 캐릭터를 이용하여 식사를 유도하는 방법을 자주 사용하고 있으나, 이러한 경우 보상심리를 통해 식사를 하게 할 순 있어도, 충분한 저작이 이루어지지 않거나, 과하게 음식물을 섭취하여 2차적인 문제를 야기하는 원인이 되고 있다.In recent years, some parents have frequently used images of children's favorite images or characters to induce them to eat, but in such cases, even if they can make meals through compensatory hearing, Which causes secondary problems due to ingestion.

한국공개특허 10-2017-0006583(2017.01.18.)Korean Patent Publication No. 10-2017-0006583 (2017.01.18.)

따라서, 본 발명의 목적은 어린 아이들이 식사에 집중할 수 있도록 함과 아울러, 식습관의 정착 및 개선이 가능하도록 아이들이 좋아하는 캐릭터를 이용하여 식사를 유도함과 아울러 아이들의 식사상태를 감지하여 충분한 저작 및 식사 지도가 이루어지도록 하는 식습관 유도 서비스 시스템 및 이를 이용한 식습관 유도 서비스를 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to enable children to concentrate on eating, to induce meals using children's favorite characters so as to fix and improve their eating habits, And to provide a meal inducing service system using the meal inducing service system.

상기 목적을 달성하기 위하여 본 발명에 따른 식습관 유도 서비스 시스템은 감지 대상의 위치 또는 저작활동을 포함하는 행동을 감지하여 감지정보를 작성하는 감지부; 상기 감지정보를 전달받아 상기 감지 대상의 위치 확인 및 상기 감지 대상의 행동을 분석하여 상기 감지대상의 현재 상태를 판단하는 처리부; 상기 감지대상의 상기 현재 상태에 대응하여 미리 지정된 영상을 출력하도록 출력영상을 선택하는 캐릭터 제어부; 상기 캐릭터 제어부에 의해 선택된 출력영상을 출력하여 제공하는 출력부; 및 상기 영상의 출력을 위한 데이터가 저장되는 저장부;를 포함하여 구성되는 것을 특징으로 한다.In order to attain the above object, a dietary habit guiding service system according to the present invention includes a sensing unit for sensing sensed position or activity including a chewing activity to generate sensing information; A processor for receiving the sensing information and analyzing a position of the sensing object and a behavior of the sensing object to determine a current state of the sensing object; A character controller for selecting an output image to output a predetermined image corresponding to the current state of the sensing object; An output unit for outputting and providing an output image selected by the character control unit; And a storage unit for storing data for outputting the image.

상기 감지부는 상기 감지 대상의 신체에 착용되고, 상기 감지 대상의 감지를 위한 센서 또는 상기 감지부에서 인식 가능한 마커를 구비하는 착용구를 더 포함하여 구성되는 것을 특징으로 한다.The sensing unit may further include a wearer wearing a body to be sensed and having a sensor for sensing the sensing object or a marker recognizable by the sensing unit.

상기 착용구는 상기 출력영상에 포함된 장신구 또는 상기 출력영상의 출처가 되는 미디어, 게임에서 사용된 장신구 또는 도구의 형태를 모방하여 형성되는 것을 특징으로 한다.The wearer may be formed by mimicking the shape of the jewelry or the tool used in the game, the media serving as the source of the output video, or the jewelry contained in the output image.

상기 감지부는 상기 감지 대상의 영상을 촬영하여 상기 감지정보를 작성하는 것을 특징으로 한다.And the sensing unit may photograph the image of the sensing object to generate the sensing information.

상기 출력영상은 미디어 또는 게임에 등장하는 캐릭터를 포함하는 것을 특징으로 한다.And the output image includes a character appearing in a media or a game.

상기 저장부에 저장되는 상기 데이터는 상기 캐릭터의 표정, 동작, 형태, 상황에 대한 복수의 이미지 또는 복수의 영상 클립이 복수로 마련되고, 상기 이미지 또는 영상 클립에 매칭 가능한 멘트가 복수로 마련되는 것을 특징으로 한다.The data stored in the storage unit includes a plurality of images or a plurality of image clips related to the expression, operation, form, and situation of the character, and a plurality of items that can be matched to the image or image clip are provided .

상기 캐릭터 제어부는 상기 감지대상의 상기 현재 상태에 따라 상기 캐릭터의 이미지, 영상 클립 및 상기 멘트를 조합하여 상기 출력영상을 생성하는 것을 특징으로 한다.And the character control unit generates the output image by combining the image of the character, the image clip, and the ment according to the current state of the sensing object.

상기 데이터는 상기 캐릭터가 식사하는 모습, 음식을 씹는 모습, 음식을 삼키는 모습, 식사 도구를 사용하는 모습 중 어느 하나 이상의 모습 또는 이에 대응되는 멘트를 포함하는 것을 특징으로 한다.The data may include at least one of a state of eating the character, a state of chewing the food, a state of swallowing the food, and a state of using the eating tool, or a ment corresponding thereto.

상기 착용구는 헤어밴드, 넥밴드, 목걸이, 귀걸이, 안경, 모자, 패치 중 어느 하나의 형태로 형성되는 것을 특징으로 한다.The wearer may be formed in any one of a hair band, a neck band, a necklace, an earring, a pair of glasses, a hat and a patch.

또한, 본 발명에 따른 식습관 유도 서비스 방법은 감지부가 감지대상의 위치 또는 저작활동을 포함하는 행동을 감지하여 감지정보를 작성하는 감지정보 작성단계; 처리부가 상기 감지정보를 전달받아 상기 감지 대상의 위치 확인 및 상기 감지 대상의 행동을 분석하여 상기 감지대상의 현재 상태를 판단하는 현재 상태 판단단계; 캐릭터 제어부가 상기 제어부의 판단결과에 의해 확인되는 상기 현재 상태에 대응하여 미리 지정된 영상을 선택하는 출력영상 선택단계: 및 상기 선택된 출력영상을 출력부를 통해 출력하는단계;를 포함하여 구성되는 것을 특징으로 한다.Further, the eating and drinking induction service method according to the present invention includes a sensed information preparing step of generating sensed information by sensing a position of a sensing object or an action including a authoring activity; A current state determining step of determining a current state of the sensing target by receiving a sensing information and analyzing a position of the sensing target and a behavior of the sensing target; And a character control unit for selecting a predetermined image in accordance with the current status confirmed by the determination result of the control unit, and outputting the selected output image through an output unit. do.

상기 감지정보 작성단계는 상기 감지대상의 신체에 착용되고, 상기 감지대상의 감지를 위한 센서 또는 상기 감지부에서 인식 가능한 마커를 구비하는 착용구를 상기 감지대상이 착용하는 단계를 더 포함하여 구성되는 것을 특징으로 한다.The sensing information creating step may further include wearing a wearable glove to be worn on the body of the sensing object and having a sensor for sensing the sensing object or a marker recognizable by the sensing unit, .

상기 착용구는 상기 출력영상에 포함된 장신구 또는 상기 출력영상의 출처가 되는 미디어, 게임에서 사용된 장신구 또는 도구의 형태를 모방하여 형성된 것을 특징으로 한다.The wearer is formed by mimicking the shape of the jewelry or the tool used in the game, the media serving as the source of the output video, or the jewelry contained in the output image.

상기 감지정보 작성단계는 상기 감지부가 영상촬영을 통해 상기 감지대상 영상을 획득하여 감지정보를 생성하는 단계;를 포함하여 구성되는 것을 특징으로 한다.The sensing information generating step may include sensing the sensing target image by sensing the sensing unit and generating sensed information.

상기 출력영상은 미디어 또는 게임에 등장하는 캐릭터를 포함하는 것을 특징으로 한다.And the output image includes a character appearing in a media or a game.

상기 출력영상의 생성을 위한 데이터가 저장되는 단계를 더 포함하여 구성되고, 상기 데이터는 상기 캐릭터의 표정, 동작, 형태, 상황에 대한 복수의 이미지 또는 복수의 영상 클립이 마련되고, 상기 이미지 또는 영상 클립에 매칭 가능한 멘트가 복수로 마련되는 것을 특징으로 한다.The method of claim 1, further comprising storing data for generating the output image, wherein the data includes a plurality of images or a plurality of image clips related to a facial expression, an operation, a form, and a status of the character, And a plurality of items that can be matched to the clip are provided.

상기 출력영상 선택단계 또는 상기 출력단계는 상기 캐릭터 제어부가 상기 감지대상의 상기 현재상태에 따라 상기 캐릭터의 상기 이미지 또는 영상클립 및 상기 멘트를 조합하여 상기 출력영상을 생성하는 것을 특징으로 한다.Wherein the output image selection step or the output step generates the output image by combining the image, the image clip, and the ment of the character according to the current state of the sensing object.

상기 데이터는 상기 캐릭터가 식사하는 모습, 음식을 씹는 모습, 음식을 삼키는 모습, 식사 도구를 사용하는 모습 중 어느 하나 이상의 모습 또는 이에 대응되는 멘트를 포함하는 것을 특징으로 한다.The data may include at least one of a state of eating the character, a state of chewing the food, a state of swallowing the food, and a state of using the eating tool, or a ment corresponding thereto.

본 발명에 따른 식습관 유도 서비스 시스템 및 이를 이용한 식습관 유도 서비스는 어린 아이들이 식사에 집중할 수 있도록 함과 아울러, 식습관의 정착 및 개선이 가능하도록 아이들이 좋아하는 캐릭터를 이용하여 식사를 유도함과 아울러 아이들의 식사상태를 감지하여 충분한 저작 및 식사 지도가 이루어지도록 하는 것이 가능하다.The eating habit induction service system and the food habit induction service using the same according to the present invention enable children to concentrate on eating, and in addition to inducing meals using their favorite characters so that eating habits can be fixed and improved, It is possible to detect the state of the meal so that sufficient mastication and meals are made.

도 1은 본 발명에 따른 식습관 유도 서비스 시스템의 구성을 간략히 도시한 구성 예시도.
도 2는 식습관 유도 서비스 시스템의 감지부가 구성되는 착용구의 예를 도시한 예시도.
도 3 내지 도 6은 캐릭터 영상에 의해 아이의 식사를 유도하는 과정을 설명하기 위한 예시도들.
도 7은 본 발명에 따른 식습관 유도 서비스 방법을 설명하기 위한 순서도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram briefly showing a configuration of a food service delivery service system according to the present invention; FIG.
Fig. 2 is an exemplary view showing an example of a wearer in which the sensing part of the eating habit guiding service system is constituted. Fig.
FIGS. 3 to 6 are illustrations for explaining a process of inducing a meal of a child by a character image. FIG.
FIG. 7 is a flowchart illustrating a method of inducing a food service according to the present invention; FIG.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 당해 분야의 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명하기로 한다. 첨부된 도면들에서 구성에 표기된 도면번호는 다른 도면에서도 동일한 구성을 표기할 때에 가능한 한 동일한 도면번호를 사용하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고 도면에 제시된 어떤 특징들은 설명의 용이함을 위해 확대 또는 축소 또는 단순화된 것이고, 도면 및 그 구성요소들이 반드시 적절한 비율로 도시되어 있지는 않다. 그러나 당업자라면 이러한 상세 사항들을 쉽게 이해할 것이다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be noted that the drawings denoted by the same reference numerals in the drawings denote the same reference numerals whenever possible, in other drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. And certain features shown in the drawings are to be enlarged or reduced or simplified for ease of explanation, and the drawings and their components are not necessarily drawn to scale. However, those skilled in the art will readily understand these details.

도 1은 본 발명에 따른 식습관 유도 서비스 시스템의 구성을 간략히 도시한 구성 예시도이고, 도 2는 식습관 유도 서비스 시스템의 감지부가 구성되는 착용구의 예를 도시한 예시도이다.FIG. 1 is a schematic view showing a configuration of a food service induction service system according to the present invention, and FIG. 2 is an exemplary view showing an example of a wearer having a sensing part of a food service induction service system.

도 1 및 도 2를 참조하면, 본 발명에 따른 식습관 유도 서비스 시스템은 감지부(10), 처리부(20), 저장부(30), 캐릭터 제어부(40), 출력부(50) 및 통신부(60)을 포함하여 구성된다.1 and 2, a food and drink inductive service system according to the present invention includes a sensing unit 10, a processing unit 20, a storage unit 30, a character control unit 40, an output unit 50, and a communication unit 60 ).

감지부(10)는 어린아이의 위치와 저작활동을 감지하여 저작감지정보와 위치감지정보를 포함하는 감지정보를 작성하여 처리부(20)에 전달한다. 이 감지부(10)는 어린아이가 식사를 위해 테이블과 같이 지정된 자리에 위치 중인지의 여부를 처리부(20)가 확인할 수 있도록 위치를 감지하여 위치감지정보를 작성한다. 또한, 식사 위치에 자리한 어린아이의 저작활동을 감지하여 저작감지정보를 작성한다.The sensing unit 10 senses the position and the chewing activity of the child and generates sensing information including the sensing information and the sensing information and transmits the sensed information to the processing unit 20. The sensing unit 10 senses the position of the child so that the processing unit 20 can check whether or not the child is positioned at a designated position such as a table for a meal, and generates position sensing information. In addition, the authoring activity of the child located at the eating position is detected and the authoring information is created.

이를 위해 감지부(10)는 센서를 이용하여 저작활동 또는 위치를 감지하거나, 영상촬영 및 처리에 의해 저작활동 또는 위치를 감지할 수 있다. For this, the sensing unit 10 may sense a chewing activity or position using a sensor, or may sense a chewing activity or a position by photographing and processing the image.

좀 더 구체적으로 감지부(10)는 센서 또는 센서와 마커의 쌍으로 통해 구성될 수 있다. 센서 또는 마커는 도 2에 도시된 것과 같은 착용구(11)에 설치될 수 있다. 착용구(11)에 설치된 센서 또는 마커는 아이의 위치를 확인하기 위한 수단과, 아이의 저작활동 및 음식물 섭취를 확인하기 위한 용도로 이용될 수 있다.More specifically, the sensing unit 10 may be constituted by a sensor or a pair of a sensor and a marker. The sensor or marker may be installed in the wearer 11 as shown in Fig. The sensors or markers provided on the wearer 11 can be used for checking the position of the child and for checking chewing activity and food intake of the child.

우선 센서는 저작활동의 감지를 위한 진동 감지, 근육의 움직임 감지, 근육에 전달되는 신경전기 감지를 위한 장치로 구성될 수 있다. 이러한 센서는 진동, 근육의 움직임, 신경전기의 변화를 감지하고 이를 감지부(10)에 전달할 수 있다.First, the sensor can be composed of a device for vibration detection for detection of chewing activity, motion detection of muscles, and neuron detection for delivery to muscles. Such a sensor may detect vibrations, muscle movements, and changes in neurons, and may transmit the sensed results to the sensing unit 10.

마커와 센서 쌍은 아이의 위치를 감지하기 위한 수단으로 이용될 수 있다. 즉, 마커는 센서가 착용구의 위치를 확인할 수 있는 표식으로 이용되며, 이 마커는 착용구(11)에 부착되어 구성된다. 마커는 감지부(10)에 구성되는 센서가 형태를 명확히 인지할 수 있도록 하는 형태적인 요소를 가지는 표식일 수도 있고, 비콘 신화와 같이 센서와 거리 및 위치를 확인하는 신호를 송출하는 장치일 수 있으나, 이로써 본 발명을 한정하는 것은 아니다.The marker and sensor pair can be used as a means to detect the position of the eye. That is, the marker is used as a marker for confirming the position of the wearer's mouth. The marker is attached to the wearer's mouth 11. The marker may be a marker having a morphological element for allowing the sensor formed in the sensing unit 10 to clearly recognize the shape or may be a device for transmitting a signal for confirming the distance and position with the sensor such as beacon , And thus the present invention is not limited thereto.

이와는 별도로, 감지부(10)는 영상촬영 장치를 포함하여 구성될 수 있다. 즉, 영상촬영장치에 의해 감지부(10)가 특정 방향을 촬영하여 아이의 얼굴을 인식 및 추적하도록 함으로써 아이의 저작활동 및 식사위치에 자리하고 있는지의 여부를 감지하게 되며, 이를 감지정보로 작성하여 처리부(20)에 전달할 수 있다. 여기서, 영상촬영시 아이 얼굴의 추적, 인식 및 저작활동의 인식은 감지부(10)에서 영상분석을 통해 수행될 수도 있고, 처리부(20)의 연산에 의해 수행될 수 있으나, 하기의 설명에서는 이를 구분하지 않고, 감지부(10)에서 감지정보를 작성하고, 이를 처리부(20)에 처리하여 저작활동을 파악하는 것으로 가정하여 설명을 진행하기로 한다.Apart from this, the sensing unit 10 may be configured to include a photographing device. That is, the sensing unit 10 captures a specific direction and recognizes and tracks the face of the child by the image sensing device, thereby detecting whether the sensing unit 10 is positioned at the author's activity and the meal position. And transmit it to the processing unit 20. Here, the recognition of the tracking, recognition, and authoring activities of the eye face at the time of image capturing may be performed through the image analysis in the sensing unit 10 or by the calculation of the processing unit 20, It is assumed that the sensing unit 10 generates sensing information and processes the sensing information to the processing unit 20 to grasp the authoring activity.

착용구(11)는 식사 중에 아이들이 착용함으로써 처리부(20) 및 감지부(10)가 아이의 상태를 확인할 수 있도록 하는 역할을 한다. 전술한 바와 같이 감지부(10)에 센서 또는 마커가 구성되는 경우 센서 또는 마커는 착용구(11)에 내장되어 감지부(10)와 연동하여 동작한다. 이러한 착용구(11)는 하기에서 설명되는 캐릭터가 착용하는 장신구 또는 캐릭터가 등장하는 영상에 포함되는 장신구 형태를 모방하여 생성된다. 이를 통해 착용구(11)의 형태와 처리부(20)에 의해 제공되는 영상에 의해 아이들의 식사 욕구를 고취함으로써 식사에 적극적이게 하는 역할을 하게 된다. 이러한 착용구는 헤어밴드, 넥밴드, 목걸이, 귀걸이, 안경, 모자, 패치와 같이 아이가 거부감 없이 착용하고, 착용상태로 식사를 할 수 있는 제품이면 어떤 것을 사용해도 무방하며 제시된 바에 의해서 본 발명을 한정하는 것은 아니다.The wearer (11) plays a role of allowing the processing unit (20) and the sensing unit (10) to check the state of the child by wearing the child during the meal. When a sensor or a marker is configured in the sensing unit 10 as described above, the sensor or the marker is incorporated in the wearer 11 and operates in conjunction with the sensing unit 10. [ The wearer 11 is created by mimicking the shape of the ornaments to be included in the image in which the jewelry or the character to be worn by the character described below is to be worn. The shape of the wearer 11 and the image provided by the processing unit 20 play a role of stimulating the eating needs of the children and thereby making them active in the meal. Such a wearer may use any of the products which the child can wear without any sense of discomfort, such as a hair band, a neck band, a necklace, an earring, a glasses, a hat and a patch, and which can be eaten in a wearable state. It does not.

처리부(20)는 감지부(10)의 감지정보를 이용하여 식사위치에 아이가 위치하는지 여부를 판단하고, 저작활동을 감지하여 충분한 저작활동에 의해 식사가 이루어지도록 아이의 식사를 유도하는 과정을 진행한다. 이를 위해 처리부(20)는 감지부(10)의 감지정보에 의해 아이의 위치 확인, 저작활동 분석을 수행하며, 아이의 식사 유도를 위해 캐릭터 제어부(40)를 통한 식사유도 진행을 제어하는 역할을 한다.The processing unit 20 determines whether or not a child is located at a meal position using the sensing information of the sensing unit 10 and detects a chewing activity and induces a meal of the child so that the chewing activity can be performed Go ahead. To this end, the processing unit 20 performs positional verification and authoring activity analysis of the child according to the sensing information of the sensing unit 10, and controls the progress of the meal induction through the character control unit 40 to induce a meal of the child do.

좀 더 구체적으로 처리부(20)는 저장부(30)에 아이가 좋아하는 동영상, 캐릭터및 상황에 따른 대화가 가능할 수 있도록 캐릭터제어부(40)의 데이터를 저장한다. 그리고, 처리부(20)는 식사가 진행되는 중에 캐릭터를 추출하여 아이의 행동을 유도하고, 이 과정에서 발생되는 저작활동을 분석하여, 저작활동에 대응되는 카운트와 이를 독려하는 캐릭터 행동을 제어하게 된다. 그리고, 처리부(20)는 정상적인 식사가 이루어지는 경우 이를 보상하는 형태로 아이가 선호하는 동영상을 제공하도록 캐릭터 제어부(40) 및 출력부(50)를 제어하게 된다.More specifically, the processing unit 20 stores the data of the character control unit 40 in the storage unit 30 so that the child can enjoy conversation according to a favorite movie, character, and situation. Then, the processing unit 20 extracts a character during the course of the meal to induce the child's behavior, analyzes the authoring activity generated in the process, and controls the counting corresponding to the authoring activity and the character behavior encouraging it . Then, the processing unit 20 controls the character control unit 40 and the output unit 50 to provide the child's favorite moving picture in a form that compensates for normal eating.

이러한 과정에서 처리부(20)는 감지부(10)의 감지정보를 이용하여 아이의 자리 이탈, 자리 위치 여부를 확인하고, 일정한 위치에서 식사를 계속할 수 있도록 유도하며, 아이가 식사하는 동안은 저작활동의 규칙적인 지속여부, 횟수, 강도, 음식 투입 간격과 같은 사항을 판단한다. 그리고, 처리부(20)는 판단사항에 따라 아이의 행동을 유도할 수 있는 캐릭터 동작, 멘트를 캐릭터 제어부(40)를 통해 구현하고 이를 출력부(50)를 통해 출력함으로써 아이가 좋아하는 캐릭터, 영상을 통해 식사에 집중할 수 있게 한다. In this process, the processing unit 20 uses the sensing information of the sensing unit 10 to check whether the child is seated or seated, The number of times, the strength, and the interval of food input. Then, the processing unit 20 implements a character operation and a command that can induce the child's behavior according to the determination, through the character control unit 40, and outputs the character operation and the command through the output unit 50, To focus on the meal.

저장부(30)는 캐릭터, 동영상 및 캐릭터제어부(40)에 의해 생성되거나 출력될 멘트(또는 대사)와 같은 정보가 저장되며, 처리부(20)가 식사 및 저작활동을 판단하기 위한 기준값과 조건들이 저장된다.The storage unit 30 stores information such as the moment (or metabolism) to be generated or output by the character, moving picture and character control unit 40 and the reference value and conditions for the processing unit 20 to determine the meal and the authoring activity .

캐릭터 제어부(40)는 처리부(20)의 판단결과에 따라 아이의 식사과정에서 필요한 캐릭터의 행동, 표정, 멘트를 결정하고, 이를 저장부에 저장된 데이터를 이용하여 조합한 뒤 출력부(50)를 통해 출력하여 제공한다. 또한, 캐릭터 제어부(40)는 출력된 영상에 대해 아이의 대응을 판단하거나, 이를 처리부가(20) 판단할 수 있게 보조하는 역할을 한다. 여기서, 캐릭터 제어부(40)가 미리 저장된 캐릭터의 표정, 행동, 멘트를 조합하는 방법 외에 짧은 동영상 클립을 연결하거나, 해당상황에 적합한 동영상 클립을 제공함으로써 캐릭터를 대체하여 식사 유도를 위한 영상을 제공할 수 있으며, 제시된 바에 의해서만 본 발명을 한정하는 것은 아니다.The character control unit 40 determines the behavior, expression, and moment of the character required in the child's meal process according to the determination result of the processing unit 20, combines the behavior, expression, and ment using the data stored in the storage unit, And outputs it. In addition, the character control unit 40 serves to judge the correspondence of the child to the output image and assist the processing unit 20 to determine the correspondence. Here, in addition to the method of combining the expressions, behaviors, and expressions of the character stored in advance by the character control unit 40, a short movie clip may be connected or a movie clip suitable for the situation may be provided, And is not intended to limit the invention to the precise form disclosed.

출력부(50)는 캐릭터 제어부(40)에 의해 제공되는 캐릭터 영상(여기서 캐릭터 영상은 전술한 식사 상황에 대응되어 생성된 캐릭터의 표정, 행동, 멘트를 조합하여 작성된 영상 또는 상황에 대응되는 클립 영상을 의미한다) 또는 보상으로 제공되는 동영상과, 처리부(20)에 의해 작성되는 저작상태를 출력하여 제공한다. 이를 위해 출력부(50)는 영상을 출력하는 표시부와 음성을 출력하는 스피커를 포함하여 구성된다.The output unit 50 outputs the character image provided by the character control unit 40 (here, the character image is a clip image corresponding to the image or the situation created by combining the facial expression, behavior, Quot;) or a compensation state created by the processing unit 20 and provides the moving picture. To this end, the output unit 50 includes a display unit for outputting an image and a speaker for outputting a sound.

통신부(60)는 캐릭터 데이터, 동영상 데이터를 수신하기 위해 네트워크 또는 다른 장치와 통신채널을 형성한다.The communication unit 60 establishes a communication channel with a network or other device to receive character data and moving picture data.

도 3 내지 도 6은 캐릭터 영상에 의해 아이의 식사를 유도하는 과정을 설명하기 위한 예시도들이다.FIGS. 3 to 6 are illustrations for explaining a process of inducing a meal of a child by a character image.

도 3 내지 도 6을 참조하면, 본 발명에 따른 식습관 유도 시스템 및 이를 이용한 서비스 방법은 영유아 또는 저학년의 아이들이 좋아할 수 있는 캐릭터를 이용함으로써 식사를 거부하는 아이들의 식사를 유도함과 아울러 식사를 진행하는 중에 올바른 식습관이 몸에 익혀지도록 하기 위한 서비스를 제공한다.Referring to FIGS. 3 to 6, the eating and drinking habit induction system and the service method using the same according to the present invention include a method of inducing a meal of children refusing a meal by using characters that infants or young children can enjoy, It provides a service to make sure that the right eating habits are worn.

이를 위해, 본 발명은 아이의 식사 위치를 확인 및 정위치에 자리하도록 유도하고, 식사 중이 아이들이 충분한 저작활동과 충분한 식사시간을 확보하는 습관을 가지도록 아이의 행동을 유도하게 된다.To this end, the present invention induces the child's position to be identified and positioned at the correct position, and induces the child's behavior so that the child has a habit of ensuring sufficient chewing activity and sufficient mealtime during the meal.

이를 위해 본 발명의 감지부(10)는 식사가 시작된 것으로 확인되면, 아이의 위치를 감지하고, 식사중인 상태의 음식 섭취 및 저작활동을 감지한다. 이를 위해 감지부(10)는 착용구(11)에 구비된 센서와 감지부(10)가 연동되어 아이의 얼굴 근육 움직임, 진동, 근육에 발생되는 자극을 감지하거나, 아이의 얼굴을 촬영하여 아이의 위치와 저작활동을 감지하고 이를 처리부(20)에 전달하게 된다.To this end, the sensing unit 10 of the present invention senses the position of a child and senses food intake and chewing activity during a meal when it is confirmed that the meal is started. To this end, the sensing unit 10 senses the motion of the face muscles of the child, the vibration of the child, the stimulus generated in the muscles, or the face of the child, And then transmits the detection result to the processing unit 20.

처리부(20)는 감지부(10)로부터 감지결과를 전달받아, 정위치 여부를 분석하고 저작활동을 분석함과 아울러 아이의 식사 집중 및 충분한 저작이 이루어지도록 하기 위해 캐릭터 영상이 생성되도록 캐릭터 제어부(40)를 제어함과 아울러 캐릭터 제어부(40)에 의해 생성된 캐릭터 영상을 출력부(50)를 통해 출력하게 된다The processing unit 20 receives the detection result from the sensing unit 10, analyzes the correct position, analyzes the authoring activity, and controls the character control unit (not shown) to generate a character image 40 and outputs the character image generated by the character control unit 40 through the output unit 50

구체적으로 아이가 식사를 시작하게 되면 아이의 부모인 사용자는 아이에게 착용구(11)를 착용시키며 식사를 독려하거나, 좋아하는 캐릭터를 보자고 하는 방식 등을 이용해서 감지부(10)가 아이를 감지할 수 있는 자리에 위치시키게 된다.Specifically, when the child starts to eat, the user who is the parent of the child wears the wearer's mouth 11 to encourage the child to eat or to watch the favorite character, so that the sensing unit 10 senses the child And place it in a place where you can do it.

이와 같이 아이가 식사 위치에 자리하게 되면, 출력부(50)의 표시화면(51)을 통해 아이가 선호하는 캐릭터(53a)가 나타나게 된다. 이때 캐릭터 제어부(40)는 아이가 선호하는 캐릭터(53a)를 등장시킴과 아울러 해당 상황을 판별하여 유효한 표정의 캐릭터와 함께 멘트(53a)를 노출시키게 된다. 이때 멘트(52a)는 도 3에 도시된 바와 같이 화면상에 글씨로 나타낼 수도 있고 스피커(미도시)를 통해 음성으로 출력되도록 할 수 있다. 일례로 캐릭터 제어부(40)는 아이에게 가볍게 인사하거나, 이름을 물어보는 것과 같은 친화적인 액션이 이루어지게 제어된다.When the child is positioned at the meal position, the child's favorite character 53a appears on the display screen 51 of the output unit 50. [ At this time, the character control unit 40 displays the character 53a preferred by the child, identifies the corresponding situation, and exposes the ment 53a together with the character of the effective expression. In this case, as shown in FIG. 3, the message 52a may be displayed on the screen in the form of a letter or may be outputted as a voice through a speaker (not shown). For example, the character control unit 40 is controlled to perform a friendly action such as greeting the child lightly or asking for a name.

그리고, 아이와의 초기 행동이 종료되면, 도 4의 (a), (b)와 같이 캐릭터 제어부는 새로운 표정의 캐릭터(53ㅊ)와 아이가 식사를 하게 끔 유도하는 멘트(52b)를 제공하며, 이때 아이에게 식사를 잘 마쳐야만 영상을 볼 수 있음을 납득시키게 된다.4 (a) and 4 (b), when the initial action with the child is terminated, the character control unit provides a character 53 with a new expression and a command 52b for inducing the child to eat, At this time, the child will be convinced that he can see the video only after he has finished his meal.

이와 함께 감지부(10)는 아이에게 착용된 착용구(11) 또는 영상장치 또는 센서를 통해 아이의 위치를 감지하거나, 저작 감기 지능을 활성화시키게 된다.In addition, the sensing unit 10 senses the position of the child through the wearer's worn mouth 11 or the image device or the sensor, or activates the masticating intelligence.

이후 아이가 이에 수긍하는 경우 도 5와 같이 미리 설정된 식사 과정을 유도하도록 하는 캐릭터(53c)가 캐릭터 제어부(40)에 의해 준비된다. 여기서, 이하에서는 캐릭터(53)는 캐릭터 제어부(40)에 의해 준비되는 캐릭터와 이의 표정, 함께 출력되는 멘트 또는 이와 등가의 짧은 영상 클립, 이미지를 의미하는 것으로 가정하여 설명을 진행하기로 한다.When the child accepts it, the character control unit 40 prepares a character 53c for instructing the user to guide a predetermined meal process as shown in FIG. Hereinafter, it is assumed that the character 53 refers to a character prepared by the character control unit 40, a facial expression thereof, a mutual output, or a short image clip or an image equivalent thereto.

이때, 도 5의 (a)에서와 같이 아이가 식사 중에 해야할 일과 그로 인한 칭찬 또는 구체적인 보상 내용 또는 호기심을 자극할만한 내용을 멘트로 제공함으로써 식사 욕구를 높일 수 있다. 또한, (b)와 같이 실제 음식을 먹기위해 숟가락과 같은 식사도구를 이용하는 방법, 도 6의 (a)와 같이 씹는 방법을 제시하고 아이에게 따라하게 함으로써, 자동으로 식사 중에 식사 교육이 이루어지도록 하고 아이가 식사에 집중하도록 할 수 있다.At this time, as shown in FIG. 5 (a), the child can increase the desire for a meal by providing the contents to be done during the meal and the praise resulting therefrom, or the contents to give specific compensation or curiosity. In addition, as shown in FIG. 6 (b), a method of using a meal tool such as a spoon to eat actual food, a method of chewing as shown in FIG. 6 (a) Allow the child to focus on the meal.

그리고, 도 6의 (b)와 아이가 식사를 잘하고 있는 경우 캐릭터(533)가 칭찬을 하도록 함으로써 식사에 의한 즐거움을 느끼게 하는 것이 가능하다.6 (b), it is possible for the character 533 to give a compliment when the child is eating well, thereby making the user feel pleasure by the meal.

이러한 과정에서 캐릭터제어부(40), 처리부(20) 및 감지부(10)는 아이의 저작상태, 음식물 투입 상태, 아이의 위치, 표정과 같은 사항을 검출하고, 미리 정해진 조건을 부합하는지 판단하여 대응하게 된다.In this process, the character control unit 40, the processing unit 20, and the sensing unit 10 detect items such as the mastic state of the child, the state of putting food, the position of the child, and the facial expression, .

일례로 아이가 자리에서 이탈한 것으로 판단되면, 아이를 불러오도록 하는 캐릭터(53)를 캐릭터 제어부가 생성하고, 아이의 저작횟수가 모자르면 저작횟수를 카운트 하거나, 저작을 응원하는 형태의 캐릭터(53)를 대응시켜 출력하게 된다. 이를 우해 처리부(20) 및 감지부(10)는 아이의 상태를 지속적으로 감지하여 판단하게 되고, 캐릭터 제어부(40)는 아이의 상태에 정보에 대응되는 캐릭터(53)를 선택 및 조합하여 제공하게 된다.For example, if it is judged that the child has disappeared, the character control section generates the character 53 to call the child, and when the child's authoring number is less than the number of authoring, the character 53 ) Corresponding to each other. The false control unit 20 and the sensing unit 10 continuously detect and determine the state of the eye and the character control unit 40 selects and combines the character 53 corresponding to the information in the state of the eye do.

이러한 과정은 아이의 식사가 종료되는 시점까지 계속되며, 아이가 충분히 잘한 것으로 판단되면, 보상의 형태로 아이가 좋아하는 영상을 보여주거나 하는 과정을 진행하게 된다.This process continues until the child's meal ends, and if the child is judged to be good enough, he or she proceeds to show the child's favorite image in the form of compensation.

도 7은 본 발명에 따른 식습관 유도 서비스 방법을 설명하기 위한 순서도이다.FIG. 7 is a flowchart illustrating a method of inducing a food service according to the present invention.

도 7을 참조하면, 본 발명에 따른 식습관 유도 서비스 방법은 감지정보 작성단계(S10), 현재상태 판단단계(S20), 출력영상 선택단계(S30), 출력단계(S40) 및 식사종료 판단단계(S50)를 포함하여 구성된다.Referring to FIG. 7, the method for inducing a food service induction service according to the present invention includes the steps of generating sensed information (S10), determining a current state (S20), selecting an output image (S30), outputting S50).

감지정보 작성단계(S10)는 감지부(10)가 어린 아이가 식사 위치에 자리했는지의 여부, 식사 시작, 진행, 종료의 여부를 감지하게 된다. 이때 감지부(10)는 감지정보 작성단계(S10)에서 착용구(11)에 부착되는 센서 또는 영상촬영과 같은 방법을 이용하여 어린 아이의 영상을 촬영하거나, 근육의 움직임, 진동과 같은 사항을 감지함으로써 저작활동을 세밀하게 감지하고 이를 감지정보에 포함하여 처리부(20)에 전달하게 된다.The sensory information creation step S10 senses whether the sensing unit 10 has placed a child in a meal position, whether the meal starts, progresses, or ends. At this time, the sensing unit 10 photographs the image of a child by using a sensor attached to the wearer's mouth 11 or image capturing in the sensing information creating step S10, The control unit 20 delicately detects the authoring activity and transmits the detection information to the processing unit 20.

현재상태 판단단계(S20)는 처리부(20)가 감지정보를 전달받아 어린 아이의 현재 상태를 판단하는 단계이다. 이 현재상태 판단단계(S20)는 식사를 준비하는 단계에서 종료하는 단계까지 지속적으로 수행되며, 이때 어린 아이가 제대로 된 식사위치에 자리하고 있는지와 저작횟수와 같은 저작상황을 분석하여 현재상태를 판단하게 된다. 그리고 현재상태 판단단계(S20)에서의 판단결과를 캐릭터 제어부(40)에 전달하여 현재상태에 적합한 출력영상이 선택 및 출력되게 제어하게 된다. The current state determination step S20 is a step in which the processing unit 20 receives the detection information and determines the current state of the child. The current state determination step S20 is continuously performed from the preparation of the meal to the ending. At this time, it is determined whether or not the child is in a proper dining position and the current state is analyzed by analyzing the authoring situation such as the number of authoring . Then, the determination result in the current state determination step S20 is transmitted to the character control unit 40 to control the output image suitable for the current state to be selected and output.

출력영상 선택단계(S30)는 캐릭터 제어부(40)가 제어부(20)의 판단결과에 따라 저장부(30)에 저장된 캐릭터(53) 또는 영상클립 중 어느 하나를 선택하여 출력하는 단계이다. 이 출력영상 선택단계(S30)에서는 도 2 내지 6을 통해 설명한 바와 같은 상황에 따라 아이의 식사를 독려하고 충분한 저작이 이루어질 수 있도록 아이가 선호하는 캐릭터 또는 영상을 이용하여 식사를 진행시키게 된다.The output image selection step S30 is a step in which the character control unit 40 selects one of the character 53 or the image clip stored in the storage unit 30 according to the determination result of the control unit 20 and outputs the selected image. In the output image selection step S30, a meal is promoted using a child's favorite character or image so as to encourage a child's meal and make a sufficient work according to the situation described with reference to FIGS.

출력단계(S40)는 출력영상 선택단계(S30)에서 선택된 출력영상이 출력부(50)에 전달되어 출력되는 단계이다.The output step S40 is a step in which the output image selected in the output image selection step S30 is transmitted to the output unit 50 and output.

식사종료 판단단계(S50)는 처리부(20)가 저작활동, 위치정보, 식사상태를 분석하여 식사가 종료되었는지 판단하는 단계이며, 식사가 진행중인 경우 전술한 감지정보 작성단계(S10) 내지 현 단계(S50)을 반복하여 수행하게 된다.The meal end determination step S50 is a step of determining whether the meal is completed by analyzing the authoring activity, the position information, and the meal state by the processing unit 20. If the meal is in progress, S50) are repeatedly performed.

이상에서 본 발명의 기술적 사상을 예시하기 위해 구체적인 실시 예로 도시하고 설명하였으나, 본 발명은 상기와 같이 구체적인 실시 예와 동일한 구성 및 작용에만 국한되지 않고, 여러 가지 변형이 본 발명의 범위를 벗어나지 않는 한도 내에서 실시될 수 있다. 따라서 그와 같은 변형도 본 발명의 범위에 속하는 것으로 간주해야 하며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And the like. Accordingly, such modifications are deemed to be within the scope of the present invention, and the scope of the present invention should be determined by the following claims.

10 : 감지부 11 : 착용구
20 : 처리부 30 : 저장부
40 : 캐릭터 제어부 50 : 출력부
51 : 표시부 53 : 캐릭터
60 : 통신부
10: Detection part 11: Wear mouth
20: processing section 30: storage section
40: Character control unit 50: Output unit
51: Display section 53: Character
60:

Claims (17)

감지 대상의 위치 또는 저작활동을 포함하는 행동을 감지하여 감지정보를 작성하는 감지부;
상기 감지정보를 전달받아 상기 감지 대상의 위치 확인 및 상기 감지 대상의 행동을 분석하여 상기 감지대상의 현재 상태를 판단하는 처리부;
상기 감지대상의 상기 현재 상태에 대응하여 미리 지정된 영상을 출력하도록 출력영상을 선택하는 캐릭터 제어부;
상기 캐릭터 제어부에 의해 선택된 출력영상을 출력하여 제공하는 출력부; 및
상기 영상의 출력을 위한 데이터가 저장되는 저장부;를 포함하여 구성되는 것을 특징으로 하는 식습관 유도 서비스 시스템.
A sensing unit for sensing the position of the sensing target or the action including the sensing activity to generate sensing information;
A processor for receiving the sensing information and analyzing a position of the sensing object and a behavior of the sensing object to determine a current state of the sensing object;
A character controller for selecting an output image to output a predetermined image corresponding to the current state of the sensing object;
An output unit for outputting and providing an output image selected by the character control unit; And
And a storage unit for storing data for outputting the image.
제 1 항에 있어서,
상기 감지부는
상기 감지 대상의 신체에 착용되고, 상기 감지 대상의 감지를 위한 센서 또는 상기 감지부에서 인식 가능한 마커를 구비하는 착용구를 더 포함하여 구성되는 것을 특징으로 하는 식습관 유도 서비스 시스템.
The method according to claim 1,
The sensing unit
Further comprising a wearer wearing a body to be sensed and having a sensor for sensing the sensing object or a marker recognizable by the sensing unit.
제 2 항에 있어서,
상기 착용구는 상기 출력영상에 포함된 장신구 또는 상기 출력영상의 출처가 되는 미디어, 게임에서 사용된 장신구 또는 도구의 형태를 모방하여 형성되는 것을 특징으로 하는 식습관 유도 서비스 시스템.
3. The method of claim 2,
Wherein the wearer is formed by mimicking the shape of an ornament or tool used in a game, a medium serving as a source of the output image, or a jewelery included in the output image.
제 1 항에 있어서,
상기 감지부는
상기 감지 대상의 영상을 촬영하여 상기 감지정보를 작성하는 것을 특징으로 하는 식습관 유도 서비스 시스템.
The method according to claim 1,
The sensing unit
Capturing an image of the object to be sensed to generate the sensed information.
제 1 항에 있어서,
상기 출력영상은
미디어 또는 게임에 등장하는 캐릭터를 포함하는 것을 특징으로 하는 식습관 유도 서비스 시스템.
The method according to claim 1,
The output image
And a character appearing in a media or a game.
제 5 항에 있어서,
상기 저장부에 저장되는 상기 데이터는
상기 캐릭터의 표정, 동작, 형태, 상황에 대한 복수의 이미지 또는 복수의 영상 클립이 복수로 마련되고, 상기 이미지 또는 영상 클립에 매칭 가능한 멘트가 복수로 마련되는 것을 특징으로 하는 식습관 유도 서비스 시스템.
6. The method of claim 5,
The data stored in the storage unit
Wherein a plurality of images or a plurality of image clips related to a facial expression, an operation, a form, and a situation of the character are provided, and a plurality of items that can be matched to the image or the image clip are provided.
제 6 항에 있어서,
상기 캐릭터 제어부는
상기 감지대상의 상기 현재 상태에 따라 상기 캐릭터의 이미지, 영상 클립 및 상기 멘트를 조합하여 상기 출력영상을 생성하는 것을 특징으로 하는 식습관 유도 서비스 시스템.
The method according to claim 6,
The character control unit
Wherein the output image is generated by combining an image, an image clip, and a ment of the character according to the current state of the sensing object.
제 7 항에 있어서,
상기 데이터는
상기 캐릭터가 식사하는 모습, 음식을 씹는 모습, 음식을 삼키는 모습, 식사 도구를 사용하는 모습 중 어느 하나 이상의 모습 또는 이에 대응되는 멘트를 포함하는 것을 특징으로 하는 식습관 유도 서비스 시스템.
8. The method of claim 7,
The data
Wherein the character includes at least one of a shape of the character to eat, a shape to chew food, a shape to swallow food, and a shape to use a meal tool, or a corresponding item.
제 2 항에 있어서,
상기 착용구는
헤어밴드, 넥밴드, 목걸이, 귀걸이, 안경, 모자, 패치 중 어느 하나의 형태로 형성되는 것을 특징으로 하는 식습관 유도 서비스 시스템.
3. The method of claim 2,
The wearer
Hair band, neck band, necklace, earring, eyeglass, hat, patch.
감지부가 감지대상의 위치 또는 저작활동을 포함하는 행동을 감지하여 감지정보를 작성하는 감지정보 작성단계;
처리부가 상기 감지정보를 전달받아 상기 감지 대상의 위치 확인 및 상기 감지 대상의 행동을 분석하여 상기 감지대상의 현재 상태를 판단하는 현재 상태 판단단계;
캐릭터 제어부가 상기 제어부의 판단결과에 의해 확인되는 상기 현재 상태에 대응하여 미리 지정된 영상을 선택하는 출력영상 선택단계: 및
상기 선택된 출력영상을 출력부를 통해 출력하는단계;를 포함하여 구성되는 것을 특징으로 하는 식습관 유도 서비스 방법.
A sensed information creating step of creating sensed information by sensing a position of a sensing target or a behavior including a writing activity;
A current state determining step of determining a current state of the sensing target by receiving a sensing information and analyzing a position of the sensing target and a behavior of the sensing target;
Wherein the character control unit selects an image designated in advance corresponding to the current state which is confirmed by the determination result of the control unit; and
And outputting the selected output image through an output unit.
제 10 항에 있어서,
상기 감지정보 작성단계는
상기 감지대상의 신체에 착용되고, 상기 감지대상의 감지를 위한 센서 또는 상기 감지부에서 인식 가능한 마커를 구비하는 착용구를 상기 감지대상이 착용하는 단계를 더 포함하여 구성되는 것을 특징으로 하는 식습관 유도 서비스 방법.
11. The method of claim 10,
The sensing information generation step
The method according to claim 1, further comprising the step of wearing the wearable object, which is worn on the body of the object to be sensed and has a sensor for sensing the object or a marker recognizable by the sensing part, Service method.
제 11 항에 있어서,
상기 착용구는 상기 출력영상에 포함된 장신구 또는 상기 출력영상의 출처가 되는 미디어, 게임에서 사용된 장신구 또는 도구의 형태를 모방하여 형성된 것을 특징으로 하는 식습관 유도 서비스 방법.
12. The method of claim 11,
Wherein the wearer is formed by mimicking a shape of an ornament or a tool used in a game, a medium serving as a source of the output image, or an ornament included in the output image.
제 10 항에 있어서,
상기 감지정보 작성단계는
상기 감지부가 영상촬영을 통해 상기 감지대상 영상을 획득하여 감지정보를 생성하는 단계;를 포함하여 구성되는 것을 특징으로 하는 식습관 유도 서비스 방법.
11. The method of claim 10,
The sensing information generation step
And generating sensing information by acquiring the sensing target image through the image sensing of the sensing unit.
제 10 항에 있어서,
상기 출력영상은
미디어 또는 게임에 등장하는 캐릭터를 포함하는 것을 특징으로 하는 식습관 유도 서비스 방법.
11. The method of claim 10,
The output image
And a character appearing in the media or the game.
제 14 항에 있어서,
상기 출력영상의 생성을 위한 데이터가 저장되는 단계를 더 포함하여 구성되고,
상기 데이터는 상기 캐릭터의 표정, 동작, 형태, 상황에 대한 복수의 이미지 또는 복수의 영상 클립이 마련되고, 상기 이미지 또는 영상 클립에 매칭 가능한 멘트가 복수로 마련되는 것을 특징으로 하는 식습관 유도 서비스 방법.
15. The method of claim 14,
And storing data for generating the output image,
Wherein the data includes a plurality of images or a plurality of image clips related to a facial expression, an action, a form, and a situation of the character, and a plurality of items that can be matched to the image or the image clip are provided.
제 15 항에 있어서,
상기 출력영상 선택단계 또는 상기 출력단계는
상기 캐릭터 제어부가 상기 감지대상의 상기 현재상태에 따라 상기 캐릭터의 상기 이미지 또는 영상클립 및 상기 멘트를 조합하여 상기 출력영상을 생성하는 것을 특징으로 하는 식습관 유도 서비스 방법.
16. The method of claim 15,
The output image selecting step or the outputting step
Wherein the character control unit generates the output image by combining the image, the image clip, and the ment of the character according to the current state of the sensing object.
제 16 항에 있어서,
상기 데이터는
상기 캐릭터가 식사하는 모습, 음식을 씹는 모습, 음식을 삼키는 모습, 식사 도구를 사용하는 모습 중 어느 하나 이상의 모습 또는 이에 대응되는 멘트를 포함하는 것을 특징으로 하는 식습관 유도 서비스 방법.

17. The method of claim 16,
The data
Wherein the character includes at least one of a state of eating the food, a state of chewing the food, a state of swallowing the food, and a state of using the meal tool, or a corresponding item.

KR1020170055666A 2017-04-28 2017-04-28 Dietary guidance service system and service method using the same KR20180121225A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170055666A KR20180121225A (en) 2017-04-28 2017-04-28 Dietary guidance service system and service method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170055666A KR20180121225A (en) 2017-04-28 2017-04-28 Dietary guidance service system and service method using the same

Publications (1)

Publication Number Publication Date
KR20180121225A true KR20180121225A (en) 2018-11-07

Family

ID=64362801

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170055666A KR20180121225A (en) 2017-04-28 2017-04-28 Dietary guidance service system and service method using the same

Country Status (1)

Country Link
KR (1) KR20180121225A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210051391A (en) * 2019-10-30 2021-05-10 (주)인트인 Inducing method of mastication movement and a recording medium recording a program for executing thereof
WO2021230724A1 (en) * 2020-05-14 2021-11-18 주식회사 누비랩 System and method for providing meal assistance service

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210051391A (en) * 2019-10-30 2021-05-10 (주)인트인 Inducing method of mastication movement and a recording medium recording a program for executing thereof
WO2021230724A1 (en) * 2020-05-14 2021-11-18 주식회사 누비랩 System and method for providing meal assistance service

Similar Documents

Publication Publication Date Title
US11244485B2 (en) Augmented reality systems and methods utilizing reflections
US20200337631A1 (en) Systems, environment and methods for identification and analysis of recurring transitory physiological states and events using a portable data collection device
US10524715B2 (en) Systems, environment and methods for emotional recognition and social interaction coaching
TWI658377B (en) Robot assisted interaction system and method thereof
Navarro et al. What every body is saying
Kuhnke Body language for dummies
US20160112684A1 (en) Spectroscopic Finger Ring for Compositional Analysis of Food or Other Environmental Objects
US20160140870A1 (en) Hand-Held Spectroscopic Sensor with Light-Projected Fiducial Marker for Analyzing Food Composition and Quantity
CA2939922A1 (en) Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device
KR101587471B1 (en) System and method to enhance reading using wearable computer
KR20180121225A (en) Dietary guidance service system and service method using the same
Kuhnke Body Language: Learn how to read others and communicate with confidence
WO2022034771A1 (en) Program, method, and information processing device
Spencer et al. Nurturing language and learning: Development of deaf and hard-of-hearing infants and toddlers
Scheller et al. Perception and interactive technology
JP2022032362A (en) System, method, and information processing device
Pally The reflective parent: How to do less and relate more with your kids
Block HuggieBot: An interactive hugging robot with visual and haptic perception
Hargrave Do You Speak Body Language?
Prince Manual for Child and Vision Development Milestone
US20240071600A1 (en) Electrical condition data management apparatus, program, and method
JP7150387B1 (en) Programs, methods and electronics
Dedo Smiling during later infancy: Relationships among facial expressions, contexts, and other communicative behaviors
US20230335253A1 (en) Devices, Systems, and Methods, including Augmented Reality (AR) Eyewear, for Estimating Food Consumption and Providing Nutritional Coaching
KR102488271B1 (en) System for the operation of children health experience education

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application