KR20220049980A - Method for monitoring mealtime and apparatus therefor - Google Patents

Method for monitoring mealtime and apparatus therefor Download PDF

Info

Publication number
KR20220049980A
KR20220049980A KR1020200133746A KR20200133746A KR20220049980A KR 20220049980 A KR20220049980 A KR 20220049980A KR 1020200133746 A KR1020200133746 A KR 1020200133746A KR 20200133746 A KR20200133746 A KR 20200133746A KR 20220049980 A KR20220049980 A KR 20220049980A
Authority
KR
South Korea
Prior art keywords
meal
monitoring
bowl
monitoring device
meal time
Prior art date
Application number
KR1020200133746A
Other languages
Korean (ko)
Other versions
KR102413554B1 (en
Inventor
홍화정
최정원
김예니
김붕년
Original Assignee
서울대학교산학협력단
서울대학교병원
대한민국(보건복지부 국립정신건강센터장)
동국대학교 경주캠퍼스 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단, 서울대학교병원, 대한민국(보건복지부 국립정신건강센터장), 동국대학교 경주캠퍼스 산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020200133746A priority Critical patent/KR102413554B1/en
Publication of KR20220049980A publication Critical patent/KR20220049980A/en
Application granted granted Critical
Publication of KR102413554B1 publication Critical patent/KR102413554B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G2200/00Details not otherwise provided for in A47G
    • A47G2200/10Magnetism
    • A47G2200/106Permanent

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Tourism & Hospitality (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Development Economics (AREA)
  • Signal Processing (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

Disclosed are a method for monitoring mealtime and an apparatus therefor. A smartphone provided with an application for monitoring mealtime identifies the number of times that an eating tool accesses a pre-defined bowl while performing recording during a certain amount of time and transmits monitoring data to an analysis server to receive a meal report from the analysis server after receiving an answer of a survey after a certain amount of time passes.

Description

식사시간 모니터링 방법과 그 장치{Method for monitoring mealtime and apparatus therefor}Method for monitoring mealtime and apparatus therefor

본 발명의 실시 예는 식사시간 모니터링 방법과 그 장치에 관한 것으로, 보다 상세하게는 식사시간 중 부모와 자녀 사이의 관계 및 편식 음식에 대한 섭식 횟수 등을 모니터링하고 분석할 수 있는 방법 및 그 장치에 관한 것이다.An embodiment of the present invention relates to a meal time monitoring method and apparatus, and more particularly, to a method and apparatus capable of monitoring and analyzing a relationship between a parent and a child during meal time and the number of eating of unbalanced foods, etc. it's about

아동은 편식 등 잘못된 식습관을 가지고 있는 경우가 있으며, 잘못된 식습관은 아동의 육체적 및 정신적인 건강에 영향을 미친다. 이에 아동의 식사 문제를 중재하고자 하는 다양한 시도가 있었다. 그러나 아동의 바람직한 식사 습관에 영향을 미치는 요인 중 하나인 부모의 식사 지도 방식에 대한 연구는 거의 없다. Children often have wrong eating habits such as unbalanced meals, and the wrong eating habits affect the physical and mental health of children. There have been various attempts to mediate children's eating problems. However, there are few studies on parental dietary guidance, which is one of the factors that influence children's desirable eating habits.

기존 연구에서 식행동 관련 데이터를 수집하는 기술적 접근들이 사용자에게 불편감을 주며 식사를 방해한다는 점이 꾸준히 지적되어 왔다. 아동의 경우 게임적 요소를 도입하여 아동의 식행동을 증진하려는 접근이 널리 사용되어 왔지만, 이 또한 아동이 식사 시 집중도를 해친다는 결과가 제시되어 왔다. 또한 식사시간 맥락 밖에서도 부모-자녀 또는 집단 내 상호작용을 중재하는 시스템들이 오히려 상호작용을 방해하는 걸림돌이 될 수 있다는 부작용이 보고되어 왔다.In previous studies, it has been pointed out that technical approaches to collecting food behavior-related data cause discomfort to users and interfere with eating. In the case of children, an approach to promote children's eating behavior by introducing game elements has been widely used, but this has also been shown to impair children's concentration when eating. In addition, it has been reported that the systems mediating parent-child or intra-group interaction outside the context of mealtime may become a stumbling block to the interaction.

본 발명의 실시 예가 이루고자 하는 기술적 과제는, 비침습적인 방법으로 식사시간 동안 부모와 아동 사이의 상호관계와 아동의 섭식 습관을 모니터링하고 분석하는 방법 및 그 장치를 제공하는 데 있다.An object of the present invention is to provide a method and an apparatus for monitoring and analyzing the interaction between a parent and a child and a child's eating habits during mealtime in a non-invasive manner.

상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 식사시간 모니터링 시스템의 일 예는, 음식을 담는 그릇; 자석이 부착된 식사용구; 및 상기 그릇의 밑면 또는 주위에 위치하여 상기 자석에 의한 자기장의 변화를 기초로 상기 식사용구가 상기 그릇에 접근한 횟수를 파악하는 모니터링장치;를 포함한다.In order to achieve the above technical problem, an example of a meal time monitoring system according to an embodiment of the present invention, a bowl containing food; dining utensils with magnets; and a monitoring device located on or around the bottom of the bowl to determine the number of times the eating utensils approach the bowl based on a change in the magnetic field by the magnet.

상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 식시시간 모니터링 방법의 일 예는, 스마트폰에 구현된 애플리케이션을 이용하여 식사를 모니터링하는 방법에 있어서, 일정 시간 동안 녹음을 수행하면서 기 정의된 그릇에 식사용구가 접근한 횟수를 파악하는 단계; 상기 일정 시간 경과 후 설문에 대한 응답을 입력받는 단계; 및 상기 접근한 횟수, 상기 설문에 대한 응답, 상기 녹음을 포함하는 모니터링데이터를 분석서버로 전송하고, 식사 리포트를 제공받는 단계;를 포함한다.In order to achieve the above technical problem, an example of a meal time monitoring method according to an embodiment of the present invention is a method of monitoring a meal using an application implemented in a smartphone, while recording is performed for a predetermined time. Recognizing the number of times the dining utensils approach the defined bowl; receiving a response to the questionnaire after the lapse of the predetermined time; and transmitting monitoring data including the number of times of access, response to the questionnaire, and the recording to an analysis server, and receiving a meal report.

본 발명의 실시 예에 따르면, 비침습적 방법으로 아동의 집중도를 해치지 않으면서 식사시간의 데이터를 수집할 수 있다. 부모와 자녀가 함께하는 식사시간에 대한 데이터를 수집하여 이를 통해 아동의 식사 습관 및 부모의 식사 지도 방식을 개선하여 궁극적으로 가족의 식사 경험을 향상시킬 수 있다. 또한, 부모는 아동의 식습관 및 자신의 식사지도 방식에 대하여 보다 깊게 이해할 수 있을 뿐만 아니라 새로운 시각으로 바라볼 수 있도록 도와줄 수 있다. 또한 본 실시 예를 가정에서 부모-자녀 식사시간에 사용하였을 때 아동의 식습관, 부모의 인식, 부모-자녀 관계, 가족 전체의 식사 경험에 긍정적인 영향을 미칠 수 있다.According to an embodiment of the present invention, it is possible to collect mealtime data in a non-invasive manner without impairing the concentration of the child. By collecting data on mealtimes between parents and children, it is possible to improve children's eating habits and parents' dietary guidance, ultimately improving the family's dining experience. In addition, parents can help their children to understand their eating habits and their own dietary guidance, as well as to see them from a new perspective. In addition, when the present embodiment is used at a parent-child meal time at home, it can have a positive effect on children's eating habits, parental perception, parent-child relationship, and the entire family's dining experience.

도 1은 본 발명의 실시 예에 따른 식사시간 모니터링 및 분석을 위한 전반적인 시스템을 개략적으로 도시한 도면,
도 2는 본 발명의 실시 예에 따른 식시시간 모니터링 방법의 일 예를 도시한 흐름도,
도 3은 본 발명의 실시 예에 따른 감정분류모델의 일 예를 도시한 도면,
도 4는 본 발명의 실시 예에 따른 식사시간 분석 스코어를 산출하는 방법의 일 예를 도시한 도면,
도 5는 본 발명의 실시 예가 구현된 애플리케이션을 탑재한 스마트폰을 이용하여 식시시간을 모니터링하는 방법의 일 예를 도시한 도면, 그리고,
도 6 내지 도 17은 도 5의 방법에 따른 스마트폰의 화면의 일 예를 도시한 도면이다.
1 is a view schematically showing an overall system for monitoring and analyzing meal time according to an embodiment of the present invention;
2 is a flowchart illustrating an example of a meal time monitoring method according to an embodiment of the present invention;
3 is a view showing an example of an emotion classification model according to an embodiment of the present invention;
4 is a view showing an example of a method for calculating a mealtime analysis score according to an embodiment of the present invention;
5 is a diagram illustrating an example of a method for monitoring meal time using a smartphone equipped with an application in which an embodiment of the present invention is implemented, and
6 to 17 are diagrams illustrating an example of a screen of a smartphone according to the method of FIG. 5 .

이하에서, 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 식사시간 모니터링 방법 및 그 장치에 대해 상세히 설명한다.Hereinafter, a meal time monitoring method and apparatus according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 식사시간 모니터링 및 분석을 위한 전반적인 시스템을 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating an overall system for monitoring and analyzing a meal time according to an embodiment of the present invention.

도 1을 참조하면, 식시시간 모니터링을 위한 시스템은 자석(102)이 부착된 식사용구(100), 음식을 담는 그릇(110)과, 그릇(110)의 밑면 또는 주위에 위치하여 식사용구(100)에 위치한 자석(102)에 의한 자기장의 변화를 기초로 식사용구(100)가 그릇(110)에 접근한 횟수를 파악하는 모니터링장치(120), 그리고 분석서버(130)를 포함한다.Referring to FIG. 1 , the system for monitoring meal time is located on the underside of or around the eating utensils 100 to which a magnet 102 is attached, a bowl 110 for holding food, and the bowl 110 to provide a dining utensils 100 . ) on the basis of the change in the magnetic field by the magnet 102 located in the dining utensils 100 to determine the number of times approaching the bowl 110 includes a monitoring device 120, and the analysis server (130).

식사용구(100)는 음식을 집을 수 있는 다양한 도구를 의미한다. 예를 들어, 식사용구(100)는 젓가락, 숟가락, 포크 등 아동이 사용할 수 있는 다양한 형태의 식사 도구일 수 있다. 식사용구(100)의 일측에는 자석(102)이 부착된다. 자석(102)의 일 예로 네오디움 자석이 사용될 수 있다. The dining utensils 100 refer to various tools that can pick up food. For example, the eating utensils 100 may be various types of eating tools that children can use, such as chopsticks, spoons, and forks. A magnet 102 is attached to one side of the eating utensils 100 . As an example of the magnet 102 , a neodymium magnet may be used.

일 실시 예로, 자석(102)과 식사용구(100)는 일체형으로 구현되거나, 자석(102)이 식사용구(100)에 탈부착 가능하도록 구현될 수 있다. 예를 들어, 자석(102)이 젓가락에 삽입 될 수 있도록 둥근 형태로 구현되는 등 자석(102)과 식사용구(100)의 탈부착을 위하여 종래의 다양한 체결방법과 체결수단이 본 실시 예에 적용될 수 있다.In one embodiment, the magnet 102 and the eating utensils 100 may be implemented as an integral piece, or the magnet 102 may be implemented to be detachable from the dining utensils 100 . For example, various conventional fastening methods and fastening means can be applied to this embodiment for attaching and detaching the magnet 102 and the dining utensils 100, such as the magnet 102 being implemented in a round shape so that it can be inserted into chopsticks. there is.

그릇(110)은 음식을 담을 수 있는 다양한 형태일 수 있으며, 특정 소재나 특정 형태로 한정되는 것은 아니다. 일반적인 그릇이 본 실시 예에 사용될 수 있다. 다른 실시 예로, 그릇(110)은 모니터링장치(120)를 내장할 수 있는 공간(112)을 포함하도록 구현할 수 있다. 본 실시 예는 이해를 돕기 위하여 모니터링장치(120)의 일 예로 스마트폰을 도시하고 있으며, 이 경우 그릇의 아래쪽에 스마트폰 내장을 위한 공간(112)이 형성될 수 있다. The bowl 110 may have various shapes that can contain food, and is not limited to a specific material or a specific shape. A common bowl can be used in this embodiment. In another embodiment, the bowl 110 may be implemented to include a space 112 in which the monitoring device 120 can be embedded. This embodiment shows a smartphone as an example of the monitoring device 120 for better understanding. In this case, a space 112 for embedding the smartphone may be formed at the bottom of the bowl.

모니터링장치(120)는 지자기 센서, 통신수단, 메모리 및 제어부 등을 포함하는 장치이다. 본 실시 예를 위한 애플리케이션이 탑재된 스마트폰이 본 실시 예의 모니터링장치(120)로 사용될 수 있다. 이하에서는 설명의 편의를 위하여 스마트폰이 모니터링장치(120)로 사용되는 경우를 가정하여 설명한다. The monitoring device 120 is a device including a geomagnetic sensor, a communication means, a memory and a control unit. A smartphone equipped with an application for this embodiment may be used as the monitoring device 120 of the present embodiment. Hereinafter, for convenience of description, it is assumed that a smartphone is used as the monitoring device 120 .

모니터링장치(120)는 그릇(110)의 아래 또는 그릇의 주위에 위치하여 식사용구(100)에 부착된 자석(102)에 의한 자기장의 변화를 지자기센서를 통해 파악하여 식사용구(100)가 그릇(110)에 접근한 횟수를 산출한다. 아동의 식사시간을 모니터링하는데 본 실시 예가 사용되는 경우에 모니터링장치(120)가 아동의 식사 시 집중을 방해하지 않도록 모니터링장치(120)를 그릇(110)의 내부 공간(112)에 삽입하여 보이지 않도록 할 수 있다. 또한 모니터링장치(120)가 그릇(110)의 밑바닥에 위치하는 경우에 식사용구(100)가 그릇에 접근하였는지를 보다 정확하게 파악할 수 있다. 식사용구(100)가 그릇(110)에 접근한 횟수를 모니터링 대상자(예를 들어, 아동)가 그릇에 담긴 음식을 섭취한 횟수라고 추정할 수 있다. 예를 들어, 그릇(110)에 아동이 편식하는 음식을 담은 후 식시시간 동안 아동이 편식하는 음식을 몇 번 섭취하였는지 파악할 수 있다.The monitoring device 120 is located under the bowl 110 or around the bowl and detects the change in the magnetic field by the magnet 102 attached to the dining utensils 100 through the geomagnetic sensor, so that the dining utensils 100 are the bowls. Calculate the number of accesses to (110). When this embodiment is used to monitor a child's meal time, the monitoring device 120 is inserted into the inner space 112 of the bowl 110 so that the monitoring device 120 does not interfere with the child's concentration when eating so that it is not visible. can do. In addition, when the monitoring device 120 is located at the bottom of the bowl 110, it is possible to more accurately determine whether the eating utensils 100 approach the bowl. It can be estimated that the number of times the eating utensils 100 approached the bowl 110 is the number of times the monitoring target (eg, a child) ingested the food contained in the bowl. For example, after putting the child's picky food in the bowl 110 , it is possible to determine how many times the child eats the picky food during the meal time.

모니터링장치(120)는 녹음 기능을 포함한다. 예를 들어, 모니터링장치(120)는 아동이 식사하는 동안에 아동과 양육자(예를 들어, 부모)의 대화 내용을 녹음할 수 있다. The monitoring device 120 includes a recording function. For example, the monitoring device 120 may record a conversation between a child and a caregiver (eg, a parent) while the child eats.

모니터링장치(120)는 또한 기 정의된 설문 내용을 표시하고 설문에 대한 응답을 입력받는 기능을 포함한다. 모니터링장치(120)를 통해 식사시간을 모니터링하는 방법에 대해서는 도 2에서 보다 구체적으로 살펴본다.The monitoring device 120 also includes a function of displaying a predefined questionnaire and receiving a response to the questionnaire. A method of monitoring meal time through the monitoring device 120 will be described in more detail in FIG. 2 .

분석서버(130)는 모니터링장치(120)와 유선 또는 무선 통신으로 연결되며, 모니터링장치(120)로부터 모니터링 데이터를 수신하면 이를 분석하여 식사 리포트를 생성한다. 분석서버(130)는 매 식사에 대한 식사 리포트를 생성하여 모니터링장치로 제공할 수 있다. 식사 리포트에 포함되는 각종 정보를 생성하는 구체적인 방법에 대해서는 도 3 및 도 4에서 다시 설명한다.The analysis server 130 is connected to the monitoring device 120 through wired or wireless communication, and when receiving monitoring data from the monitoring device 120 , it analyzes it and generates a meal report. The analysis server 130 may generate a meal report for each meal and provide it to the monitoring device. A detailed method of generating various types of information included in the meal report will be described again with reference to FIGS. 3 and 4 .

본 실시 예는 다양한 식사시간 환경을 모니터링하는데 사용될 수 있다. 다만 이하에서는 설명의 편의를 위하여 주로 아동의 식습관을 모니터링하는 경우를 가정하여 설명한다. This embodiment can be used to monitor various mealtime environments. However, below, for convenience of explanation, it is assumed that the eating habits of children are mainly monitored.

도 2는 본 발명의 실시 예에 따른 식시시간 모니터링 방법의 일 예를 도시한 흐름도이다.2 is a flowchart illustrating an example of a meal time monitoring method according to an embodiment of the present invention.

도 2를 참조하면, 모니터링장치(120)는 식사시간 동안 녹음을 수행한다(S200). 예를 들어, 스마트폰으로 구현된 모니터링장치는 본 실시 예를 위한 애플리케이션을 구동한 후 도 7과 같이 녹음을 위한 버튼을 포함하는 화면 인터페이스를 사용자에게 제공할 수 있다. 사용자는 녹음 버튼을 눌러 녹음을 시작하고, 녹음 종료 버튼을 눌러 녹음을 종료할 수 있다. Referring to FIG. 2 , the monitoring device 120 records during meal time ( S200 ). For example, the monitoring device implemented as a smart phone may provide the user with a screen interface including a button for recording as shown in FIG. 7 after driving the application for the present embodiment. The user may press the record button to start recording, and press the record end button to end the recording.

모니터링장치(120)는 식사시간 동안 그릇의 밑변 또는 주위에 위치하여 식사용구가 그릇에 접근한 횟수(즉, 음식 섭취 횟수)를 파악한다(S210). 음식 섭취 횟수의 파악은 모니터링장치의 녹음 시작 시점부터 종료시점까지 수행될 수 있다.The monitoring device 120 is located at or around the bottom of the bowl during the meal time to determine the number of times the eating utensils approach the bowl (ie, the number of food intake) (S210). The identification of the number of food intake may be performed from the start time to the end time of the recording of the monitoring device.

모니터링장치(120)는 녹음이 종료되면, 설문 내용을 표시하고 사용자로부터 이에 대한 응답을 받을 수 있다. 사용자는 녹음 종료 후 바로 설문에 대한 응답을 하거나 이후 원하는 시간에 설문에 대한 응답을 할 수 있다. 설문 내용은 도 11 및 도 12와 같이 부모와 아동에 대한 식사시간 동안의 태도 등에 관한 것일 수 있다. 예를 들어, 설문 내용은 도전 메뉴의 종류(즉, 그릇에 담은 음식의 종류), 부모와 자녀의 식사 경험에 대한 주관적인 만족도, 부모의 식사 지도 방식, 자녀의 식사 시 태도 등을 포함할 수 있다. 이 외에도, 설문 내용 그 자체는 실시 예에 따라 다양하게 변형될 수 있다.When the recording is finished, the monitoring device 120 may display the questionnaire and receive a response from the user. The user may respond to the questionnaire immediately after the recording is finished or may respond to the questionnaire at a desired time thereafter. The questionnaire content may relate to attitudes during meal time toward parents and children as shown in FIGS. 11 and 12 . For example, the content of the questionnaire may include the type of challenge menu (ie, the type of food served in a bowl), the subjective satisfaction of parents and children with their dining experience, the parent's eating guidance method, and the child's eating attitude. . In addition to this, the questionnaire content itself may be variously modified according to embodiments.

모니터링장치(120)는 식사시간 동안의 녹음 데이터, 식사용구가 그릇에 접근한 횟수 및 설문 데이터 등을 포함하는 모니터링 데이터를 분석서버(130)에 전송하고, 분석서버(130)로부터 모니터링 데이터를 기초로 분석된 식사 리포트를 제공받을 수 있다(S230). 식사 리포트는 식사시간에 대한 종합점수(즉, 분석 스코어), 식사 시간, 섭취 횟수, 일정 개수의 긍정문장 등 다양한 정보를 포함할 수 있다. 또한 모니터링장치(120)는 일정기간(예를 들어, 주별, 월별 등)에 대한 통계적인 데이터를 그래프 등의 형태로 표시할 수 있다. 통계 자료는 식사시간에 대한 장기적인 패턴을 파악하는데 도움을 준다. 식사 리포트와 통계 자료의 예가 도 15 내지 도 17에 도시되어 있다.The monitoring device 120 transmits monitoring data including recording data during meal time, the number of times the dining utensils approached the bowl, questionnaire data, etc. to the analysis server 130, and based on the monitoring data from the analysis server 130 It is possible to receive a meal report analyzed as (S230). The meal report may include various information such as a total score for meal time (ie, analysis score), meal time, number of intakes, and a certain number of affirmative sentences. In addition, the monitoring device 120 may display statistical data for a certain period (eg, weekly, monthly, etc.) in the form of a graph or the like. Statistical data can help identify long-term patterns of mealtimes. Examples of meal reports and statistics are shown in FIGS. 15-17 .

도 3은 본 발명의 실시 예에 따른 감정분류모델의 일 예를 도시한 도면이다.3 is a diagram illustrating an example of an emotion classification model according to an embodiment of the present invention.

도 3을 참조하면, 분석서버(130)는 모니터링장치(120)로부터 수신한 모니터링 데이터를 기초로 식사시간을 분석한 식사 리포트를 생성한다. 이때 분석서버(130)는 모니터링 데이터에 포함된 녹음 데이터를 이용하여 식사시간 동안의 대화 중 긍정 문장 또는 부정 문장을 감정분류모델(300)을 이용하여 파악할 수 있다.Referring to FIG. 3 , the analysis server 130 generates a meal report analyzing meal time based on the monitoring data received from the monitoring device 120 . At this time, the analysis server 130 may use the recording data included in the monitoring data to identify positive or negative sentences during the conversation during the meal time using the emotion classification model 300 .

감정분류모델(300)은 인공지능모델로 구현될 수 있으며, 이 경우 감정분류모델(300)의 학습 과정이 필요하다. 예를 들어, 긍정과 부정으로 라벨링 된 복수의 문장을 포함하는 학습 데이터를 이용하여 감정분류모델(300)을 학습시킬 수 있다. 일 예로, 감정분류모델(300)은 CNN(convolutional neural network), LSTM(long short-term memory), RNN(recurrent neural network) 중 어느 하나 또는 이들의 조합을 통해 구현될 수 있다.The emotion classification model 300 may be implemented as an artificial intelligence model, and in this case, a learning process of the emotion classification model 300 is required. For example, the emotion classification model 300 may be trained using learning data including a plurality of sentences labeled positively and negatively. For example, the emotion classification model 300 may be implemented through any one of a convolutional neural network (CNN), a long short-term memory (LSTM), and a recurrent neural network (RNN), or a combination thereof.

분석서버(130)는 학습 완료된 감정분류모델(300)을 이용하여 모니터링 데이터에 포함된 녹음 데이터로부터 긍정 문장 또는 부정 문장을 선별할 수 있다. 보다 구체적으로, 분석서버(130)는 녹음 데이터를 우선 텍스트로 변환한다. 예를 들어, 분석서버(130)는 '구글'의 'Speech-To-Text' API를 이용하여 녹음 데이터를 텍스트로 변환할 수 있다. 이 외에도 음성을 텍스트로 변환하는 종래의 다양한 방법이 본 실시 예에 적용될 수 있다. 녹음 데이터의 음성이 텍스트로 변환되면, 분석서버(130)는 텍스트를 감정분류모델(300)에 입력하여 긍정문장 또는 부정문장을 파악할 수 있다.The analysis server 130 may select a positive sentence or a negative sentence from the recorded data included in the monitoring data by using the learned emotion classification model 300 . More specifically, the analysis server 130 first converts the recorded data into text. For example, the analysis server 130 may convert the recorded data into text using the 'Speech-To-Text' API of 'Google'. In addition, various conventional methods for converting voice into text may be applied to the present embodiment. When the voice of the recorded data is converted into text, the analysis server 130 may input the text into the emotion classification model 300 to identify positive or negative sentences.

긍정문장과 부정문장이 분류되면, 분석서버(130)는 긍정문장과 부정문장의 비율을 파악할 수 있다. 다른 실시 예로, 감정분류모델(300)은 입력받은 문장이 긍정문장 또는 부정문장에 해당하는 정도(즉, 확률)를 0~1 사이의 값으로 출력할 수 있다. 이 경우에, 분석서버(130)는 긍정의 순으로 긍정문장을 정렬하여 최상위부터 일정 개수의 긍정문장을 선별할 수 있다.When the positive sentence and the negative sentence are classified, the analysis server 130 may determine the ratio of the positive sentence and the negative sentence. In another embodiment, the emotion classification model 300 may output the degree (ie, probability) that the received sentence corresponds to an affirmative sentence or a negative sentence as a value between 0 and 1. In this case, the analysis server 130 may sort the affirmative sentences in the order of positivity and select a certain number of positive sentences from the highest.

도 4는 본 발명의 실시 예에 따른 식사시간 분석 스코어를 산출하는 방법의 일 예를 도시한 도면이다.4 is a diagram illustrating an example of a method for calculating a mealtime analysis score according to an embodiment of the present invention.

도 4를 참조하면, 분석서버(130)는 모니터링장치(120)로부터 수신한 모니터링 데이터를 기초로 해당 식사시간을 정량화 한 점수를 산출 할 수 있다. 예를 들어, 분석서버(130)는 식사용구가 그릇에 접근한 횟수(즉, 섭취 횟수)(400), 녹음 데이터로부터 파악된 긍정문장과 부정문장의 비율(410), 식사시간의 길이(420) 등을 기초로 분석스코어(430)를 산출할 수 있다. 예를 들어, 섭취횟수(400)에 따라 기 정의된 점수를 부여하거나, 긍정문장과 부정문장의 비율(410)에 따라 해당하는 점수를 부여하는 등 각 요소별 점수를 부여하는 다양한 방법이 본 실시 예에 적용될 수 있다. 또한 분석 스코어의 총점이 100이라고 할 때 각 요소별 반영비율을 실시 예에 따라 다양하게 변형할 수 있다. 예를 들어, 식시시간(420)을 20%, 섭취횟수(400)와 긍정문장과 부정문장의 비율(410)을 각각 40%로 반영하는 등 각 요소의 반영비율을 다양하게 선택할 수 있다. Referring to FIG. 4 , the analysis server 130 may calculate a score obtained by quantifying the corresponding meal time based on the monitoring data received from the monitoring device 120 . For example, the analysis server 130 is the number of times the food item approached the bowl (ie, the number of intakes) 400, the ratio of positive and negative sentences identified from the recorded data 410, the length of meal time 420 ) and the like, the analysis score 430 may be calculated. For example, in this implementation, various methods of giving a score for each element, such as giving a predefined score according to the number of intakes 400, or giving a corresponding score according to the ratio 410 of positive sentences and negative sentences can be applied to the example. In addition, when the total score of the analysis score is 100, the reflection ratio for each element may be variously modified according to the embodiment. For example, the reflection ratio of each element may be variously selected, such as reflecting the meal time 420 as 20%, the number of intakes 400 and the ratio of positive and negative sentences 410 as 40%, respectively.

도 5는 본 발명의 실시 예가 구현된 애플리케이션을 탑재한 스마트폰을 이용하여 식시시간을 모니터링하는 방법의 일 예를 도시한 도면이고, 도 6 내지 도 17은 도 5의 방법에 따른 스마트폰의 화면의 일 예를 도시한 도면이다.5 is a diagram illustrating an example of a method of monitoring a meal time using a smartphone equipped with an application in which an embodiment of the present invention is implemented, and FIGS. 6 to 17 are screens of a smartphone according to the method of FIG. 5 It is a diagram showing an example of.

도 5 내지 도 17을 함께 참조하면, 사용자가 스마트폰에서 본 실시 예를 애플리케이션을 시작하면, 스마트폰은 도 6과 같이 식사시간 모니터링을 위한 식사선택화면을 표시한다(S500). 스마트폰은 현 시점(날짜 및 시간 등)을 기준으로 아침식사/점심식사/저녁식사 등을 구분하여 바로 표시할 수 있다. Referring to FIGS. 5 to 17 together, when the user starts the application of this embodiment on the smartphone, the smartphone displays a meal selection screen for monitoring meal time as shown in FIG. 6 (S500). The smartphone can classify breakfast/lunch/dinner meals based on the current time point (date and time, etc.) and display them immediately.

사용자가 식사모니터링을 위하여 화면을 터치하면, 스마트폰은 녹음을 위한 화면을 표시한다(S510). 사용자가 스마트폰을 그릇의 밑변에 위치시키고 녹음 버튼을 누르면, 스마트폰은 녹음을 시작한다. 스마트폰은 또한 녹음되는 동안 식사용구가 그릇에 접근한 횟수(즉, 음식 섭취 횟수)를 파악한다. 아동의 식사가 종료되어 사용자가 녹음 종료 버튼을 누르면, 스마트폰은 추가정보 입력 여부를 묻는 화면을 도 8과 같이 표시한다. 사용자는 녹음 종료 후 설문 응답 등의 추가 정보를 바로 입력하거나 이를 나중에 입력할 수 있다. When the user touches the screen for meal monitoring, the smartphone displays a screen for recording (S510). When the user places the smartphone on the bottom of the bowl and presses the record button, the smartphone starts recording. The smartphone also keeps track of the number of times the utensils have approached the bowl (ie, the number of times food is consumed) during the recording. When the child's meal ends and the user presses the recording end button, the smartphone displays a screen asking whether to input additional information as shown in FIG. 8 . After the recording is finished, the user can directly input additional information, such as a survey response, or enter it later.

사용자가 바로 추가 정보를 입력하기를 선택한 경우에, 스마트폰은 도 9 내지 도 12와 같이 그릇에 담은 음식의 종류와 각종 설문 내용을 표시하고 그에 대한 응답을 받는다(S520). 추가 정보의 입력은 나중에 수행할 수도 있다. 예를 들어, 사용자가 도 6의 식사선택화면의 아래쪽에 위치한 달력 아이콘을 선택하면, 도 14와 같이 달력 화면이 표시되고, 사용자는 달력 화면에서 추가정보가 미 입력된 날짜를 선택하여 추가정보를 입력할 수 있다(S530). 또 다른 예로, 분석서버(130)는 추가정보가 미입력된 경우 이에 대한 정보를 포함하는 메시지를 스마트폰으로 전송할 수 있으며, 사용자는 메시지에 포함된 링크를 클릭하여 추가정보 화면으로 바로 이동할 수도 있다. 이 외에도 추가정보의 입력방법은 다양한 방법으로 구현될 수 있다.When the user selects to directly input additional information, the smartphone displays the type of food in the bowl and various questionnaires as shown in FIGS. 9 to 12 and receives a response thereto (S520). Additional information may be entered later. For example, when the user selects a calendar icon located at the bottom of the meal selection screen of FIG. 6, a calendar screen is displayed as shown in FIG. 14, and the user selects a date for which additional information is not entered on the calendar screen and provides additional information. can be input (S530). As another example, when additional information is not input, the analysis server 130 may transmit a message including the information to the smartphone, and the user may click a link included in the message to move directly to the additional information screen. In addition to this, a method of inputting additional information may be implemented in various ways.

사용자는 도 6의 식사선택화면의 아래쪽에 위치한 달력 아이콘 또는 통계 아이콘 등을 클릭하여 식사 보고서 또는 통계 등을 조회할 수 있다(S540). 예를 들어, 사용자는 도 14의 달력 화면에서 날짜를 선택하면, 해당 날짜의 각 식사시간에 대한 분석스코어가 화면 하단에 표시될 수 있다. 또한 도 14의 달력 화면의 아래쪽에 있는 아이콘을 클릭하여 도 15와 같이 해당 날짜의 식사 리포트를 조회할 수 있다. 식사 리포트는 분석스코어를 포함한 전체 분석 내용 요약, 녹음 데이터로부터 추출한 긍정 문장, 도전 음식이나 섭취 횟수 등의 상세 정보 등을 포함할 수 있다. 사용자가 도 6의 식사선택화면 또는 도 14의 달력화면의 아래쪽에 있는 통계 아이콘을 클릭하면, 스마트폰은 도 15 및 도 16과 같은 통계 자료를 표시한다. 사용자는 통계기간을 설정하여 해당 기간 동안의 식사시간에 대한 분석 내용을 조회할 수 있다. 사용자는 식사 보고서와 통계 자료를 조회하는 행위를 반복하면 아동의 식습관과 자신(즉, 양육자)의 식사지도 방식에 대해 보다 잘 이해할 수 있고, 이를 바탕으로 보다 효과적인 아동 식사지도 방식에 대해서 탐색할 수 있다.The user may inquire a meal report or statistics by clicking a calendar icon or a statistics icon located at the bottom of the meal selection screen of FIG. 6 ( S540 ). For example, when the user selects a date on the calendar screen of FIG. 14 , an analysis score for each meal time on that date may be displayed at the bottom of the screen. Also, by clicking the icon at the bottom of the calendar screen of FIG. 14 , the meal report for the corresponding date can be inquired as shown in FIG. 15 . The meal report may include a summary of the entire analysis including the analysis score, positive sentences extracted from the recorded data, and detailed information such as challenge food or the number of intakes. When the user clicks the statistics icon at the bottom of the meal selection screen of Figure 6 or the calendar screen of Figure 14, the smart phone displays statistical data as shown in Figures 15 and 16. The user can set a statistical period and inquire about the analysis of meal times during the period. If the user repeats the act of inquiring the meal report and statistical data, the user can better understand the child's eating habits and his (that is, the caregiver)'s meal guidance method, and based on this, he can explore a more effective children's meal guidance method. there is.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium is distributed in a network-connected computer system so that the computer-readable code can be stored and executed in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at with respect to preferred embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (9)

음식을 담는 그릇;
자석이 부착된 식사용구; 및
상기 그릇의 밑면 또는 주위에 위치하여 상기 자석에 의한 자기장의 변화를 기초로 상기 식사용구가 상기 그릇에 접근한 횟수를 파악하는 모니터링장치;를 포함하는 것을 특징으로 하는 식사시간 모니터링 시스템.
food container;
dining utensils with magnets; and
Meal time monitoring system comprising a; a monitoring device located on or around the bottom of the bowl to determine the number of times the eating utensils approach the bowl based on a change in the magnetic field by the magnet.
제 1항에 있어서,
상기 모니터링장치는 스마트폰으로 구현되고,
상기 그릇은 밑면에 상기 스마트폰을 내장하는 공간을 포함하는 것을 특징으로 하는 식사시간 모니터링 시스템.
The method of claim 1,
The monitoring device is implemented as a smartphone,
Meal time monitoring system, characterized in that the bowl includes a space for embedding the smart phone on the bottom.
제 1항에 있어서,
상기 모니터링장치는 식사 시간 동안 녹음을 수행하는 것을 특징으로 하는 식사시간 모니터링 시스템.
The method of claim 1,
Meal time monitoring system, characterized in that the monitoring device performs recording during meal time.
제 1항에 있어서,
상기 모니터링장치는 설문을 표시하고 설문에 대한 응답을 입력 받는 것을 특징으로 하는 식사시간 모니터링 시스템.
The method of claim 1,
Meal time monitoring system, characterized in that the monitoring device displays a questionnaire and receives a response to the questionnaire.
제 1항에 있어서,
상기 모니터링장치로부터 수신한 음성 데이터를 텍스트로 변환하고, 감정분류모델을 이용하여 상기 텍스트에서 긍정 문장 또는 부정 문장을 추출하는 분석서버;를 더 포함하는 것을 특징으로 하는 식사시간 모니터링 시스템.
The method of claim 1,
Mealtime monitoring system further comprising a; an analysis server that converts the voice data received from the monitoring device into text, and extracts positive or negative sentences from the text using an emotion classification model.
스마트폰에 구현된 애플리케이션을 이용하여 식사를 모니터링하는 방법에 있어서,
일정 시간 동안 녹음을 수행하면서 기 정의된 그릇에 식사용구가 접근한 횟수를 파악하는 단계;
상기 일정 시간 경과 후 설문에 대한 응답을 입력받는 단계; 및
상기 접근한 횟수, 상기 설문에 대한 응답, 상기 녹음을 포함하는 모니터링데이터를 분석서버로 전송하고, 식사 리포트를 제공받는 단계;를 포함하는 것을 특징으로 하는 식사시간 모니터링 방법.
In a method of monitoring a meal using an application implemented in a smartphone,
Recognizing the number of times the dining utensils have approached the predefined bowl while recording for a certain period of time;
receiving a response to the questionnaire after the lapse of the predetermined time; and
and transmitting monitoring data including the number of times of access, response to the questionnaire, and the recording to an analysis server, and receiving a meal report.
제 6항에 있어서, 상기 접근한 횟수를 파악하는 단계는,
스마트폰을 상기 그릇에 위치시키고 자석이 부착된 식사용구가 상기 그릇에 접근할 때 발생하는 자기장의 변화를 기초로 상기 횟수를 파악하는 단계를 포함하는 것을 특징으로 하는 식사시간 모니터링 방법.
The method of claim 6, wherein the step of determining the number of times of access,
Meal time monitoring method comprising the step of positioning a smart phone in the bowl and determining the number of times based on the change in the magnetic field that occurs when the eating utensils to which a magnet is attached approach the bowl.
제 6항에 있어서, 상기 식사 리포트는,
상기 모니터링 데이터에 대한 분석 스코어와 감정분류모델을 이용하여 상기 텍스트에서 추출한 긍정 문장 또는 부정 문장을 포함하는 것을 특징으로 하는 식사시간 모니터링 방법.
The method of claim 6, wherein the meal report,
Meal time monitoring method, characterized in that it includes positive sentences or negative sentences extracted from the text using the analysis score and emotion classification model for the monitoring data.
제 6항 내지 제 8항 중 어느 한 항에 기재된 방법을 수행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium recording a computer program for performing the method according to any one of claims 6 to 8.
KR1020200133746A 2020-10-15 2020-10-15 Method for monitoring mealtime and apparatus therefor KR102413554B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200133746A KR102413554B1 (en) 2020-10-15 2020-10-15 Method for monitoring mealtime and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200133746A KR102413554B1 (en) 2020-10-15 2020-10-15 Method for monitoring mealtime and apparatus therefor

Publications (2)

Publication Number Publication Date
KR20220049980A true KR20220049980A (en) 2022-04-22
KR102413554B1 KR102413554B1 (en) 2022-06-28

Family

ID=81452385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200133746A KR102413554B1 (en) 2020-10-15 2020-10-15 Method for monitoring mealtime and apparatus therefor

Country Status (1)

Country Link
KR (1) KR102413554B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006239272A (en) * 2005-03-07 2006-09-14 Matsushita Electric Ind Co Ltd Eating utensil
KR20180106100A (en) * 2017-03-17 2018-10-01 가천대학교 산학협력단 System and method for managementing obesity based on web
KR20190066689A (en) * 2017-12-06 2019-06-14 고려대학교 산학협력단 Medical service assisted system and method thereof
KR20200059626A (en) * 2018-11-21 2020-05-29 한국전자통신연구원 System, user device and method for automatically recognizing eating behavior

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006239272A (en) * 2005-03-07 2006-09-14 Matsushita Electric Ind Co Ltd Eating utensil
KR20180106100A (en) * 2017-03-17 2018-10-01 가천대학교 산학협력단 System and method for managementing obesity based on web
KR20190066689A (en) * 2017-12-06 2019-06-14 고려대학교 산학협력단 Medical service assisted system and method thereof
KR20200059626A (en) * 2018-11-21 2020-05-29 한국전자통신연구원 System, user device and method for automatically recognizing eating behavior

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:임성묵 외 3명* *

Also Published As

Publication number Publication date
KR102413554B1 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
US20200243202A1 (en) Real-time or just-in-time online assistance for individuals to help them in achieving personalized health goals
Makki et al. The social value of snapchat: An exploration of affiliation motivation, the technology acceptance model, and relational maintenance in Snapchat use
US11857507B2 (en) Infant feeding system
Longart et al. An investigation into restaurant attributes: A basis for a typology
Hepworth A framework for understanding user requirements for an information service: defining the needs of informal carers
KR101713258B1 (en) Apparatus and method for providing psychology status information from writing
Luyt Representation of masculinities and race in South African television advertising: A content analysis
Rajanna et al. Step up life: a context aware health assistant
KR20140053426A (en) The method and server for providing 3 dimensional psychological test service
KR101693429B1 (en) System for identifying human relationships around users and coaching based on identified human relationships
Lee et al. Single‐parent families: the role of parent’s and child’s gender on academic achievement
KR101816711B1 (en) Smart chair based on iot and method of analysis of seated posture, apparatus and method for managing smart chair
JPWO2019146200A1 (en) Information processing equipment, information processing methods, and recording media
KR102413554B1 (en) Method for monitoring mealtime and apparatus therefor
Woznowski et al. Talk, text or tag?
KR101950869B1 (en) System and method for false information filtering of restaurants using food evaluation records and restaurant matching information
Muskat et al. The interplay of sensory and non-sensory factors in food tourism experiences
Cesareo et al. The ubiquity of social reinforcement: A nudging exploratory study to reduce the overuse of smartphones in social contexts
WO2019082812A1 (en) Objectives management system, objectives management server, objectives management program, and objectives management terminal device
US20220188363A1 (en) Information processing apparatus, information processing method, and program
CN108351846B (en) Communication system and communication control method
López et al. Human–objects interaction: A framework for designing, developing and evaluating augmented objects
JP6075905B1 (en) Health management server, health management server control method, and health management program
Imai et al. Improving the usability and learnability of a home electric appliance with a long-term usability study
CN112424731A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant