KR102264334B1 - Inducing method of mastication movement and a recording medium recording a program for executing thereof - Google Patents
Inducing method of mastication movement and a recording medium recording a program for executing thereof Download PDFInfo
- Publication number
- KR102264334B1 KR102264334B1 KR1020190136599A KR20190136599A KR102264334B1 KR 102264334 B1 KR102264334 B1 KR 102264334B1 KR 1020190136599 A KR1020190136599 A KR 1020190136599A KR 20190136599 A KR20190136599 A KR 20190136599A KR 102264334 B1 KR102264334 B1 KR 102264334B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- movement
- content
- authoring
- period
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000018984 mastication Effects 0.000 title claims abstract description 46
- 238000010077 mastication Methods 0.000 title claims abstract description 46
- 230000001939 inductive effect Effects 0.000 title claims abstract description 32
- 230000006698 induction Effects 0.000 claims abstract description 25
- 238000001514 detection method Methods 0.000 claims description 14
- 230000001815 facial effect Effects 0.000 claims description 13
- 230000001055 chewing effect Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 14
- 235000013305 food Nutrition 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 230000001680 brushing effect Effects 0.000 description 4
- 235000006694 eating habits Nutrition 0.000 description 4
- 235000014490 good eating habits Nutrition 0.000 description 4
- 235000012054 meals Nutrition 0.000 description 4
- 238000005034 decoration Methods 0.000 description 3
- 235000005686 eating Nutrition 0.000 description 2
- 230000037406 food intake Effects 0.000 description 2
- 235000015097 nutrients Nutrition 0.000 description 2
- 206010020772 Hypertension Diseases 0.000 description 1
- 208000008589 Obesity Diseases 0.000 description 1
- 241000190070 Sarracenia purpurea Species 0.000 description 1
- 235000020980 bad eating habits Nutrition 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 210000002249 digestive system Anatomy 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 235000012631 food intake Nutrition 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000020824 obesity Nutrition 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G06K9/00268—
-
- G06K9/00315—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체에 관한 것이다.
본 발명의 일례에 따른 저작 운동 유도 방법은 컨텐츠(contents)의 구동를 위해 사용자의 안면을 인식하는 안면 인식 단계; 상기 안면 인식 단계 이후, 제1 기간 동안 상기 컨텐츠가 구동되는 컨텐츠 동작 단계; 상기 제1 기간 중 상기 컨텐츠를 사용하는 사용자가 저작 운동(咀嚼運動)을 수행하는지 여부를 감지하는 감지 단계; 및 상기 제1 기간 중 상기 사용자의 저작 운동이 감지되는 경우, 상기 컨텐츠의 구동 시간을 연장하는 시간 연장 단계;를 더 포함한다.
본 발명은 전술한 저작 운동 유도 방법을 실행하기 위한 프로그램이 기록된 기록 매체로 제공될 수 있다. The present invention relates to a method for inducing a mastication movement and a recording medium in which a program for executing the same is recorded.
Authoring motion induction method according to an example of the present invention is a face recognition step of recognizing the user's face for driving the content (contents); a content operation step in which the content is driven for a first period after the face recognition step; a sensing step of detecting whether a user who uses the content during the first period performs an authoring movement; and a time extension step of extending a driving time of the content when the authoring movement of the user is detected during the first period.
The present invention may be provided as a recording medium in which a program for executing the above-described masticatory movement induction method is recorded.
Description
본 발명은 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체에 관한 것으로, 보다 구체적으로 식습관이 형성되는 시기의 유아의 저작 운동을 유도할 수 있는 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체에 관한 것이다.The present invention relates to a method for inducing masticatory movement and a recording medium in which a program for executing the method is recorded, and more specifically, a method for inducing a masticatory movement of infants at a time when eating habits are formed, and a program for executing the same It relates to a recording medium.
저작(mastication)은 음식물은 씹어 먹는 행위를 의미한다. 이러한 저작은 단순하게는 음식물을 소화 가능하여 삼킬 수 있는 형태로 만드는 것을 의미한다. Mastication refers to the act of chewing food. This chewing simply means making food in a form that can be digested and swallowed.
이와 같은 저작 운동은 음식물을 섭취하여 몸에 필요한 영양소를 공급하는 아주 중요한 행위이며, 건강과 직결되는 행위라 할 수 있다. 특히, 식사 중에 주의력을 분산시키는 행동, 급하게 음식물을 섭취하는 것과 같은 바르지 못한 식습관은 건강을 저해하여 소화기관의 질병, 당뇨, 고혈압, 비만을 야기하는 주된 요인이 되고 있다.This masticatory movement is a very important act of supplying nutrients necessary for the body by ingesting food, and it can be said that it is an act directly related to health. In particular, the behavior of distracting attention during meals and improper eating habits, such as consuming food in a hurry, impair health and become a major cause of diseases of the digestive system, diabetes, high blood pressure, and obesity.
때문에 영유아와 같은 어린 아이들이 어린 시절부터 바른 식습관을 가지게 교육하는 것이 매우 중요하다 할 수 있다.Therefore, it is very important to educate young children, such as infants, to have good eating habits from an early age.
그러나, 이러한 식사와 식습관이 중요함을 모든 부모들이 인지하고는 있으나, 의도대로 아이들이 식사에 집중하고, 좋은 식습관을 가지도록 가르치는 것이 용이하지 않으며, 한끼 분의 음식을 먹이는 것만으로 곤욕을 치루어야 하는 것이 현실이다.However, although all parents are aware of the importance of these meals and eating habits, it is not easy to teach children to focus on meals and have good eating habits as intended. it is a reality to
더욱이, 부모 또는 선생님들과 같이 식사를 하는 경우 대부분의 아이들이 부모 또는 선생님들의 나쁜 식습관을 모방하는 경우가 많아 의지와 다르게 좋은 식습관을 가지도록 하는 것이 곤란하다.Moreover, when eating with parents or teachers, most children imitate the bad eating habits of their parents or teachers, so it is difficult to make them have good eating habits against their will.
최근에는 일부 부모들이 아이들이 좋아하는 영상이나, 캐릭터를 이용하여 식사를 유도하는 방법을 자주 사용하고 있으나, 이러한 경우 보상심리를 통해 식사를 하게 할 순 있어도, 충분한 저작이 이루어지지 않거나, 과하게 음식물을 섭취하여 2차적인 문제를 야기하는 원인이 되고 있다. Recently, some parents often use methods to induce meals using their children's favorite images or characters. Ingestion is causing secondary problems.
본 발명은 본 발명은 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체를 제공하는데, 그 목적이 있다. An object of the present invention is to provide a method for inducing a mastication movement and a recording medium on which a program for executing the same is recorded.
본 발명의 일례에 따른 저작 운동 유도 방법은 컨텐츠(contents)의 구동를 위해 사용자의 안면을 인식하는 안면 인식 단계; 상기 안면 인식 단계 이후, 제1 기간 동안 상기 컨텐츠가 구동되는 컨텐츠 동작 단계; 상기 제1 기간 중 상기 컨텐츠를 사용하는 사용자가 저작 운동(咀嚼運動)을 수행하는지 여부를 감지하는 감지 단계; 및 상기 제1 기간 중 상기 사용자의 저작 운동이 감지되는 경우, 상기 컨텐츠의 구동 시간을 연장하는 시간 연장 단계;를 더 포함한다.Authoring motion induction method according to an example of the present invention is a face recognition step of recognizing the user's face for driving the content (contents); a content operation step in which the content is driven for a first period after the face recognition step; a sensing step of detecting whether a user who uses the content during the first period performs an authoring movement; and a time extension step of extending a driving time of the content when the authoring movement of the user is detected during the first period.
상기 제1 기간 중 상기 사용자의 저작 운동이 감지되지 않은 경우, 상기 컨텐츠의 구동을 정지하는 정지 단계;를 포함할 수 있다.and a stopping step of stopping driving of the content when the user's authoring motion is not detected during the first period.
상기 컨텐츠의 구동 시간 연장에 따라, 상기 제1 기간 이후 연속적으로 상기 컨텐츠가 제2 기간 동안 구동될 수 있다.According to the extension of the driving time of the content, the content may be continuously driven for a second period after the first period.
상기 안면 인식 단계에서, 상기 사용자는 입을 벌려 저작 운동을 수행할 수 있다.In the face recognition step, the user may perform a mastication motion by opening their mouth.
상기 안면 인식 단계에서, 상기 출력부 상에 상기 사용자의 안면이 위치하도록 하는 안면 가이드 라인과, 상기 사용자 입이 요구되는 이상으로 벌어지도록 저작 가이드 라인이 표시될 수 있다.In the face recognition step, a facial guide line for positioning the user's face on the output unit, and a chewing guide line for opening the user's mouth more than required may be displayed.
상기 컨텐츠 동작 단계에서는 상기 제1 기간 동안 동영상이 플레이될 수 있다.In the content operation step, a video may be played during the first period.
상기 제1 기간 및 제2 기간 중 적어도 하나의 시간 길이는 상기 사용자 또는 상기 사용자의 보호자에 의해 설정될 수 있다.The length of at least one of the first period and the second period may be set by the user or a guardian of the user.
상기 안면 인식 단계 이전에, 전자 장치의 출력부 상에서 동작될 컨텐츠가 선택되는 컨텐츠 선택 단계;를 더 포함할 수 있다.The method may further include a content selection step in which content to be operated on an output unit of the electronic device is selected before the face recognition step.
상기 컨텐츠 선택 단계에서, 상기 컨텐츠는 상기 전자 장치 내에 구비되어 선택되는 동영상이거나 파일 식별자 주소(Uniform Resource Locator, URL)의 입력에 의해 선택될 수 있다.In the content selection step, the content may be a moving picture provided and selected in the electronic device or may be selected by input of a file identifier address (Uniform Resource Locator, URL).
상기 감지 단계는 상기 제1 기간 동안 상기 사용자의 안면 영역을 감지하는 안면 영역 검출 단계; 상기 사용자의 안면에서 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술에 대한 특징점을 추출하는 특징점 추출 단계; 상기 아랫입술의 위치 변화로부터 상기 사용자의 저작 운동을 인식하는 저작 운동 인식 단계;를 포함할 수 있다.The detecting step may include: a face area detecting step of detecting the user's face area during the first period; a feature point extraction step of extracting a feature point for at least one of an eye, a nose, an upper lip, and a lower lip from the user's face; It may include; a mastication movement recognition step of recognizing the mastication movement of the user from the change in the position of the lower lip.
상기 저작 운동 인식 단계에서는 상기 아랫입술의 위치가 적어도 한번 이상 내려갔다 올라오면 상기 사용자가 저작 운동을 하는 것으로 판단할 수 있다.In the mastication movement recognition step, when the position of the lower lip goes down and rises at least once, it may be determined that the user is performing the mastication movement.
또한, 본 발명은 전술한 저작 운동 유도 방법을 실행하기 위한 프로그램이 기록된 기록 매체로 제공될 수 있다.In addition, the present invention may be provided as a recording medium in which a program for executing the above-described masticatory movement inducing method is recorded.
본 발명의 일례에 따른 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체는 컨텐츠의 구동을 위해, 사용자가 저작 운동을 수행하는지 여부를 감지하여, 사용자의 저작 운동이 감지되는 경우에 상기 컨텐츠의 구동 시간을 연장함으로써, 사용자의 저작 운동을 유도할 수 있다. A method for inducing authoring movement according to an example of the present invention and a recording medium in which a program for executing the method is recorded, detects whether the user performs the authoring movement in order to drive the content, and when the user's authoring movement is detected, the By extending the running time of the content, it is possible to induce the user's authoring movement.
도 1은 본 발명의 일례에 따른 저작 운동 유도 방법의 개념을 설명하기 위한 도이다.
도 2는 본 발명의 일례에 따른 저작 운동 유도 방법을 실행하는 단말기(100)의 일례를 설명하기 위한 도이다.
도 3은 도 2에 도시된 저작 운동 유도 모듈(115)을 실행시키는 앱(APP) 구조의 일례를 설명하기 위한 도이다.
도 4는 도 2에 도시된 저작 운동 유도 모듈(115)이 동작되는 방법의 일례를 설명하기 위한 플로우 차트의 일례이다.
도 5a 내지 도 5e는 도 4에 도시된 저작 운동 유도 모듈(115)이 동작되는 방법의 각 단계를 보다 구체적으로 설명하기 위한 도이다.
도 6은 컨텐츠 동작 시간 설정 및 모드 설정을 설명하기 위한 도이다.
도 7은 도 3에 도시된 감지 단계(S4)를 설명하기 위한 플로우 차트이다.
도 8a 내지 도 8c는 도 7의 각 단계를 보다 구체적으로 설명하기 위한 도이다.
도 9는 도 4에서 로봇 꾸미기 및 로봇 돌보기의 일례를 간략히 설명하기 위한 도이다.1 is a diagram for explaining the concept of a mastication motion induction method according to an example of the present invention.
Figure 2 is a diagram for explaining an example of the
3 is a diagram for explaining an example of the structure of the app (APP) for executing the mastication
FIG. 4 is an example of a flowchart for explaining an example of a method in which the mastication
5A to 5E are diagrams for explaining in more detail each step of the method in which the mastication
6 is a diagram for explaining content operation time setting and mode setting.
FIG. 7 is a flowchart for explaining the sensing step S4 shown in FIG. 3 .
8A to 8C are diagrams for explaining each step of FIG. 7 in more detail.
9 is a diagram for briefly explaining an example of decorating the robot and caring for the robot in FIG. 4 .
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명을 설명하는데 있어서, 해당 분야에 이미 공지된 기술 또는 구성에 대한 구체적인 설명을 부가하는 것이 본 발명의 요지를 불분명하게 할 수 있다고 판단되는 경우에는 상세한 설명에서 이를 일부 생략하도록 한다. 또한, 본 명세서에서 사용되는 용어들은 본 발명의 실시예들을 적절히 표현하기 위해 사용된 용어들로서, 이는 해당 분야의 관련된 사람 또는 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that adding a detailed description of a technique or configuration already known in the relevant field may make the gist of the present invention unclear, some of these will be omitted from the detailed description. In addition, the terms used in this specification are terms used to properly express the embodiments of the present invention, which may vary according to a person or custom in the relevant field. Accordingly, definitions of these terms should be made based on the content throughout this specification.
이하, 첨부된 도면을 참조하여 본 발명에 따른 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체에 대해서 설명한다.Hereinafter, a method for inducing a mastication movement according to the present invention and a recording medium in which a program for executing the method is recorded will be described with reference to the accompanying drawings.
도 1은 본 발명의 일례에 따른 저작 운동 유도 방법의 개념을 설명하기 위한 도이고, 도 2는 본 발명의 일례에 따른 저작 운동 유도 방법을 실행하는 단말기(100)의 일례를 설명하기 위한 도이다.Figure 1 is a diagram for explaining the concept of a method for inducing a mastication movement according to an example of the present invention, Figure 2 is a diagram for explaining an example of a
저작(mastication)은 음식물은 씹어 먹는 행위를 의미한다. 이와 같은 저작 운동은 음식물을 섭취하여 몸에 필요한 영양소를 공급하는 아주 중요한 행위이며, 건강과 직결되는 행위라 할 수 있다. Mastication refers to the act of chewing food. This masticatory movement is a very important act of supplying nutrients necessary for the body by ingesting food, and it can be said that it is an act directly related to health.
때문에 영유아와 같은 어린 아이들이 어린 시절부터 바른 식습관을 가지게 교육하는 것이 매우 중요하다 할 수 있다.Therefore, it is very important to educate young children, such as infants, to have good eating habits from an early age.
최근에는 도 1에 도시된 바와 같이, 영유아와 같은 사용자(10)의 음식 섭취를 보다 용이하게 하기 위하여, 단말기(100)를 이용하여 아이들이 좋아하는 동영상이나, 캐릭터를 시청하도록 하면서 음식 섭취를 유도하는 경우가 많다.Recently, as shown in FIG. 1 , in order to make it easier for the
그러나, 이와 같이 동영상이나 캐릭터를 시청하도록 하면서, 음식을 섭취하는 경우, 사용자(10)는 입에 음식을 머금고 있으나, 동영상 시청 등에 몰입된 나머지 저작 운동을 하지 않고, 음식을 삼키는 경우가 많아지고 있다. 이에 따라 올바른 식습관이 형성되지 않는 경우가 많다.However, when ingesting food while watching a video or character in this way, the
본 발명은 이와 같은 문제점을 해소하고자, 저작 운동을 유도하는 방법을 제공함으로써, 사용자(10)가 단말기(100)를 이용하여 동영상 등을 시청할 때, 저작 운동을 수행해야 동영상과 같은 컨텐츠가 플레이되어 구동되도록 함으로써, 사용자(10)의 올바른 저작 습관을 향상시킬 수 있다. In order to solve this problem, the present invention provides a method of inducing an authoring movement, so that when the
이를 위해, 본 발명의 일례에 따른 저작 운동 유도 방법은 컨텐츠가 구동되는 단말기(100)에 애플리케이션 형태로 설치되어 동작될 수 있다.To this end, the authoring motion inducing method according to an example of the present invention may be installed and operated in the form of an application in the
단말기(100)는 사용자(10)가 휴대 가능한 핸드폰 또는 스마트폰과 무선 통신 단말기(100) 형태로 구비될 수 있다. The
그러나, 본 발명이 반드시 이에 한정되는 것은 아니고, 단말기(100)는 통신 가능한 장치라면 유선 또는 무선 통신 장치 모두 포함될 수 있고, 일례로, 카메라와 연동되는 태블릿 컴퓨터, 카메라와 연동되는 랩톱 컴퓨터, 포터블 미디어 플레이어, 개인용 디지털 단말기(100)(Personal Digital Assistant, PDA) 등을 포함할 수 있다.However, the present invention is not necessarily limited thereto, and the
이와 같이 저작 운동 유도 방법을 수행하는 단말기(100)는 도 2에 도시된 바와 같이, 제어부(110), 데이터 베이스부(120), 입력부(130) 및 출력부(140)를 포함할 수 있다.As shown in FIG. 2 , the
제어부(110)는 통신 모듈(111), 카메라 모듈(113), 저작 운동 유도 모듈(115)을 포함할 수 있다.The
통신 모듈(111)은 사용자(10)가 인터넷 네트워크 등을 통하여 외부에 위치한 컨텐츠를 선택하려고, 입력부(130)를 이용하여 파일 식별자 주소(Uniform Resource Locator, URL)의 입력하였을 때, 파일 식별자 주소에 위치한 컨텐츠가 단말기(100) 내에서 표시되도록 외부와 유선 또는 무선 통신을 수행할 수 있다.When the
카메라 모듈(113)은 사용자(10)가 컨텐츠를 이용하는 기간 동안, 사용자(10)를 촬영할 수 있다. 이와 같이 사용자(10)를 촬영한 촬영 정보는 영상 분석처리를 통하여 사용자(10)가 저작 운동을 하고 있는지 판별하는 데이터로 이용될 수 있다.The
저작 운동 유도 모듈(115)은 사용자(10)의 저작 운동을 유도하는 프로그램이 저장된 앱(Application, APP) 형태로 구비될 수 있다. The authoring
사용자(10)가 이와 같은 저작 운동 유도 모듈(115)을 실행하여, 저작 운동 유도 모듈(115) 내에서 컨텐츠를 선택하여 실행시키면, 저작 운동 유도 모듈(115)은 컨텐츠가 실행되는 동안 카메라 모듈(113)에서 촬영 정보를 입력받아 사용자(10)가 저작 운동을 하고 있는지 판별하여 컨텐츠의 구동 시간을 연장할지 여부를 결정할 수 있고, 이를 통해 사용자(10)의 저작 운동을 유도할 수 있다.When the
데이터 베이스부(120)는 저작 운동 유도 모듈(115)이 실행되는 동안 카메라 모듈(113)에서 촬영된 촬영 정보를 저장하고, 저작 운동 유도 모듈(115)의 요청에 따라 촬영 정보를 저작 운동 유도 모듈(115)에 제공할 수 있다.The
입력부(130)는 단말기(100)에 구비되는 터치 패널 또는 마이크와 같은 입력 수단일 수 있으며, 저작 운동 유도 모듈(115)에서 컨텐츠를 선택할 때 이용될 수 있다.The
출력부(140)는 영상 또는 이미지를 표시하기 위해 단말기(100)에 구비되는 디스플레이 패널 및 스피커일 수 있으며, 저작 운동 유도 모듈(115)이 실행되고, 컨텐츠가 선택되었을 때, 해당 컨텐츠에 대한 이미지나 동영상과 소리가 출력부(140)를 통해 출력될 수 있다.The
이하에서는 전술한 저작 운동 유도 모듈(115)이 동작되는 방법에 대해 설명한다. Hereinafter, a method in which the above-described masticatory
도 3은 도 2에 도시된 저작 운동 유도 모듈(115)을 실행시키는 앱(APP) 구조의 일례를 설명하기 위한 도이고, 도 4는 도 2에 도시된 저작 운동 유도 모듈(115)이 동작되는 방법의 일례를 설명하기 위한 플로우 차트의 일례이고, 도 5a 내지 도 5e는 도 4에 도시된 저작 운동 유도 모듈(115)이 동작되는 방법의 각 단계를 보다 구체적으로 설명하기 위한 도이고, 도 6은 컨텐츠 동작 시간 설정 및 모드 설정을 설명하기 위한 도이다.3 is a diagram for explaining an example of the structure of the app (APP) for executing the masticatory
저작 운동 유도 모듈(115)을 실행시키는 앱(APP)은 실행되면, 도 3에 도시된 바와 같이, 일례로, 로그인 이미지, 사용자(10) 선택 이미지, 사용자(10) 등록 이미지, 기본 화면 이미지, 보호자 메뉴 이미지, 영상 보기 컨텐츠, 로봇 꾸미기 컨텐츠, 로봇 돌보기 컨텐츠를 포함하여 구성될 수 있다.When the app (APP) that executes the mastication
로그인 이미지에서는 사용자(10) 아이디와 비밀 번호를 입력할 수 있는 입력란과 회원 가입이 가능한 회원 가입란을 포함하는 이미지가 표시될 수 있다.In the login image, an image including an input field in which the
회원 가입이 된 상태의 경우, 사용자(10) 아이디와 비밀 번호를 입력하여 기본 화면 이미지로 넘어갈 수 있으며, 회원 가입이 안된 경우, 회원 가입란을 클릭하여 사용자(10) 가입을 위한 사용자(10) 선택 이미지를 선택할 수 있다.If you are a member, you can enter the user (10) ID and password to go to the basic screen image. If you are not a member, click the member registration box to select the user (10) to join the user (10) You can choose an image.
회원 가입란을 클릭할 경우, 사용자(10) 선택 이미지로 넘어가고 사용자(10) 선택에서 사용자(10)가 영유아인 경우와 사용자(10)가 보호자인 경우를 선택하여, 사용자(10) 등록 이미지로 넘어가고, 사용자(10) 등록 모드에서 영유아의 이름과 생년 월일, 보호자의 기본 정보 등을 입력할 수 있다.When clicking on the member registration box, the
로그인 화면에서 사용자(10) 아이디와 비밀 번호를 입력한 경우, 도 5에 도시된 바와 같은 기본 화면 이미지로 넘어갈 수 있다.When the
기본 화면 이미지에서는 설정 메뉴로 보호자 메뉴(도 5에서 보호자용 메뉴), 구동될 컨텐츠로 영상 보기, 로봇 꾸미기(도 5a에서 꾸미기 메뉴), 로봇 돌보기(도 5a에서 미니 게임 메뉴) 이미지가 표시될 수 있다.In the basic screen image, the parent menu (menu for guardians in Fig. 5) as the setting menu, the image view as the content to be driven, the robot decoration (the decoration menu in Fig. 5a), and the robot caring (mini game menu in Fig. 5a) images can be displayed have.
영상 보기 컨텐츠를 선택하면, 사용자(10)가 동영상 컨텐츠를 시청할 수 있으며, 로봇 꾸미기 메뉴를 선택하면, 미리 저장된 다양한 캐릭터를 다양한 액세서리로 꾸밀 수 있는 컨텐츠가 구동될 수 있으며, 로봇 돌보기 메뉴를 선택하면, 손씻기, 식사하기, 양치하기 등 다양한 미니 게임 컨텐츠가 구동될 수 있다.When the video view content is selected, the
여기서, 사용자(10)가 영상 보기, 로봇 꾸미기(도 5a에서 꾸미기 메뉴) 및 로봇 돌보기(도 5a에서 미니 게임 메뉴)를 실행할 경우, 사용자의 저작 운동을 유도하면서, 각 컨텐츠가 수행될 수 있다.Here, when the
이하에서는 영유아인 사용자(10)가 도 5a에 도시된 기본 화면 이미지에서 영상 보기 메뉴를 선택한 경우, 저작 운동 유도 방법이 동작되는 예를 설명한다.Hereinafter, when the
사용자(10)가 영상 보기 메뉴를 선택한 경우, 저작 운동 유도 방법이 동작될 수 있다.When the
본 발명의 일례에 따른 저작 유도 동작 방법은 도 4에 도시된 바와 같이, 컨텐츠 선택 단계(S1), 안면 인식 단계(S2), 컨텐츠 동작 단계(S3), 감지 단계(S4), 정지 단계(S5), 시간 연장 단계(S6) 및 종료 단계(S7)를 포함할 수 있다.As shown in Fig. 4, the authoring induction operation method according to an example of the present invention includes a content selection step (S1), a face recognition step (S2), a content operation step (S3), a detection step (S4), a stopping step (S5) ), a time extension step (S6) and an end step (S7).
도 5a에서 영상 보기 메뉴가 선택되면, 도 4 및 도 5b에 도시된 바와 같이, 컨텐츠 선택 단계(S1)가 수행될 수 있다.When the image view menu is selected in FIG. 5A , as shown in FIGS. 4 and 5B , the content selection step S1 may be performed.
컨텐츠 선택 단계(S1)에서는 도 5b에서 전자 장치의 출력부(140) 상에서 동작될 다양한 동영상 컨텐츠가 표시되고, 표시된 컨텐츠들 중 어느 하나가 선택될 수 있다.In the content selection step S1 , various video contents to be operated on the
여기서, 도 5b에 도시된 컨텐츠는 전자 장치 내에 구비되어 선택 가능한 동영상이거나 파일 식별자 주소(Uniform Resource Locator, URL)의 입력에 의해 선택되는 동영상일 수 있다.Here, the content shown in FIG. 5B may be a selectable video provided in the electronic device or a video selected by input of a file identifier address (Uniform Resource Locator, URL).
컨텐츠 선택 단계(S1)에서, 어느 하나의 동영상 컨텐츠가 선택되면, 도 4의 안면 인식 단계(S2)가 수행될 수 있다.In the content selection step (S1), when any one video content is selected, the face recognition step (S2) of FIG. 4 may be performed.
안면 인식 단계(S2)에서는 컨텐츠의 구동를 위해 사용자(10)의 안면을 인식할 수 있다. 이를 위해, 도 5c의 (a)에 도시된 바와 같이, 안면 인식을 위한 안내 메시지가 표시되고, 확인을 클릭하면, (b)에 도시된 바와 같이, 출력부(140) 화면 상에 사용자(10)의 안면 위치를 가이드하는 안면 가이드 라인(G1)과, 사용자(10)의 입이 요구되는 이상으로 벌어지도록 저작 가이드 라인(G2)이 표시될 수 있다.In the face recognition step S2, the face of the
이와 같은 안면 인식 단계(S2)에서, 사용자(10)는 도 5c의 (c)처럼, 안면 가이드 라인(G1)과 저작 가이드 라인(G2)에 맞추어 사용자(10)의 안면이 인식되도록 단말기(100)의 위치와 방향을 조절할 수 있다.In this face recognition step (S2), the
안면 인식 단계(S2)에서는 사용자(10)가 저작 가이드 라인(G2)에 맞추어 일을 벌렸다 좁히는 저작 운동을 반복적으로 수행할 때, 사용자(10)의 안면이 인식되도록 할 수 있다. 이와 같이, 안면 인식 단계(S2)에서 인식되는 저작 운동 이미지는 추후 감지 단계(S4)에서 저작 운동을 감지하기 위한 샘플 데이터로 이용될 수 있다.In the face recognition step (S2), when the
사용자(10)의 안면이 안면 가이드 라인(G1)과 저작 가이드 라인(G2)에 맞추어 인식되면, 선택된 동영상 컨텐츠가 로딩되어 도 4의 컨텐츠 동작 단계(S3)가 수행되어, 도 5d와 같이, 선택된 동영상 컨텐츠가 플레이될 수 있다.When the face of the
컨텐츠 동작 단계(S3)에서는 도 5d와 같이, 선택된 동영상 컨텐츠가 제1 기간 동안 구동되어 플레이될 수 있다. 여기서 제1 기간의 시간 길이는 저작 운동 유도 모듈(115) 내에 미리 설정되거나 사용자 메뉴를 통하여, 도 6에 도시된 바와 같이, 사용자(10) 또는 사용자(10)의 보호자에 의해 선택되어 설정될 수 있다.In the content operation step S3 , as shown in FIG. 5D , the selected video content may be driven and played for the first period. Here, the time length of the first period may be preset in the mastication
이와 같이, 컨텐츠 동작 단계(S3)가 실행되어, 선택된 동영상 컨텐츠가 도 5d와 같이 플레이되는 동안, 동영상 이미지의 모서리에는 저작 운동을 유도하는 캐릭터(G3)가 표시되어, 사용자(10)의 저작 운동을 유도할 수 있다. In this way, the content operation step (S3) is executed, and while the selected video content is played as shown in FIG. 5D , a character G3 inducing the authoring movement is displayed at the edge of the video image, and the
아울러, 감지 단계(S4)에서는 제1 기간 중 컨텐츠를 사용하는 사용자(10)가 저작 운동(咀嚼運動)을 수행하는지 여부를 단말기(100)의 카메라 모듈(113)을 통해 감지할 수 있다. In addition, in the detection step S4 , it is possible to detect whether the
즉, 감지 단계(S4)에서 사용자(10)가 선택된 동영상 컨텐츠를 시청하는 동안, 카메라 모듈(113)은 사용자(10)를 지속적으로 촬영하여, 촬영된 촬영 정보의 영상을 분석하고 이를 통해 사용자(10)가 저작 운동을 하는지 여부를 판단할 수 있다. That is, while the
이와 같은 감지 단계(S4)에서 저작 운동 여부를 판단하는 방법에 대해서는 도 7 이하에서 보다 구체적으로 설명한다.A method of determining whether or not a mastication motion is performed in the sensing step S4 will be described in more detail below with reference to FIG. 7 .
만약, 감지 단계(S4)에서 제1 기간 중 사용자(10)가 저작 운동을 수행하지 않는 것으로 판단되는 경우, 도 5e와 같이, 구동 중인 동영상 컨텐츠는 제1 기간이 경과된 이후 정지되고, 도 5e와 같은 저작 운동을 유도하는 캐릭터가 표시될 수 있다. If it is determined in the detection step S4 that the
그리고, 감지 단계(S4)가 반복적으로 수행되어, 사용자(10)가 저작 운동을 하는지 여부를 감지하기 위해 감지 단계(S4)가 지속적으로 수행될 수 있다.And, the detection step (S4) is repeatedly performed, so that the detection step (S4) may be continuously performed to detect whether the
사용자(10)가 저작 운동을 수행하면, 시간 연장 단계(S6)에서 동영상 컨텐츠의 플레이 시간이 연장되어 동영상 컨텐츠가 다시 플레이될 수 있다.When the
만약, 동영상 컨텐츠가 플레이되는 제1 기간 중 사용자(10)의 저작 운동이 감지되는 경우, 정지 단계(S5)를 거치지 않고, 시간 연장 단계(S6)에 의해 컨텐츠의 구동 시간이 연장될 수 있으며, 저작 운동 유도 모듈(115)은 컨텐츠의 구동 시간 연장에 따라, 제1 기간 이후 연속적으로 컨텐츠가 제2 기간 동안 구동되도록 할 수 있다.If, during the first period during which the video content is played, the authoring movement of the
여기서, 제2 기간의 시간 길이는 사용자(10) 또는 사용자(10)의 보호자에 의해 설정될 수 있다. 여기서, 제2 기간의 길이는 제1 기간의 길이와 동일하거나 다를 수 있다. 본 발명에서는 제1, 2 기간의 길이가 동일하고, 제1, 2 기간의 길이는 도 6에 도시된 바와 같은 보호자 메뉴 페이지에서 설정될 수 있다.Here, the length of time of the second period may be set by the
이후, 종료 단계(S7)에서, 선택된 동영상 컨텐츠의 플레이가 종료되기 이전에는 컨텐츠 동작 단계(S3), 감지 단계(S4), 정지 단계(S5) 및 시간 연장 단계(S6)가 반복적으로 수행되고, 선택된 동영상 컨텐츠가 플레이가 종료되면, 다시 컨텐츠 선택 단계(S1)로 페이지가 이동될 수 있다.Then, in the end step (S7), before the play of the selected video content ends, the content operation step (S3), the detection step (S4), the stop step (S5), and the time extension step (S6) are repeatedly performed, When the selected video content is finished playing, the page may be moved back to the content selection step (S1).
이하에서는, 본 발명의 감지 단계(S4)에 대해 상세하게 설명한다. Hereinafter, the sensing step (S4) of the present invention will be described in detail.
도 7은 도 3에 도시된 감지 단계(S4)를 설명하기 위한 플로우 차트이고, 도 8a 내지 도 8c는 도 7의 각 단계를 보다 구체적으로 설명하기 위한 도이다.7 is a flowchart for explaining the sensing step S4 shown in FIG. 3 , and FIGS. 8A to 8C are diagrams for explaining each step of FIG. 7 in more detail.
도 7에 도시된 바와 같이, 본 발명에 따른 감지 단계(S4)의 일례는 안면 영역 검출 단계(S41), 특징점 추출 단계(S42) 및 저작 운동 인식 단계(S43)를 포함할 수 있다.As shown in FIG. 7 , an example of the detection step S4 according to the present invention may include a facial region detection step S41 , a feature point extraction step S42 , and a mastication motion recognition step S43 .
안면 영역 검출 단계(S41)에서는 도 7 및 도 8a에 도시된 바와 같이, 동영상 컨텐츠가 실행되는 제1 기간 동안, 또는 정지 단계(S5)가 실행된 기간 동안 사용자(10)의 안면 영역(SS)을 감지할 수 있다.In the facial region detection step S41 , as shown in FIGS. 7 and 8A , the facial region SS of the
특징점 추출 단계(S42)에서는 도 7 및 도 8b에 도시된 바와 같이, 사용자(10)의 안면 영역에서 특징점이 추출될 수 있다. 여기서 특징점이 추출되는 영역은 사용자(10)의 안면 중에서 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술이 위치한 영역일 수 있다. In the feature point extraction step S42 , as shown in FIGS. 7 and 8B , a feature point may be extracted from the facial region of the
이와 같은 특징점 추출을 통하여, 사용자(10)의 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술의 위치를 인식할 수 있다.Through such feature point extraction, at least any one of the eyes, nose, and upper lip of the
그러나, 본 발명은 반드시 이에 한정되는 것은 아니고, 필요한 경우에 사용자(10)의 턱이나 안면 윤곽 등 다른 부분에 대한 특징점을 추출하는 것도 가능하다. 일례로, 눈, 코, 윗입술, 아랫입술 및 및 턱끝 라인이 위치한 영역에 대한 특징점을 추출하는 것도 가능하다.However, the present invention is not necessarily limited thereto, and if necessary, it is also possible to extract feature points for other parts such as the user's 10's chin or facial contour. As an example, it is also possible to extract a feature point for an area where the eyes, nose, upper lip, lower lip, and the chin line are located.
이하에서는, 설명의 편의상 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술이 위치한 영역에 대한 특징점이 추출되는 경우를 일례로 설명한다.Hereinafter, for convenience of description, a case in which feature points for at least one of the eyes, nose, and upper lip and the region where the lower lip is located will be described as an example.
이와 같이, 사용자(10)의 특징점이 추출된 이후, 특징점의 위치 변화를 감지하여, 도 7의 저작 운동 인식 단계(S43)에서 제1 기간 동안 사용자(10)가 저작 운동을 하는지 여부를 판단한다.In this way, after the feature point of the
여기서, 저작 운동은 도 8c에 도시된 바와 같이, 사용자(10)의 특징점으로 추출된 눈, 코, 윗입술, 아랫입술 중 아랫입술의 위치 변화로부터 사용자(10)의 저작 운동을 하는지 여부를 판단할 수 있다. Here, as shown in FIG. 8c , the masticatory movement is to determine whether or not to perform the masticatory movement of the
일례로, 저작 운동 인식 단계(S43)에서는 도 8c에 도시된 바와 같이, 아랫입술의 위치가 적어도 한번 이상 내려갔다 올라오면 사용자(10)가 저작 운동을 하고 있는 것으로 판단할 수 있다.For example, in the mastication movement recognition step S43 , as shown in FIG. 8C , when the position of the lower lip goes down and rises at least once, it may be determined that the
보다 구체적으로, 아랫입술의 위치 변화를 감지하기 위해, 도 8c의 (a)에서 저작 운동의 시점에 감지된 코끝 라인과 아랫입술 라인의 사이의 제1 간격(D1)을 감지한 이후, (b)에서와 같이, 저작 운동이 실행되면, 코끝 라인과 아랫입술 라인의 간격이 제1 간격(D1)에서 제2 간격(D2)로 증가하고, 다시 (c)에서와 같이, 코끝 라인과 아랫입술 라인의 간격이 제2 간격(D2)에서 제3 간격(D3)으로 감소할 수 있다.More specifically, in order to detect a change in the position of the lower lip, after detecting the first gap D1 between the tip of the nose and the lower lip line sensed at the time of the masticatory movement in (a) of FIG. 8C , (b) ), when the masticatory movement is executed, the interval between the nose tip line and the lower lip line increases from the first interval D1 to the second interval D2, and again as in (c), the nose tip line and the lower lip line The line spacing may decrease from the second interval D2 to the third interval D3.
이에 따라, 저작 운동의 실행되는 하나의 사이클이 완성될 수 있고, 이와 같은 저작 운동이 반복되면서, 사용자(10)가 저작 운동을 실행하는지 여부와 저작 운동의 횟수가 몇 회인지 파악이 가능하다.Accordingly, one execution cycle of the masticatory movement may be completed, and while the masticating movement is repeated, it is possible to determine whether the
이에 따라, 본 발명의 일례에 따른 저작 운동 유도 모듈(115)은 사용자(10)가 동영상 콘텐츠를 시청하는 동안 저작 운동을 수행하는지 파악이 가능하고, 저작 운동을 수행하면 동영상 콘텐츠를 지속적으로 시청할 수 있도록 제어하고, 저작 운동을 수행하지 않으면, 동영상 콘텐츠의 동작을 정지시킴으로써, 사용자(10)로 하여금 저작 운동이 지속적으로 수행할 수 있게 유도할 수 있다.Accordingly, the authoring
그러나, 본 발명의 저작 운동 인식 단계(S43)가 반드시 아랫입술의 위치 변화에 한정되는 것은 아니고, 저작 운동이 인식될 만한 다른 방법이 있다면 얼마든지 가능하다.However, the mastication motion recognition step (S43) of the present invention is not necessarily limited to a change in the position of the lower lip, and any other method in which the mastication motion can be recognized is possible.
다른 일례로, 보다 정확한 저작 운동 인식을 위해, 저작 운동 인식 단계(S43)에서, 아랫입술 자체의 변화가 아닌 고개를 숙이거나 들거나 하면서 생기는 변화를 제외시키기 위해 코끝 라인과 턱끝 라인에서 아랫 입술의 상대적인 위치 변화로 저작 운동 여부를 판단하는 것도 가능하다.As another example, for more accurate recognition of masticatory motion, in the mastication motion recognition step (S43), the relative of the lower lip at the tip of the nose and the tip of the chin in order to exclude changes that occur while bowing or raising the head rather than the change of the lower lip itself. It is also possible to determine whether or not masticatory movement is performed by changing the position.
더불어, 도 3 내지 도 8c에서는 사용자(10)의 저작 운동 유도 방법에 대해 영상 보기 컨텐츠, 로봇 꾸미기 컨텐츠, 로봇 돌보기 컨텐츠 중 영상 보기 컨텐츠에서 동작되는 방법을 일례로 설명하였으나, 본 발명이 반드시 이에 한정되는 것은 아니고, 로봇 꾸미기 컨텐츠 및 로봇 돌보기 컨텐츠와 같은 다른 컨텐츠에도 얼마든지 적용 가능하다.In addition, in FIGS. 3 to 8C , the method of inducing the authoring movement of the
도 9는 도 4에서 로봇 꾸미기 및 로봇 돌보기의 일례를 간략히 설명하기 위한 도이다.9 is a diagram for briefly explaining an example of decorating the robot and caring for the robot in FIG. 4 .
일례로, 도 9에는 로봇 돌보기에 예시되는 다양한 미니 게임 중 양치 게임의 일례를 도시한 것이다.As an example, FIG. 9 shows an example of a brushing game among various mini-games exemplified in caring for a robot.
도 9에 도시된 바와 같이, 본 발명의 일례에 따른 사용자(10)의 저작 운동 유도 방법은 양치 게임에서도 칫솔을 짜는 영상 이미지(도 9의 (b)), 칫솔질을 수행하는 이미지(도 9의 (c)), 물컵으로 입을 헹구는 이미지(도 9의 (d))의 각 단계 역시 저작 운동이 수행될 때, 다른 이미지로 넘어가도록 제어할 수 있다.As shown in FIG. 9 , the method for inducing the masticating movement of the
또는, 전술한 바와 다르게, 본 발명의 일례에 따른 사용자(10)의 저작 운동 유도 방법은 사용자(10)가 저작 운동을 충실히 수행할 때, 사용자(10)의 보호자가 보상 스티커를 부여하고, 사용자(10)에 의해 부여된 보상 스티커를 이용하여, 사용자(10)가 보상 스티커를 클릭함으로 컨텐츠 구동이 가능하도록 하는 것도 가능하다.Alternatively, differently from the above, in the method for inducing the authoring movement of the
이와 같이, 본 발명의 일례에 따른 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체는 컨텐츠의 구동을 위해, 사용자(10)가 저작 운동을 수행하는지 여부를 감지하여, 사용자(10)의 저작 운동이 감지되는 경우에 컨텐츠의 구동 시간을 연장함으로써, 사용자(10)의 저작 운동을 유도할 수 있다. As such, the method for inducing authoring movement according to an example of the present invention and the recording medium on which a program for executing the same is recorded, detects whether the
본 발명은 상술한 실시예 및 첨부한 도면에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자의 관점에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명의 범위는 본 명세서의 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.The present invention is not limited to the above-described embodiments and the accompanying drawings, and various modifications and variations will be possible from the point of view of those of ordinary skill in the art to which the present invention pertains. Accordingly, the scope of the present invention should be defined not only by the claims of the present specification, but also by those claims and their equivalents.
100: 단말기 110: 제어부
120: 데이터 베이스부 130: 입력부
140: 출력부100: terminal 110: control unit
120: database unit 130: input unit
140: output unit
Claims (12)
상기 안면 인식 단계 이후, 제1 기간 동안 상기 컨텐츠가 구동되는 컨텐츠 동작 단계;
상기 제1 기간 중 상기 컨텐츠를 사용하는 사용자가 저작 운동(咀嚼運動)을 수행하는지 여부를 감지하는 감지 단계; 및
상기 제1 기간 중 상기 사용자의 저작 운동이 감지되는 경우, 상기 컨텐츠의 구동 시간을 연장하는 시간 연장 단계;를 포함하고,
상기 안면 인식 단계에서,
상기 출력부 상에 상기 사용자의 안면이 위치하도록 안내하는 안면 가이드 라인과, 상기 사용자 입이 요구되는 이상으로 벌어지도록 안내하는 저작 가이드 라인이 표시되고,
상기 안면 가이드 라인에 맞추어 상기 사용자의 안면이 위치한 상태에서 상기 저작 가이드 라인에 맞추어 상기 사용자가 입을 벌려 저작 운동을 수행하면, 이후에 상기 컨텐츠 동작 단계가 수행되고,
상기 안면 인식 단계에서 상기 사용자가 수행한 저작 운동에 대한 이미지는, 상기 감지 단계에서 상기 사용자의 저작 운동을 감지하기 위한 샘플 데이터로 이용되는 저작 운동 유도 방법.a face recognition step of recognizing a user's face in order to drive contents to be output to an output unit of the terminal;
a content operation step in which the content is driven for a first period after the face recognition step;
a sensing step of detecting whether a user who uses the content during the first period performs an authoring movement; and
a time extension step of extending the driving time of the content when the authoring movement of the user is detected during the first period;
In the face recognition step,
A facial guide line guiding the user's face to be positioned on the output unit, and a chewing guide line guiding the user's mouth to open more than required are displayed,
When the user opens his/her mouth to perform the authoring exercise in accordance with the authoring guideline in a state where the user's face is positioned in accordance with the facial guideline, the content operation step is performed thereafter,
The image for the masticatory movement performed by the user in the face recognition step is a method of inducing a mastication movement that is used as sample data for detecting the mastication movement of the user in the detection step.
상기 제1 기간 중 상기 사용자의 저작 운동이 감지되지 않은 경우, 상기 컨텐츠의 구동을 정지하는 정지 단계;를 포함하는 저작 운동 유도 방법.According to claim 1,
When the user's authoring movement is not detected during the first period, a stopping step of stopping the driving of the content; and a method for inducing authoring movement.
상기 컨텐츠의 구동 시간 연장에 따라, 상기 제1 기간 이후 연속적으로 상기 컨텐츠가 제2 기간 동안 구동되는 저작 운동 유도 방법.3. The method of claim 2,
According to the extension of the driving time of the content, the authoring movement inducing method in which the content is continuously driven for a second period after the first period.
상기 컨텐츠 동작 단계에서는 상기 제1 기간 동안 동영상이 플레이되는 저작 운동 유도 방법.According to claim 1,
In the content operation step, a method for inducing authoring movement in which a video is played during the first period.
상기 제1 기간 및 제2 기간 중 적어도 하나의 시간 길이는 상기 사용자 또는 상기 사용자의 보호자에 의해 설정되는 저작 운동 유도 방법.4. The method of claim 3,
The length of at least one of the first period and the second period is set by the user or a guardian of the user.
상기 안면 인식 단계 이전에, 전자 장치의 출력부 상에서 동작될 컨텐츠가 선택되는 컨텐츠 선택 단계;를 더 포함하는 저작 운동 유도 방법.According to claim 1,
The method further comprising: prior to the face recognition step, a content selection step in which content to be operated on an output unit of the electronic device is selected.
상기 컨텐츠 선택 단계에서,
상기 컨텐츠는 상기 전자 장치 내에 구비되어 선택되는 동영상이거나 파일 식별자 주소(Uniform Resource Locator, URL)의 입력에 의해 선택되는 동영상인 저작 운동 유도 방법.9. The method of claim 8,
In the content selection step,
The content is a moving picture provided and selected in the electronic device or a moving picture selected by input of a file identifier address (Uniform Resource Locator, URL).
상기 감지 단계는
상기 제1 기간 동안 상기 사용자의 안면 영역을 감지하는 안면 영역 검출 단계;
상기 사용자의 안면에서 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술에 대한 특징점을 추출하는 특징점 추출 단계;
상기 아랫입술의 위치 변화로부터 상기 사용자의 저작 운동을 인식하는 저작 운동 인식 단계;를 포함하는 저작 운동 유도 방법.According to claim 1,
The detection step
a facial region detection step of detecting a facial region of the user during the first period;
a feature point extraction step of extracting a feature point for at least one of an eye, a nose, an upper lip, and a lower lip from the user's face;
A mastication movement induction method comprising a; a mastication movement recognition step of recognizing the mastication movement of the user from the change in the position of the lower lip.
상기 저작 운동 인식 단계에서는
상기 아랫입술의 위치가 적어도 한번 이상 내려갔다 올라오면 상기 사용자가 저작 운동을 하는 것으로 판단하는 저작 운동 유도 방법. 11. The method of claim 10,
In the mastication movement recognition step,
When the position of the lower lip goes down and rises at least once, the masticatory movement inducing method for determining that the user is performing the masticatory movement.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190136599A KR102264334B1 (en) | 2019-10-30 | 2019-10-30 | Inducing method of mastication movement and a recording medium recording a program for executing thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190136599A KR102264334B1 (en) | 2019-10-30 | 2019-10-30 | Inducing method of mastication movement and a recording medium recording a program for executing thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210051391A KR20210051391A (en) | 2021-05-10 |
KR102264334B1 true KR102264334B1 (en) | 2021-06-14 |
Family
ID=75917485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190136599A KR102264334B1 (en) | 2019-10-30 | 2019-10-30 | Inducing method of mastication movement and a recording medium recording a program for executing thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102264334B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101638819B1 (en) | 2014-08-25 | 2016-07-14 | 주식회사 웨어러블헬스케어 | Gait correction system and control method for the same |
JP2017127511A (en) | 2016-01-21 | 2017-07-27 | 花浦 敏孝 | Mastication detector and eating habit management system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101198598B1 (en) * | 2011-03-28 | 2012-11-12 | 주식회사 비트컴퓨터 | In-ear type apparatus for measuring number of mastication and system for correcting abnormal mastication habit |
KR20180121225A (en) * | 2017-04-28 | 2018-11-07 | 김지훈 | Dietary guidance service system and service method using the same |
KR20180128213A (en) * | 2017-05-23 | 2018-12-03 | 김지훈 | Mastication detection health care system and health care method using the same |
-
2019
- 2019-10-30 KR KR1020190136599A patent/KR102264334B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101638819B1 (en) | 2014-08-25 | 2016-07-14 | 주식회사 웨어러블헬스케어 | Gait correction system and control method for the same |
JP2017127511A (en) | 2016-01-21 | 2017-07-27 | 花浦 敏孝 | Mastication detector and eating habit management system |
Also Published As
Publication number | Publication date |
---|---|
KR20210051391A (en) | 2021-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Picard et al. | Toward agents that recognize emotion | |
CN106227439B (en) | Device and method for capturing digitally enhanced image He interacting | |
JP6176870B2 (en) | Coding toy, block, stage, figurine toy and coding method | |
JP4877762B2 (en) | Facial expression guidance device, facial expression guidance method, and facial expression guidance system | |
TW201935186A (en) | Robot assisted interaction system and method thereof | |
CN102473320A (en) | Bringing a visual representation to life via learned input from the user | |
US20070259318A1 (en) | System for interacting with developmentally challenged individuals | |
Fernandes et al. | LIFEisGAME: A facial character animation system to help recognize facial expressions | |
EP3477433A1 (en) | Information processing device, information processing method, and computer program | |
US11219815B2 (en) | Physiological response management using computer-implemented activities | |
KR20170140705A (en) | Cognitive ability rehabilitation system using association card game and method thereof | |
KR102158910B1 (en) | Method and system for providing information of child-rearing analysing both patent and child | |
KR102264334B1 (en) | Inducing method of mastication movement and a recording medium recording a program for executing thereof | |
US20200236430A1 (en) | Method of objectively utilizing user facial expressions when viewing media presentations for evaluating a marketing campaign | |
JP7034808B2 (en) | Information processing method, information processing device and information processing system | |
Wiggins | Family mealtimes, yuckiness and the socialization of disgust responses by preschool children | |
US20190349464A1 (en) | Eliciting user interaction with a stimulus through a computing platform | |
WO2021036839A1 (en) | Camera control method and apparatus, and terminal device | |
JP6958795B1 (en) | Information processing methods, computer programs and information processing equipment | |
CN115177937A (en) | Interactive intelligent body-building mirror device | |
JP2008186075A (en) | Interactive image display device | |
CN113794799A (en) | Video processing method and device | |
TWI603303B (en) | Cognitive detection and emotional express system by nostalgic experiences | |
CN113038280A (en) | Video interaction method and device and storage medium | |
WO2018236009A1 (en) | Social network service method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |