KR102264334B1 - Inducing method of mastication movement and a recording medium recording a program for executing thereof - Google Patents

Inducing method of mastication movement and a recording medium recording a program for executing thereof Download PDF

Info

Publication number
KR102264334B1
KR102264334B1 KR1020190136599A KR20190136599A KR102264334B1 KR 102264334 B1 KR102264334 B1 KR 102264334B1 KR 1020190136599 A KR1020190136599 A KR 1020190136599A KR 20190136599 A KR20190136599 A KR 20190136599A KR 102264334 B1 KR102264334 B1 KR 102264334B1
Authority
KR
South Korea
Prior art keywords
user
movement
content
authoring
period
Prior art date
Application number
KR1020190136599A
Other languages
Korean (ko)
Other versions
KR20210051391A (en
Inventor
김지훈
Original Assignee
(주)인트인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인트인 filed Critical (주)인트인
Priority to KR1020190136599A priority Critical patent/KR102264334B1/en
Publication of KR20210051391A publication Critical patent/KR20210051391A/en
Application granted granted Critical
Publication of KR102264334B1 publication Critical patent/KR102264334B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • G06K9/00268
    • G06K9/00315
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체에 관한 것이다.
본 발명의 일례에 따른 저작 운동 유도 방법은 컨텐츠(contents)의 구동를 위해 사용자의 안면을 인식하는 안면 인식 단계; 상기 안면 인식 단계 이후, 제1 기간 동안 상기 컨텐츠가 구동되는 컨텐츠 동작 단계; 상기 제1 기간 중 상기 컨텐츠를 사용하는 사용자가 저작 운동(咀嚼運動)을 수행하는지 여부를 감지하는 감지 단계; 및 상기 제1 기간 중 상기 사용자의 저작 운동이 감지되는 경우, 상기 컨텐츠의 구동 시간을 연장하는 시간 연장 단계;를 더 포함한다.
본 발명은 전술한 저작 운동 유도 방법을 실행하기 위한 프로그램이 기록된 기록 매체로 제공될 수 있다.
The present invention relates to a method for inducing a mastication movement and a recording medium in which a program for executing the same is recorded.
Authoring motion induction method according to an example of the present invention is a face recognition step of recognizing the user's face for driving the content (contents); a content operation step in which the content is driven for a first period after the face recognition step; a sensing step of detecting whether a user who uses the content during the first period performs an authoring movement; and a time extension step of extending a driving time of the content when the authoring movement of the user is detected during the first period.
The present invention may be provided as a recording medium in which a program for executing the above-described masticatory movement induction method is recorded.

Description

저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체{Inducing method of mastication movement and a recording medium recording a program for executing thereof}A method of inducing a mastication movement and a recording medium in which a program for executing the method is recorded {Inducing method of mastication movement and a recording medium recording a program for executing thereof}

본 발명은 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체에 관한 것으로, 보다 구체적으로 식습관이 형성되는 시기의 유아의 저작 운동을 유도할 수 있는 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체에 관한 것이다.The present invention relates to a method for inducing masticatory movement and a recording medium in which a program for executing the method is recorded, and more specifically, a method for inducing a masticatory movement of infants at a time when eating habits are formed, and a program for executing the same It relates to a recording medium.

저작(mastication)은 음식물은 씹어 먹는 행위를 의미한다. 이러한 저작은 단순하게는 음식물을 소화 가능하여 삼킬 수 있는 형태로 만드는 것을 의미한다. Mastication refers to the act of chewing food. This chewing simply means making food in a form that can be digested and swallowed.

이와 같은 저작 운동은 음식물을 섭취하여 몸에 필요한 영양소를 공급하는 아주 중요한 행위이며, 건강과 직결되는 행위라 할 수 있다. 특히, 식사 중에 주의력을 분산시키는 행동, 급하게 음식물을 섭취하는 것과 같은 바르지 못한 식습관은 건강을 저해하여 소화기관의 질병, 당뇨, 고혈압, 비만을 야기하는 주된 요인이 되고 있다.This masticatory movement is a very important act of supplying nutrients necessary for the body by ingesting food, and it can be said that it is an act directly related to health. In particular, the behavior of distracting attention during meals and improper eating habits, such as consuming food in a hurry, impair health and become a major cause of diseases of the digestive system, diabetes, high blood pressure, and obesity.

때문에 영유아와 같은 어린 아이들이 어린 시절부터 바른 식습관을 가지게 교육하는 것이 매우 중요하다 할 수 있다.Therefore, it is very important to educate young children, such as infants, to have good eating habits from an early age.

그러나, 이러한 식사와 식습관이 중요함을 모든 부모들이 인지하고는 있으나, 의도대로 아이들이 식사에 집중하고, 좋은 식습관을 가지도록 가르치는 것이 용이하지 않으며, 한끼 분의 음식을 먹이는 것만으로 곤욕을 치루어야 하는 것이 현실이다.However, although all parents are aware of the importance of these meals and eating habits, it is not easy to teach children to focus on meals and have good eating habits as intended. it is a reality to

더욱이, 부모 또는 선생님들과 같이 식사를 하는 경우 대부분의 아이들이 부모 또는 선생님들의 나쁜 식습관을 모방하는 경우가 많아 의지와 다르게 좋은 식습관을 가지도록 하는 것이 곤란하다.Moreover, when eating with parents or teachers, most children imitate the bad eating habits of their parents or teachers, so it is difficult to make them have good eating habits against their will.

최근에는 일부 부모들이 아이들이 좋아하는 영상이나, 캐릭터를 이용하여 식사를 유도하는 방법을 자주 사용하고 있으나, 이러한 경우 보상심리를 통해 식사를 하게 할 순 있어도, 충분한 저작이 이루어지지 않거나, 과하게 음식물을 섭취하여 2차적인 문제를 야기하는 원인이 되고 있다. Recently, some parents often use methods to induce meals using their children's favorite images or characters. Ingestion is causing secondary problems.

본 발명은 본 발명은 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체를 제공하는데, 그 목적이 있다. An object of the present invention is to provide a method for inducing a mastication movement and a recording medium on which a program for executing the same is recorded.

본 발명의 일례에 따른 저작 운동 유도 방법은 컨텐츠(contents)의 구동를 위해 사용자의 안면을 인식하는 안면 인식 단계; 상기 안면 인식 단계 이후, 제1 기간 동안 상기 컨텐츠가 구동되는 컨텐츠 동작 단계; 상기 제1 기간 중 상기 컨텐츠를 사용하는 사용자가 저작 운동(咀嚼運動)을 수행하는지 여부를 감지하는 감지 단계; 및 상기 제1 기간 중 상기 사용자의 저작 운동이 감지되는 경우, 상기 컨텐츠의 구동 시간을 연장하는 시간 연장 단계;를 더 포함한다.Authoring motion induction method according to an example of the present invention is a face recognition step of recognizing the user's face for driving the content (contents); a content operation step in which the content is driven for a first period after the face recognition step; a sensing step of detecting whether a user who uses the content during the first period performs an authoring movement; and a time extension step of extending a driving time of the content when the authoring movement of the user is detected during the first period.

상기 제1 기간 중 상기 사용자의 저작 운동이 감지되지 않은 경우, 상기 컨텐츠의 구동을 정지하는 정지 단계;를 포함할 수 있다.and a stopping step of stopping driving of the content when the user's authoring motion is not detected during the first period.

상기 컨텐츠의 구동 시간 연장에 따라, 상기 제1 기간 이후 연속적으로 상기 컨텐츠가 제2 기간 동안 구동될 수 있다.According to the extension of the driving time of the content, the content may be continuously driven for a second period after the first period.

상기 안면 인식 단계에서, 상기 사용자는 입을 벌려 저작 운동을 수행할 수 있다.In the face recognition step, the user may perform a mastication motion by opening their mouth.

상기 안면 인식 단계에서, 상기 출력부 상에 상기 사용자의 안면이 위치하도록 하는 안면 가이드 라인과, 상기 사용자 입이 요구되는 이상으로 벌어지도록 저작 가이드 라인이 표시될 수 있다.In the face recognition step, a facial guide line for positioning the user's face on the output unit, and a chewing guide line for opening the user's mouth more than required may be displayed.

상기 컨텐츠 동작 단계에서는 상기 제1 기간 동안 동영상이 플레이될 수 있다.In the content operation step, a video may be played during the first period.

상기 제1 기간 및 제2 기간 중 적어도 하나의 시간 길이는 상기 사용자 또는 상기 사용자의 보호자에 의해 설정될 수 있다.The length of at least one of the first period and the second period may be set by the user or a guardian of the user.

상기 안면 인식 단계 이전에, 전자 장치의 출력부 상에서 동작될 컨텐츠가 선택되는 컨텐츠 선택 단계;를 더 포함할 수 있다.The method may further include a content selection step in which content to be operated on an output unit of the electronic device is selected before the face recognition step.

상기 컨텐츠 선택 단계에서, 상기 컨텐츠는 상기 전자 장치 내에 구비되어 선택되는 동영상이거나 파일 식별자 주소(Uniform Resource Locator, URL)의 입력에 의해 선택될 수 있다.In the content selection step, the content may be a moving picture provided and selected in the electronic device or may be selected by input of a file identifier address (Uniform Resource Locator, URL).

상기 감지 단계는 상기 제1 기간 동안 상기 사용자의 안면 영역을 감지하는 안면 영역 검출 단계; 상기 사용자의 안면에서 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술에 대한 특징점을 추출하는 특징점 추출 단계; 상기 아랫입술의 위치 변화로부터 상기 사용자의 저작 운동을 인식하는 저작 운동 인식 단계;를 포함할 수 있다.The detecting step may include: a face area detecting step of detecting the user's face area during the first period; a feature point extraction step of extracting a feature point for at least one of an eye, a nose, an upper lip, and a lower lip from the user's face; It may include; a mastication movement recognition step of recognizing the mastication movement of the user from the change in the position of the lower lip.

상기 저작 운동 인식 단계에서는 상기 아랫입술의 위치가 적어도 한번 이상 내려갔다 올라오면 상기 사용자가 저작 운동을 하는 것으로 판단할 수 있다.In the mastication movement recognition step, when the position of the lower lip goes down and rises at least once, it may be determined that the user is performing the mastication movement.

또한, 본 발명은 전술한 저작 운동 유도 방법을 실행하기 위한 프로그램이 기록된 기록 매체로 제공될 수 있다.In addition, the present invention may be provided as a recording medium in which a program for executing the above-described masticatory movement inducing method is recorded.

본 발명의 일례에 따른 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체는 컨텐츠의 구동을 위해, 사용자가 저작 운동을 수행하는지 여부를 감지하여, 사용자의 저작 운동이 감지되는 경우에 상기 컨텐츠의 구동 시간을 연장함으로써, 사용자의 저작 운동을 유도할 수 있다. A method for inducing authoring movement according to an example of the present invention and a recording medium in which a program for executing the method is recorded, detects whether the user performs the authoring movement in order to drive the content, and when the user's authoring movement is detected, the By extending the running time of the content, it is possible to induce the user's authoring movement.

도 1은 본 발명의 일례에 따른 저작 운동 유도 방법의 개념을 설명하기 위한 도이다.
도 2는 본 발명의 일례에 따른 저작 운동 유도 방법을 실행하는 단말기(100)의 일례를 설명하기 위한 도이다.
도 3은 도 2에 도시된 저작 운동 유도 모듈(115)을 실행시키는 앱(APP) 구조의 일례를 설명하기 위한 도이다.
도 4는 도 2에 도시된 저작 운동 유도 모듈(115)이 동작되는 방법의 일례를 설명하기 위한 플로우 차트의 일례이다.
도 5a 내지 도 5e는 도 4에 도시된 저작 운동 유도 모듈(115)이 동작되는 방법의 각 단계를 보다 구체적으로 설명하기 위한 도이다.
도 6은 컨텐츠 동작 시간 설정 및 모드 설정을 설명하기 위한 도이다.
도 7은 도 3에 도시된 감지 단계(S4)를 설명하기 위한 플로우 차트이다.
도 8a 내지 도 8c는 도 7의 각 단계를 보다 구체적으로 설명하기 위한 도이다.
도 9는 도 4에서 로봇 꾸미기 및 로봇 돌보기의 일례를 간략히 설명하기 위한 도이다.
1 is a diagram for explaining the concept of a mastication motion induction method according to an example of the present invention.
Figure 2 is a diagram for explaining an example of the terminal 100 for executing the mastication motion induction method according to an example of the present invention.
3 is a diagram for explaining an example of the structure of the app (APP) for executing the mastication exercise induction module 115 shown in FIG.
FIG. 4 is an example of a flowchart for explaining an example of a method in which the mastication motion induction module 115 shown in FIG. 2 operates.
5A to 5E are diagrams for explaining in more detail each step of the method in which the mastication motion inducing module 115 shown in FIG. 4 operates.
6 is a diagram for explaining content operation time setting and mode setting.
FIG. 7 is a flowchart for explaining the sensing step S4 shown in FIG. 3 .
8A to 8C are diagrams for explaining each step of FIG. 7 in more detail.
9 is a diagram for briefly explaining an example of decorating the robot and caring for the robot in FIG. 4 .

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명을 설명하는데 있어서, 해당 분야에 이미 공지된 기술 또는 구성에 대한 구체적인 설명을 부가하는 것이 본 발명의 요지를 불분명하게 할 수 있다고 판단되는 경우에는 상세한 설명에서 이를 일부 생략하도록 한다. 또한, 본 명세서에서 사용되는 용어들은 본 발명의 실시예들을 적절히 표현하기 위해 사용된 용어들로서, 이는 해당 분야의 관련된 사람 또는 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that adding a detailed description of a technique or configuration already known in the relevant field may make the gist of the present invention unclear, some of these will be omitted from the detailed description. In addition, the terms used in this specification are terms used to properly express the embodiments of the present invention, which may vary according to a person or custom in the relevant field. Accordingly, definitions of these terms should be made based on the content throughout this specification.

이하, 첨부된 도면을 참조하여 본 발명에 따른 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체에 대해서 설명한다.Hereinafter, a method for inducing a mastication movement according to the present invention and a recording medium in which a program for executing the method is recorded will be described with reference to the accompanying drawings.

도 1은 본 발명의 일례에 따른 저작 운동 유도 방법의 개념을 설명하기 위한 도이고, 도 2는 본 발명의 일례에 따른 저작 운동 유도 방법을 실행하는 단말기(100)의 일례를 설명하기 위한 도이다.Figure 1 is a diagram for explaining the concept of a method for inducing a mastication movement according to an example of the present invention, Figure 2 is a diagram for explaining an example of a terminal 100 for executing a method for inducing a mastication movement according to an example of the present invention .

저작(mastication)은 음식물은 씹어 먹는 행위를 의미한다. 이와 같은 저작 운동은 음식물을 섭취하여 몸에 필요한 영양소를 공급하는 아주 중요한 행위이며, 건강과 직결되는 행위라 할 수 있다. Mastication refers to the act of chewing food. This masticatory movement is a very important act of supplying nutrients necessary for the body by ingesting food, and it can be said that it is an act directly related to health.

때문에 영유아와 같은 어린 아이들이 어린 시절부터 바른 식습관을 가지게 교육하는 것이 매우 중요하다 할 수 있다.Therefore, it is very important to educate young children, such as infants, to have good eating habits from an early age.

최근에는 도 1에 도시된 바와 같이, 영유아와 같은 사용자(10)의 음식 섭취를 보다 용이하게 하기 위하여, 단말기(100)를 이용하여 아이들이 좋아하는 동영상이나, 캐릭터를 시청하도록 하면서 음식 섭취를 유도하는 경우가 많다.Recently, as shown in FIG. 1 , in order to make it easier for the user 10 such as infants to consume food, the terminal 100 is used to induce food intake while allowing children to watch their favorite videos or characters. often do

그러나, 이와 같이 동영상이나 캐릭터를 시청하도록 하면서, 음식을 섭취하는 경우, 사용자(10)는 입에 음식을 머금고 있으나, 동영상 시청 등에 몰입된 나머지 저작 운동을 하지 않고, 음식을 삼키는 경우가 많아지고 있다. 이에 따라 올바른 식습관이 형성되지 않는 경우가 많다.However, when ingesting food while watching a video or character in this way, the user 10 has food in his mouth, but is immersed in watching a video, etc. have. As a result, proper eating habits are often not formed.

본 발명은 이와 같은 문제점을 해소하고자, 저작 운동을 유도하는 방법을 제공함으로써, 사용자(10)가 단말기(100)를 이용하여 동영상 등을 시청할 때, 저작 운동을 수행해야 동영상과 같은 컨텐츠가 플레이되어 구동되도록 함으로써, 사용자(10)의 올바른 저작 습관을 향상시킬 수 있다. In order to solve this problem, the present invention provides a method of inducing an authoring movement, so that when the user 10 watches a video using the terminal 100, the content such as a video is played only when the authoring movement is performed. By allowing it to be driven, it is possible to improve the correct writing habit of the user 10 .

이를 위해, 본 발명의 일례에 따른 저작 운동 유도 방법은 컨텐츠가 구동되는 단말기(100)에 애플리케이션 형태로 설치되어 동작될 수 있다.To this end, the authoring motion inducing method according to an example of the present invention may be installed and operated in the form of an application in the terminal 100 in which the content is driven.

단말기(100)는 사용자(10)가 휴대 가능한 핸드폰 또는 스마트폰과 무선 통신 단말기(100) 형태로 구비될 수 있다. The terminal 100 may be provided in the form of a mobile phone or a smart phone and a wireless communication terminal 100 that the user 10 can carry.

그러나, 본 발명이 반드시 이에 한정되는 것은 아니고, 단말기(100)는 통신 가능한 장치라면 유선 또는 무선 통신 장치 모두 포함될 수 있고, 일례로, 카메라와 연동되는 태블릿 컴퓨터, 카메라와 연동되는 랩톱 컴퓨터, 포터블 미디어 플레이어, 개인용 디지털 단말기(100)(Personal Digital Assistant, PDA) 등을 포함할 수 있다.However, the present invention is not necessarily limited thereto, and the terminal 100 may include both wired and wireless communication devices as long as it is a communication device. For example, a tablet computer interworking with a camera, a laptop computer interworking with a camera, and portable media It may include a player, a personal digital assistant 100 (PDA), and the like.

이와 같이 저작 운동 유도 방법을 수행하는 단말기(100)는 도 2에 도시된 바와 같이, 제어부(110), 데이터 베이스부(120), 입력부(130) 및 출력부(140)를 포함할 수 있다.As shown in FIG. 2 , the terminal 100 for performing the method for inducing the masticatory movement as described above may include a control unit 110 , a database unit 120 , an input unit 130 , and an output unit 140 .

제어부(110)는 통신 모듈(111), 카메라 모듈(113), 저작 운동 유도 모듈(115)을 포함할 수 있다.The control unit 110 may include a communication module 111 , a camera module 113 , and a mastication motion induction module 115 .

통신 모듈(111)은 사용자(10)가 인터넷 네트워크 등을 통하여 외부에 위치한 컨텐츠를 선택하려고, 입력부(130)를 이용하여 파일 식별자 주소(Uniform Resource Locator, URL)의 입력하였을 때, 파일 식별자 주소에 위치한 컨텐츠가 단말기(100) 내에서 표시되도록 외부와 유선 또는 무선 통신을 수행할 수 있다.When the user 10 inputs a file identifier address (Uniform Resource Locator, URL) using the input unit 130 to select content located outside through an Internet network, etc., the communication module 111 is the file identifier address. Wired or wireless communication can be performed with the outside so that the located content is displayed in the terminal 100 .

카메라 모듈(113)은 사용자(10)가 컨텐츠를 이용하는 기간 동안, 사용자(10)를 촬영할 수 있다. 이와 같이 사용자(10)를 촬영한 촬영 정보는 영상 분석처리를 통하여 사용자(10)가 저작 운동을 하고 있는지 판별하는 데이터로 이용될 수 있다.The camera module 113 may photograph the user 10 while the user 10 uses the content. As such, the photographing information of the user 10 may be used as data for determining whether the user 10 is performing a masturbation exercise through image analysis processing.

저작 운동 유도 모듈(115)은 사용자(10)의 저작 운동을 유도하는 프로그램이 저장된 앱(Application, APP) 형태로 구비될 수 있다. The authoring exercise inducing module 115 may be provided in the form of an application (APP) in which a program for inducing the authoring movement of the user 10 is stored.

사용자(10)가 이와 같은 저작 운동 유도 모듈(115)을 실행하여, 저작 운동 유도 모듈(115) 내에서 컨텐츠를 선택하여 실행시키면, 저작 운동 유도 모듈(115)은 컨텐츠가 실행되는 동안 카메라 모듈(113)에서 촬영 정보를 입력받아 사용자(10)가 저작 운동을 하고 있는지 판별하여 컨텐츠의 구동 시간을 연장할지 여부를 결정할 수 있고, 이를 통해 사용자(10)의 저작 운동을 유도할 수 있다.When the user 10 executes such an authoring movement induction module 115, and selects and executes content in the authoring movement induction module 115, the authoring movement induction module 115 activates the camera module ( 113), it is possible to determine whether or not to extend the driving time of the contents by receiving the shooting information and determining whether the user 10 is doing the authoring exercise, and through this, the authoring movement of the user 10 can be induced.

데이터 베이스부(120)는 저작 운동 유도 모듈(115)이 실행되는 동안 카메라 모듈(113)에서 촬영된 촬영 정보를 저장하고, 저작 운동 유도 모듈(115)의 요청에 따라 촬영 정보를 저작 운동 유도 모듈(115)에 제공할 수 있다.The database unit 120 stores the photographing information photographed by the camera module 113 while the mastication movement induction module 115 is running, and records photographing information at the request of the mastication movement induction module 115 in the mastication movement induction module (115) may be provided.

입력부(130)는 단말기(100)에 구비되는 터치 패널 또는 마이크와 같은 입력 수단일 수 있으며, 저작 운동 유도 모듈(115)에서 컨텐츠를 선택할 때 이용될 수 있다.The input unit 130 may be an input means such as a touch panel or a microphone provided in the terminal 100 , and may be used when the content is selected by the authoring motion induction module 115 .

출력부(140)는 영상 또는 이미지를 표시하기 위해 단말기(100)에 구비되는 디스플레이 패널 및 스피커일 수 있으며, 저작 운동 유도 모듈(115)이 실행되고, 컨텐츠가 선택되었을 때, 해당 컨텐츠에 대한 이미지나 동영상과 소리가 출력부(140)를 통해 출력될 수 있다.The output unit 140 may be a display panel and a speaker provided in the terminal 100 to display an image or image, and when the authoring motion induction module 115 is executed and content is selected, an image for the corresponding content Alternatively, video and sound may be output through the output unit 140 .

이하에서는 전술한 저작 운동 유도 모듈(115)이 동작되는 방법에 대해 설명한다. Hereinafter, a method in which the above-described masticatory motion induction module 115 operates will be described.

도 3은 도 2에 도시된 저작 운동 유도 모듈(115)을 실행시키는 앱(APP) 구조의 일례를 설명하기 위한 도이고, 도 4는 도 2에 도시된 저작 운동 유도 모듈(115)이 동작되는 방법의 일례를 설명하기 위한 플로우 차트의 일례이고, 도 5a 내지 도 5e는 도 4에 도시된 저작 운동 유도 모듈(115)이 동작되는 방법의 각 단계를 보다 구체적으로 설명하기 위한 도이고, 도 6은 컨텐츠 동작 시간 설정 및 모드 설정을 설명하기 위한 도이다.3 is a diagram for explaining an example of the structure of the app (APP) for executing the masticatory motion induction module 115 shown in FIG. 2, and FIG. 4 is the mastication motion induction module 115 shown in FIG. 2 is operated It is an example of a flowchart for explaining an example of a method, and FIGS. 5A to 5E are diagrams for explaining each step of the method in which the masticatory motion induction module 115 shown in FIG. 4 operates in more detail, FIG. 6 is a diagram for explaining content operation time setting and mode setting.

저작 운동 유도 모듈(115)을 실행시키는 앱(APP)은 실행되면, 도 3에 도시된 바와 같이, 일례로, 로그인 이미지, 사용자(10) 선택 이미지, 사용자(10) 등록 이미지, 기본 화면 이미지, 보호자 메뉴 이미지, 영상 보기 컨텐츠, 로봇 꾸미기 컨텐츠, 로봇 돌보기 컨텐츠를 포함하여 구성될 수 있다.When the app (APP) that executes the mastication exercise induction module 115 is executed, as shown in FIG. 3 , as an example, a login image, a user 10 selection image, a user 10 registration image, a basic screen image, It may be configured to include a guardian menu image, video viewing content, robot decorating content, and robot caring content.

로그인 이미지에서는 사용자(10) 아이디와 비밀 번호를 입력할 수 있는 입력란과 회원 가입이 가능한 회원 가입란을 포함하는 이미지가 표시될 수 있다.In the login image, an image including an input field in which the user 10 ID and password can be input and a member registration field in which membership registration is possible may be displayed.

회원 가입이 된 상태의 경우, 사용자(10) 아이디와 비밀 번호를 입력하여 기본 화면 이미지로 넘어갈 수 있으며, 회원 가입이 안된 경우, 회원 가입란을 클릭하여 사용자(10) 가입을 위한 사용자(10) 선택 이미지를 선택할 수 있다.If you are a member, you can enter the user (10) ID and password to go to the basic screen image. If you are not a member, click the member registration box to select the user (10) to join the user (10) You can choose an image.

회원 가입란을 클릭할 경우, 사용자(10) 선택 이미지로 넘어가고 사용자(10) 선택에서 사용자(10)가 영유아인 경우와 사용자(10)가 보호자인 경우를 선택하여, 사용자(10) 등록 이미지로 넘어가고, 사용자(10) 등록 모드에서 영유아의 이름과 생년 월일, 보호자의 기본 정보 등을 입력할 수 있다.When clicking on the member registration box, the user 10 goes to the selected image, and in the user 10 selection, the case where the user 10 is an infant and the case where the user 10 is the guardian are selected, and the user 10 registration image is displayed. In the registration mode of the user 10 , the name, date of birth, and basic information of the guardian may be input.

로그인 화면에서 사용자(10) 아이디와 비밀 번호를 입력한 경우, 도 5에 도시된 바와 같은 기본 화면 이미지로 넘어갈 수 있다.When the user 10 ID and password are input on the login screen, the default screen image as shown in FIG. 5 may be transferred.

기본 화면 이미지에서는 설정 메뉴로 보호자 메뉴(도 5에서 보호자용 메뉴), 구동될 컨텐츠로 영상 보기, 로봇 꾸미기(도 5a에서 꾸미기 메뉴), 로봇 돌보기(도 5a에서 미니 게임 메뉴) 이미지가 표시될 수 있다.In the basic screen image, the parent menu (menu for guardians in Fig. 5) as the setting menu, the image view as the content to be driven, the robot decoration (the decoration menu in Fig. 5a), and the robot caring (mini game menu in Fig. 5a) images can be displayed have.

영상 보기 컨텐츠를 선택하면, 사용자(10)가 동영상 컨텐츠를 시청할 수 있으며, 로봇 꾸미기 메뉴를 선택하면, 미리 저장된 다양한 캐릭터를 다양한 액세서리로 꾸밀 수 있는 컨텐츠가 구동될 수 있으며, 로봇 돌보기 메뉴를 선택하면, 손씻기, 식사하기, 양치하기 등 다양한 미니 게임 컨텐츠가 구동될 수 있다.When the video view content is selected, the user 10 can watch the video content, and when the robot decorating menu is selected, the content that can decorate various pre-stored characters with various accessories can be driven, and when the robot caring menu is selected, , hand washing, eating, brushing, etc. various mini-game contents may be driven.

여기서, 사용자(10)가 영상 보기, 로봇 꾸미기(도 5a에서 꾸미기 메뉴) 및 로봇 돌보기(도 5a에서 미니 게임 메뉴)를 실행할 경우, 사용자의 저작 운동을 유도하면서, 각 컨텐츠가 수행될 수 있다.Here, when the user 10 executes viewing an image, decorating a robot (decoration menu in FIG. 5A ), and caring for a robot (mini game menu in FIG. 5A ), each content may be performed while inducing the user's authoring movement.

이하에서는 영유아인 사용자(10)가 도 5a에 도시된 기본 화면 이미지에서 영상 보기 메뉴를 선택한 경우, 저작 운동 유도 방법이 동작되는 예를 설명한다.Hereinafter, when the user 10, who is an infant, selects an image view menu from the basic screen image shown in FIG. 5A , an example in which the method for inducing a mastication exercise is operated will be described.

사용자(10)가 영상 보기 메뉴를 선택한 경우, 저작 운동 유도 방법이 동작될 수 있다.When the user 10 selects the image view menu, the method of inducing a mastication movement may be operated.

본 발명의 일례에 따른 저작 유도 동작 방법은 도 4에 도시된 바와 같이, 컨텐츠 선택 단계(S1), 안면 인식 단계(S2), 컨텐츠 동작 단계(S3), 감지 단계(S4), 정지 단계(S5), 시간 연장 단계(S6) 및 종료 단계(S7)를 포함할 수 있다.As shown in Fig. 4, the authoring induction operation method according to an example of the present invention includes a content selection step (S1), a face recognition step (S2), a content operation step (S3), a detection step (S4), a stopping step (S5) ), a time extension step (S6) and an end step (S7).

도 5a에서 영상 보기 메뉴가 선택되면, 도 4 및 도 5b에 도시된 바와 같이, 컨텐츠 선택 단계(S1)가 수행될 수 있다.When the image view menu is selected in FIG. 5A , as shown in FIGS. 4 and 5B , the content selection step S1 may be performed.

컨텐츠 선택 단계(S1)에서는 도 5b에서 전자 장치의 출력부(140) 상에서 동작될 다양한 동영상 컨텐츠가 표시되고, 표시된 컨텐츠들 중 어느 하나가 선택될 수 있다.In the content selection step S1 , various video contents to be operated on the output unit 140 of the electronic device are displayed in FIG. 5B , and any one of the displayed contents may be selected.

여기서, 도 5b에 도시된 컨텐츠는 전자 장치 내에 구비되어 선택 가능한 동영상이거나 파일 식별자 주소(Uniform Resource Locator, URL)의 입력에 의해 선택되는 동영상일 수 있다.Here, the content shown in FIG. 5B may be a selectable video provided in the electronic device or a video selected by input of a file identifier address (Uniform Resource Locator, URL).

컨텐츠 선택 단계(S1)에서, 어느 하나의 동영상 컨텐츠가 선택되면, 도 4의 안면 인식 단계(S2)가 수행될 수 있다.In the content selection step (S1), when any one video content is selected, the face recognition step (S2) of FIG. 4 may be performed.

안면 인식 단계(S2)에서는 컨텐츠의 구동를 위해 사용자(10)의 안면을 인식할 수 있다. 이를 위해, 도 5c의 (a)에 도시된 바와 같이, 안면 인식을 위한 안내 메시지가 표시되고, 확인을 클릭하면, (b)에 도시된 바와 같이, 출력부(140) 화면 상에 사용자(10)의 안면 위치를 가이드하는 안면 가이드 라인(G1)과, 사용자(10)의 입이 요구되는 이상으로 벌어지도록 저작 가이드 라인(G2)이 표시될 수 있다.In the face recognition step S2, the face of the user 10 may be recognized for driving the content. To this end, as shown in (a) of FIG. 5C, a guide message for face recognition is displayed, and when OK is clicked, the user 10 is displayed on the screen of the output unit 140 as shown in (b). ), a facial guideline (G1) for guiding the position of the face, and a chewing guideline (G2) so that the mouth of the user 10 is opened more than required may be displayed.

이와 같은 안면 인식 단계(S2)에서, 사용자(10)는 도 5c의 (c)처럼, 안면 가이드 라인(G1)과 저작 가이드 라인(G2)에 맞추어 사용자(10)의 안면이 인식되도록 단말기(100)의 위치와 방향을 조절할 수 있다.In this face recognition step (S2), the user 10, as shown in (c) of Figure 5c, the terminal 100 so that the face of the user 10 is recognized in accordance with the facial guideline (G1) and the authoring guideline (G2) ) position and direction can be adjusted.

안면 인식 단계(S2)에서는 사용자(10)가 저작 가이드 라인(G2)에 맞추어 일을 벌렸다 좁히는 저작 운동을 반복적으로 수행할 때, 사용자(10)의 안면이 인식되도록 할 수 있다. 이와 같이, 안면 인식 단계(S2)에서 인식되는 저작 운동 이미지는 추후 감지 단계(S4)에서 저작 운동을 감지하기 위한 샘플 데이터로 이용될 수 있다.In the face recognition step (S2), when the user 10 repeatedly performs a mastication movement to spread and narrow the work in accordance with the authoring guideline G2, the face of the user 10 may be recognized. In this way, the mastication motion image recognized in the face recognition step (S2) may be used as sample data for detecting the mastication motion in the later detection step (S4).

사용자(10)의 안면이 안면 가이드 라인(G1)과 저작 가이드 라인(G2)에 맞추어 인식되면, 선택된 동영상 컨텐츠가 로딩되어 도 4의 컨텐츠 동작 단계(S3)가 수행되어, 도 5d와 같이, 선택된 동영상 컨텐츠가 플레이될 수 있다.When the face of the user 10 is recognized according to the facial guideline G1 and the authoring guideline G2, the selected video content is loaded and the content operation step S3 of FIG. 4 is performed, as shown in FIG. 5d, Video content may be played.

컨텐츠 동작 단계(S3)에서는 도 5d와 같이, 선택된 동영상 컨텐츠가 제1 기간 동안 구동되어 플레이될 수 있다. 여기서 제1 기간의 시간 길이는 저작 운동 유도 모듈(115) 내에 미리 설정되거나 사용자 메뉴를 통하여, 도 6에 도시된 바와 같이, 사용자(10) 또는 사용자(10)의 보호자에 의해 선택되어 설정될 수 있다.In the content operation step S3 , as shown in FIG. 5D , the selected video content may be driven and played for the first period. Here, the time length of the first period may be preset in the mastication exercise induction module 115 or selected and set by the user 10 or the user's 10 guardian as shown in FIG. 6 through the user menu. have.

이와 같이, 컨텐츠 동작 단계(S3)가 실행되어, 선택된 동영상 컨텐츠가 도 5d와 같이 플레이되는 동안, 동영상 이미지의 모서리에는 저작 운동을 유도하는 캐릭터(G3)가 표시되어, 사용자(10)의 저작 운동을 유도할 수 있다. In this way, the content operation step (S3) is executed, and while the selected video content is played as shown in FIG. 5D , a character G3 inducing the authoring movement is displayed at the edge of the video image, and the user 10's authoring movement can induce

아울러, 감지 단계(S4)에서는 제1 기간 중 컨텐츠를 사용하는 사용자(10)가 저작 운동(咀嚼運動)을 수행하는지 여부를 단말기(100)의 카메라 모듈(113)을 통해 감지할 수 있다. In addition, in the detection step S4 , it is possible to detect whether the user 10 using the content during the first period performs the authoring movement through the camera module 113 of the terminal 100 .

즉, 감지 단계(S4)에서 사용자(10)가 선택된 동영상 컨텐츠를 시청하는 동안, 카메라 모듈(113)은 사용자(10)를 지속적으로 촬영하여, 촬영된 촬영 정보의 영상을 분석하고 이를 통해 사용자(10)가 저작 운동을 하는지 여부를 판단할 수 있다. That is, while the user 10 is watching the selected video content in the detection step S4, the camera module 113 continuously captures the user 10, analyzes the image of the captured shooting information, and through this, the user ( It can be determined whether 10) is masticating.

이와 같은 감지 단계(S4)에서 저작 운동 여부를 판단하는 방법에 대해서는 도 7 이하에서 보다 구체적으로 설명한다.A method of determining whether or not a mastication motion is performed in the sensing step S4 will be described in more detail below with reference to FIG. 7 .

만약, 감지 단계(S4)에서 제1 기간 중 사용자(10)가 저작 운동을 수행하지 않는 것으로 판단되는 경우, 도 5e와 같이, 구동 중인 동영상 컨텐츠는 제1 기간이 경과된 이후 정지되고, 도 5e와 같은 저작 운동을 유도하는 캐릭터가 표시될 수 있다. If it is determined in the detection step S4 that the user 10 does not perform the authoring exercise during the first period, as shown in FIG. 5E , the moving video content is stopped after the first period has elapsed, and FIG. 5E . A character inducing a masturbation movement, such as , may be displayed.

그리고, 감지 단계(S4)가 반복적으로 수행되어, 사용자(10)가 저작 운동을 하는지 여부를 감지하기 위해 감지 단계(S4)가 지속적으로 수행될 수 있다.And, the detection step (S4) is repeatedly performed, so that the detection step (S4) may be continuously performed to detect whether the user 10 is masturbating.

사용자(10)가 저작 운동을 수행하면, 시간 연장 단계(S6)에서 동영상 컨텐츠의 플레이 시간이 연장되어 동영상 컨텐츠가 다시 플레이될 수 있다.When the user 10 performs the authoring exercise, the play time of the video content is extended in the time extension step S6 so that the video content can be played again.

만약, 동영상 컨텐츠가 플레이되는 제1 기간 중 사용자(10)의 저작 운동이 감지되는 경우, 정지 단계(S5)를 거치지 않고, 시간 연장 단계(S6)에 의해 컨텐츠의 구동 시간이 연장될 수 있으며, 저작 운동 유도 모듈(115)은 컨텐츠의 구동 시간 연장에 따라, 제1 기간 이후 연속적으로 컨텐츠가 제2 기간 동안 구동되도록 할 수 있다.If, during the first period during which the video content is played, the authoring movement of the user 10 is detected, the driving time of the content may be extended by the time extension step S6 without going through the stopping step S5, The authoring exercise inducing module 115 may allow the content to be continuously driven for the second period after the first period according to the extension of the driving time of the content.

여기서, 제2 기간의 시간 길이는 사용자(10) 또는 사용자(10)의 보호자에 의해 설정될 수 있다. 여기서, 제2 기간의 길이는 제1 기간의 길이와 동일하거나 다를 수 있다. 본 발명에서는 제1, 2 기간의 길이가 동일하고, 제1, 2 기간의 길이는 도 6에 도시된 바와 같은 보호자 메뉴 페이지에서 설정될 수 있다.Here, the length of time of the second period may be set by the user 10 or a guardian of the user 10 . Here, the length of the second period may be the same as or different from the length of the first period. In the present invention, the lengths of the first and second periods are the same, and the lengths of the first and second periods may be set in the guardian menu page as shown in FIG. 6 .

이후, 종료 단계(S7)에서, 선택된 동영상 컨텐츠의 플레이가 종료되기 이전에는 컨텐츠 동작 단계(S3), 감지 단계(S4), 정지 단계(S5) 및 시간 연장 단계(S6)가 반복적으로 수행되고, 선택된 동영상 컨텐츠가 플레이가 종료되면, 다시 컨텐츠 선택 단계(S1)로 페이지가 이동될 수 있다.Then, in the end step (S7), before the play of the selected video content ends, the content operation step (S3), the detection step (S4), the stop step (S5), and the time extension step (S6) are repeatedly performed, When the selected video content is finished playing, the page may be moved back to the content selection step (S1).

이하에서는, 본 발명의 감지 단계(S4)에 대해 상세하게 설명한다. Hereinafter, the sensing step (S4) of the present invention will be described in detail.

도 7은 도 3에 도시된 감지 단계(S4)를 설명하기 위한 플로우 차트이고, 도 8a 내지 도 8c는 도 7의 각 단계를 보다 구체적으로 설명하기 위한 도이다.7 is a flowchart for explaining the sensing step S4 shown in FIG. 3 , and FIGS. 8A to 8C are diagrams for explaining each step of FIG. 7 in more detail.

도 7에 도시된 바와 같이, 본 발명에 따른 감지 단계(S4)의 일례는 안면 영역 검출 단계(S41), 특징점 추출 단계(S42) 및 저작 운동 인식 단계(S43)를 포함할 수 있다.As shown in FIG. 7 , an example of the detection step S4 according to the present invention may include a facial region detection step S41 , a feature point extraction step S42 , and a mastication motion recognition step S43 .

안면 영역 검출 단계(S41)에서는 도 7 및 도 8a에 도시된 바와 같이, 동영상 컨텐츠가 실행되는 제1 기간 동안, 또는 정지 단계(S5)가 실행된 기간 동안 사용자(10)의 안면 영역(SS)을 감지할 수 있다.In the facial region detection step S41 , as shown in FIGS. 7 and 8A , the facial region SS of the user 10 during the first period during which the video content is executed or during the period during which the stop step S5 is executed. can detect

특징점 추출 단계(S42)에서는 도 7 및 도 8b에 도시된 바와 같이, 사용자(10)의 안면 영역에서 특징점이 추출될 수 있다. 여기서 특징점이 추출되는 영역은 사용자(10)의 안면 중에서 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술이 위치한 영역일 수 있다. In the feature point extraction step S42 , as shown in FIGS. 7 and 8B , a feature point may be extracted from the facial region of the user 10 . Here, the region from which the feature point is extracted may be a region in which at least one of the eyes, nose, and upper lip and the lower lip are located in the face of the user 10 .

이와 같은 특징점 추출을 통하여, 사용자(10)의 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술의 위치를 인식할 수 있다.Through such feature point extraction, at least any one of the eyes, nose, and upper lip of the user 10 and the position of the lower lip may be recognized.

그러나, 본 발명은 반드시 이에 한정되는 것은 아니고, 필요한 경우에 사용자(10)의 턱이나 안면 윤곽 등 다른 부분에 대한 특징점을 추출하는 것도 가능하다. 일례로, 눈, 코, 윗입술, 아랫입술 및 및 턱끝 라인이 위치한 영역에 대한 특징점을 추출하는 것도 가능하다.However, the present invention is not necessarily limited thereto, and if necessary, it is also possible to extract feature points for other parts such as the user's 10's chin or facial contour. As an example, it is also possible to extract a feature point for an area where the eyes, nose, upper lip, lower lip, and the chin line are located.

이하에서는, 설명의 편의상 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술이 위치한 영역에 대한 특징점이 추출되는 경우를 일례로 설명한다.Hereinafter, for convenience of description, a case in which feature points for at least one of the eyes, nose, and upper lip and the region where the lower lip is located will be described as an example.

이와 같이, 사용자(10)의 특징점이 추출된 이후, 특징점의 위치 변화를 감지하여, 도 7의 저작 운동 인식 단계(S43)에서 제1 기간 동안 사용자(10)가 저작 운동을 하는지 여부를 판단한다.In this way, after the feature point of the user 10 is extracted, a change in the position of the feature point is sensed, and it is determined whether the user 10 performs the masticatory movement during the first period in the mastication motion recognition step S43 of FIG. 7 . .

여기서, 저작 운동은 도 8c에 도시된 바와 같이, 사용자(10)의 특징점으로 추출된 눈, 코, 윗입술, 아랫입술 중 아랫입술의 위치 변화로부터 사용자(10)의 저작 운동을 하는지 여부를 판단할 수 있다. Here, as shown in FIG. 8c , the masticatory movement is to determine whether or not to perform the masticatory movement of the user 10 from a change in the position of the lower lip among the eyes, nose, upper lip, and lower lip extracted as feature points of the user 10 . can

일례로, 저작 운동 인식 단계(S43)에서는 도 8c에 도시된 바와 같이, 아랫입술의 위치가 적어도 한번 이상 내려갔다 올라오면 사용자(10)가 저작 운동을 하고 있는 것으로 판단할 수 있다.For example, in the mastication movement recognition step S43 , as shown in FIG. 8C , when the position of the lower lip goes down and rises at least once, it may be determined that the user 10 is performing the mastication movement.

보다 구체적으로, 아랫입술의 위치 변화를 감지하기 위해, 도 8c의 (a)에서 저작 운동의 시점에 감지된 코끝 라인과 아랫입술 라인의 사이의 제1 간격(D1)을 감지한 이후, (b)에서와 같이, 저작 운동이 실행되면, 코끝 라인과 아랫입술 라인의 간격이 제1 간격(D1)에서 제2 간격(D2)로 증가하고, 다시 (c)에서와 같이, 코끝 라인과 아랫입술 라인의 간격이 제2 간격(D2)에서 제3 간격(D3)으로 감소할 수 있다.More specifically, in order to detect a change in the position of the lower lip, after detecting the first gap D1 between the tip of the nose and the lower lip line sensed at the time of the masticatory movement in (a) of FIG. 8C , (b) ), when the masticatory movement is executed, the interval between the nose tip line and the lower lip line increases from the first interval D1 to the second interval D2, and again as in (c), the nose tip line and the lower lip line The line spacing may decrease from the second interval D2 to the third interval D3.

이에 따라, 저작 운동의 실행되는 하나의 사이클이 완성될 수 있고, 이와 같은 저작 운동이 반복되면서, 사용자(10)가 저작 운동을 실행하는지 여부와 저작 운동의 횟수가 몇 회인지 파악이 가능하다.Accordingly, one execution cycle of the masticatory movement may be completed, and while the masticating movement is repeated, it is possible to determine whether the user 10 executes the masticating movement and how many times the masticating movement is performed.

이에 따라, 본 발명의 일례에 따른 저작 운동 유도 모듈(115)은 사용자(10)가 동영상 콘텐츠를 시청하는 동안 저작 운동을 수행하는지 파악이 가능하고, 저작 운동을 수행하면 동영상 콘텐츠를 지속적으로 시청할 수 있도록 제어하고, 저작 운동을 수행하지 않으면, 동영상 콘텐츠의 동작을 정지시킴으로써, 사용자(10)로 하여금 저작 운동이 지속적으로 수행할 수 있게 유도할 수 있다.Accordingly, the authoring movement induction module 115 according to an example of the present invention can determine whether the user 10 is performing the authoring movement while watching the video content, and if the authoring exercise is performed, the video content can be continuously viewed. control, and if the authoring movement is not performed, by stopping the operation of the video content, it is possible to induce the user 10 to continuously perform the authoring movement.

그러나, 본 발명의 저작 운동 인식 단계(S43)가 반드시 아랫입술의 위치 변화에 한정되는 것은 아니고, 저작 운동이 인식될 만한 다른 방법이 있다면 얼마든지 가능하다.However, the mastication motion recognition step (S43) of the present invention is not necessarily limited to a change in the position of the lower lip, and any other method in which the mastication motion can be recognized is possible.

다른 일례로, 보다 정확한 저작 운동 인식을 위해, 저작 운동 인식 단계(S43)에서, 아랫입술 자체의 변화가 아닌 고개를 숙이거나 들거나 하면서 생기는 변화를 제외시키기 위해 코끝 라인과 턱끝 라인에서 아랫 입술의 상대적인 위치 변화로 저작 운동 여부를 판단하는 것도 가능하다.As another example, for more accurate recognition of masticatory motion, in the mastication motion recognition step (S43), the relative of the lower lip at the tip of the nose and the tip of the chin in order to exclude changes that occur while bowing or raising the head rather than the change of the lower lip itself. It is also possible to determine whether or not masticatory movement is performed by changing the position.

더불어, 도 3 내지 도 8c에서는 사용자(10)의 저작 운동 유도 방법에 대해 영상 보기 컨텐츠, 로봇 꾸미기 컨텐츠, 로봇 돌보기 컨텐츠 중 영상 보기 컨텐츠에서 동작되는 방법을 일례로 설명하였으나, 본 발명이 반드시 이에 한정되는 것은 아니고, 로봇 꾸미기 컨텐츠 및 로봇 돌보기 컨텐츠와 같은 다른 컨텐츠에도 얼마든지 적용 가능하다.In addition, in FIGS. 3 to 8C , the method of inducing the authoring movement of the user 10 has been described as an example of a method operated in image viewing contents among video viewing contents, robot decorating contents, and robot caring contents, but the present invention is not limited thereto. However, it can be applied to other contents such as robot decorating content and robot caring content.

도 9는 도 4에서 로봇 꾸미기 및 로봇 돌보기의 일례를 간략히 설명하기 위한 도이다.9 is a diagram for briefly explaining an example of decorating the robot and caring for the robot in FIG. 4 .

일례로, 도 9에는 로봇 돌보기에 예시되는 다양한 미니 게임 중 양치 게임의 일례를 도시한 것이다.As an example, FIG. 9 shows an example of a brushing game among various mini-games exemplified in caring for a robot.

도 9에 도시된 바와 같이, 본 발명의 일례에 따른 사용자(10)의 저작 운동 유도 방법은 양치 게임에서도 칫솔을 짜는 영상 이미지(도 9의 (b)), 칫솔질을 수행하는 이미지(도 9의 (c)), 물컵으로 입을 헹구는 이미지(도 9의 (d))의 각 단계 역시 저작 운동이 수행될 때, 다른 이미지로 넘어가도록 제어할 수 있다.As shown in FIG. 9 , the method for inducing the masticating movement of the user 10 according to an example of the present invention is an image image of squeezing a toothbrush even in a brushing game (FIG. 9 (b)), an image of performing brushing (FIG. (c)), each step of the image of rinsing the mouth with a water cup (FIG. 9(d)) can also be controlled to move to another image when the mastication movement is performed.

또는, 전술한 바와 다르게, 본 발명의 일례에 따른 사용자(10)의 저작 운동 유도 방법은 사용자(10)가 저작 운동을 충실히 수행할 때, 사용자(10)의 보호자가 보상 스티커를 부여하고, 사용자(10)에 의해 부여된 보상 스티커를 이용하여, 사용자(10)가 보상 스티커를 클릭함으로 컨텐츠 구동이 가능하도록 하는 것도 가능하다.Alternatively, differently from the above, in the method for inducing the authoring movement of the user 10 according to an example of the present invention, when the user 10 faithfully performs the authoring movement, the guardian of the user 10 gives a reward sticker, and the user It is also possible to enable content driving by the user 10 clicking the reward sticker by using the reward sticker provided by (10).

이와 같이, 본 발명의 일례에 따른 저작 운동 유도 방법 및 이를 실행하기 위한 프로그램이 기록된 기록 매체는 컨텐츠의 구동을 위해, 사용자(10)가 저작 운동을 수행하는지 여부를 감지하여, 사용자(10)의 저작 운동이 감지되는 경우에 컨텐츠의 구동 시간을 연장함으로써, 사용자(10)의 저작 운동을 유도할 수 있다. As such, the method for inducing authoring movement according to an example of the present invention and the recording medium on which a program for executing the same is recorded, detects whether the user 10 performs the authoring movement for driving the content, and the user 10 By extending the driving time of the content when the authoring movement of the user 10 is detected, the authoring movement of the user 10 may be induced.

본 발명은 상술한 실시예 및 첨부한 도면에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자의 관점에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명의 범위는 본 명세서의 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.The present invention is not limited to the above-described embodiments and the accompanying drawings, and various modifications and variations will be possible from the point of view of those of ordinary skill in the art to which the present invention pertains. Accordingly, the scope of the present invention should be defined not only by the claims of the present specification, but also by those claims and their equivalents.

100: 단말기 110: 제어부
120: 데이터 베이스부 130: 입력부
140: 출력부
100: terminal 110: control unit
120: database unit 130: input unit
140: output unit

Claims (12)

단말기의 출력부로 출력될 컨텐츠(contents)의 구동을 위해 사용자의 안면을 인식하는 안면 인식 단계;
상기 안면 인식 단계 이후, 제1 기간 동안 상기 컨텐츠가 구동되는 컨텐츠 동작 단계;
상기 제1 기간 중 상기 컨텐츠를 사용하는 사용자가 저작 운동(咀嚼運動)을 수행하는지 여부를 감지하는 감지 단계; 및
상기 제1 기간 중 상기 사용자의 저작 운동이 감지되는 경우, 상기 컨텐츠의 구동 시간을 연장하는 시간 연장 단계;를 포함하고,
상기 안면 인식 단계에서,
상기 출력부 상에 상기 사용자의 안면이 위치하도록 안내하는 안면 가이드 라인과, 상기 사용자 입이 요구되는 이상으로 벌어지도록 안내하는 저작 가이드 라인이 표시되고,
상기 안면 가이드 라인에 맞추어 상기 사용자의 안면이 위치한 상태에서 상기 저작 가이드 라인에 맞추어 상기 사용자가 입을 벌려 저작 운동을 수행하면, 이후에 상기 컨텐츠 동작 단계가 수행되고,
상기 안면 인식 단계에서 상기 사용자가 수행한 저작 운동에 대한 이미지는, 상기 감지 단계에서 상기 사용자의 저작 운동을 감지하기 위한 샘플 데이터로 이용되는 저작 운동 유도 방법.
a face recognition step of recognizing a user's face in order to drive contents to be output to an output unit of the terminal;
a content operation step in which the content is driven for a first period after the face recognition step;
a sensing step of detecting whether a user who uses the content during the first period performs an authoring movement; and
a time extension step of extending the driving time of the content when the authoring movement of the user is detected during the first period;
In the face recognition step,
A facial guide line guiding the user's face to be positioned on the output unit, and a chewing guide line guiding the user's mouth to open more than required are displayed,
When the user opens his/her mouth to perform the authoring exercise in accordance with the authoring guideline in a state where the user's face is positioned in accordance with the facial guideline, the content operation step is performed thereafter,
The image for the masticatory movement performed by the user in the face recognition step is a method of inducing a mastication movement that is used as sample data for detecting the mastication movement of the user in the detection step.
제1 항에 있어서,
상기 제1 기간 중 상기 사용자의 저작 운동이 감지되지 않은 경우, 상기 컨텐츠의 구동을 정지하는 정지 단계;를 포함하는 저작 운동 유도 방법.
According to claim 1,
When the user's authoring movement is not detected during the first period, a stopping step of stopping the driving of the content; and a method for inducing authoring movement.
제2 항에 있어서,
상기 컨텐츠의 구동 시간 연장에 따라, 상기 제1 기간 이후 연속적으로 상기 컨텐츠가 제2 기간 동안 구동되는 저작 운동 유도 방법.
3. The method of claim 2,
According to the extension of the driving time of the content, the authoring movement inducing method in which the content is continuously driven for a second period after the first period.
삭제delete 삭제delete 제1 항에 있어서,
상기 컨텐츠 동작 단계에서는 상기 제1 기간 동안 동영상이 플레이되는 저작 운동 유도 방법.
According to claim 1,
In the content operation step, a method for inducing authoring movement in which a video is played during the first period.
제3 항에 있어서,
상기 제1 기간 및 제2 기간 중 적어도 하나의 시간 길이는 상기 사용자 또는 상기 사용자의 보호자에 의해 설정되는 저작 운동 유도 방법.
4. The method of claim 3,
The length of at least one of the first period and the second period is set by the user or a guardian of the user.
제1 항에 있어서,
상기 안면 인식 단계 이전에, 전자 장치의 출력부 상에서 동작될 컨텐츠가 선택되는 컨텐츠 선택 단계;를 더 포함하는 저작 운동 유도 방법.
According to claim 1,
The method further comprising: prior to the face recognition step, a content selection step in which content to be operated on an output unit of the electronic device is selected.
제8 항에 있어서,
상기 컨텐츠 선택 단계에서,
상기 컨텐츠는 상기 전자 장치 내에 구비되어 선택되는 동영상이거나 파일 식별자 주소(Uniform Resource Locator, URL)의 입력에 의해 선택되는 동영상인 저작 운동 유도 방법.
9. The method of claim 8,
In the content selection step,
The content is a moving picture provided and selected in the electronic device or a moving picture selected by input of a file identifier address (Uniform Resource Locator, URL).
제1 항에 있어서,
상기 감지 단계는
상기 제1 기간 동안 상기 사용자의 안면 영역을 감지하는 안면 영역 검출 단계;
상기 사용자의 안면에서 눈, 코 및 윗입술 중 적어도 어느 하나와, 아랫입술에 대한 특징점을 추출하는 특징점 추출 단계;
상기 아랫입술의 위치 변화로부터 상기 사용자의 저작 운동을 인식하는 저작 운동 인식 단계;를 포함하는 저작 운동 유도 방법.
According to claim 1,
The detection step
a facial region detection step of detecting a facial region of the user during the first period;
a feature point extraction step of extracting a feature point for at least one of an eye, a nose, an upper lip, and a lower lip from the user's face;
A mastication movement induction method comprising a; a mastication movement recognition step of recognizing the mastication movement of the user from the change in the position of the lower lip.
제10 항에 있어서,
상기 저작 운동 인식 단계에서는
상기 아랫입술의 위치가 적어도 한번 이상 내려갔다 올라오면 상기 사용자가 저작 운동을 하는 것으로 판단하는 저작 운동 유도 방법.
11. The method of claim 10,
In the mastication movement recognition step,
When the position of the lower lip goes down and rises at least once, the masticatory movement inducing method for determining that the user is performing the masticatory movement.
제1 항 내지 제3 항 또는 제6 항 내지 제11 항 중 어느 하나의 항에 기재된 저작 운동 유도 방법을 실행하기 위한 프로그램이 기록된 기록 매체.A recording medium in which a program for executing the method of inducing a mastication movement according to any one of claims 1 to 3 or 6 to 11 is recorded.
KR1020190136599A 2019-10-30 2019-10-30 Inducing method of mastication movement and a recording medium recording a program for executing thereof KR102264334B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190136599A KR102264334B1 (en) 2019-10-30 2019-10-30 Inducing method of mastication movement and a recording medium recording a program for executing thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190136599A KR102264334B1 (en) 2019-10-30 2019-10-30 Inducing method of mastication movement and a recording medium recording a program for executing thereof

Publications (2)

Publication Number Publication Date
KR20210051391A KR20210051391A (en) 2021-05-10
KR102264334B1 true KR102264334B1 (en) 2021-06-14

Family

ID=75917485

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190136599A KR102264334B1 (en) 2019-10-30 2019-10-30 Inducing method of mastication movement and a recording medium recording a program for executing thereof

Country Status (1)

Country Link
KR (1) KR102264334B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101638819B1 (en) 2014-08-25 2016-07-14 주식회사 웨어러블헬스케어 Gait correction system and control method for the same
JP2017127511A (en) 2016-01-21 2017-07-27 花浦 敏孝 Mastication detector and eating habit management system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101198598B1 (en) * 2011-03-28 2012-11-12 주식회사 비트컴퓨터 In-ear type apparatus for measuring number of mastication and system for correcting abnormal mastication habit
KR20180121225A (en) * 2017-04-28 2018-11-07 김지훈 Dietary guidance service system and service method using the same
KR20180128213A (en) * 2017-05-23 2018-12-03 김지훈 Mastication detection health care system and health care method using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101638819B1 (en) 2014-08-25 2016-07-14 주식회사 웨어러블헬스케어 Gait correction system and control method for the same
JP2017127511A (en) 2016-01-21 2017-07-27 花浦 敏孝 Mastication detector and eating habit management system

Also Published As

Publication number Publication date
KR20210051391A (en) 2021-05-10

Similar Documents

Publication Publication Date Title
Picard et al. Toward agents that recognize emotion
CN106227439B (en) Device and method for capturing digitally enhanced image He interacting
JP6176870B2 (en) Coding toy, block, stage, figurine toy and coding method
JP4877762B2 (en) Facial expression guidance device, facial expression guidance method, and facial expression guidance system
TW201935186A (en) Robot assisted interaction system and method thereof
CN102473320A (en) Bringing a visual representation to life via learned input from the user
US20070259318A1 (en) System for interacting with developmentally challenged individuals
Fernandes et al. LIFEisGAME: A facial character animation system to help recognize facial expressions
EP3477433A1 (en) Information processing device, information processing method, and computer program
US11219815B2 (en) Physiological response management using computer-implemented activities
KR20170140705A (en) Cognitive ability rehabilitation system using association card game and method thereof
KR102158910B1 (en) Method and system for providing information of child-rearing analysing both patent and child
KR102264334B1 (en) Inducing method of mastication movement and a recording medium recording a program for executing thereof
US20200236430A1 (en) Method of objectively utilizing user facial expressions when viewing media presentations for evaluating a marketing campaign
JP7034808B2 (en) Information processing method, information processing device and information processing system
Wiggins Family mealtimes, yuckiness and the socialization of disgust responses by preschool children
US20190349464A1 (en) Eliciting user interaction with a stimulus through a computing platform
WO2021036839A1 (en) Camera control method and apparatus, and terminal device
JP6958795B1 (en) Information processing methods, computer programs and information processing equipment
CN115177937A (en) Interactive intelligent body-building mirror device
JP2008186075A (en) Interactive image display device
CN113794799A (en) Video processing method and device
TWI603303B (en) Cognitive detection and emotional express system by nostalgic experiences
CN113038280A (en) Video interaction method and device and storage medium
WO2018236009A1 (en) Social network service method and system

Legal Events

Date Code Title Description
GRNT Written decision to grant