KR102328998B1 - Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video - Google Patents

Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video Download PDF

Info

Publication number
KR102328998B1
KR102328998B1 KR1020200035638A KR20200035638A KR102328998B1 KR 102328998 B1 KR102328998 B1 KR 102328998B1 KR 1020200035638 A KR1020200035638 A KR 1020200035638A KR 20200035638 A KR20200035638 A KR 20200035638A KR 102328998 B1 KR102328998 B1 KR 102328998B1
Authority
KR
South Korea
Prior art keywords
image
emotion
emotional
displaying
user
Prior art date
Application number
KR1020200035638A
Other languages
Korean (ko)
Other versions
KR20210119139A (en
Inventor
문지현
Original Assignee
문지현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 문지현 filed Critical 문지현
Priority to KR1020200035638A priority Critical patent/KR102328998B1/en
Publication of KR20210119139A publication Critical patent/KR20210119139A/en
Application granted granted Critical
Publication of KR102328998B1 publication Critical patent/KR102328998B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

감정 학습 및 소통 장치의 동작 방법이 제공된다. 상기 감정 학습 및 소통 장치의 동작 방법은, 감정문의 신호를 표현하는 단계, 상기 감정문의 신호에 대한 응답 신호를 수신하는 단계, 상기 응답 신호에 대응하여, 상기 응답 신호에 매칭되는 감정 이미지를 추출하는 단계, 및 상기 감정 이미지의 드로잉(drawing) 과정과 함께 상기 감정 이미지를 표시하는 단계를 포함할 있다.A method of operating an emotion learning and communication device is provided. The method of operating the emotion learning and communication device includes the steps of expressing a signal of an emotion inquiry, receiving a response signal to the signal of the emotion inquiry, and in response to the response signal, extracting an emotional image matching the response signal and displaying the emotional image together with a drawing process of the emotional image.

Description

감정 학습 및 소통 장치, 그 동작 방법, 및 동영상 추천 및 재생 방법{Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video}Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video

본 출원은 감정 학습 및 소통 장치, 그 동작 방법, 및 동영상 추천 및 재상 방법에 관련된 것으로, 보다 상세하게는, 본인의 감정을 용이하게 이해하고 표현할 수 있는 감정 학습 및 소통 장치, 및 그 동작 방법에 관련된 것이고, 다수의 동영상 중에서 목표 동영상을 자연스럽게 시청할 수 있도록 돕는 동영상 추천 및 재생 방법에 관련된 것이다.The present application relates to a device for emotion learning and communication, an operating method thereof, and a video recommendation and replay method, and more particularly, to an emotion learning and communication device capable of easily understanding and expressing one's emotions, and an operating method thereof It relates to a method of recommending and playing a video that helps to naturally watch a target video among a plurality of videos.

정서적인 안정은 남녀노소를 가리지 않고 중요하지만, 특히 유아들의 경어 발달과 성장의 핵심적인 사항이기 때문에, 특별한 관리가 필요하다. 정서적인 안정이 없다면, 학습과 발달, 그리고 합리적인 판단은 원활하지 않으며, 정서적인 안정 없이, 고차원적인 능력을 발휘하기는 어렵다. Emotional stability is important for all ages, but it requires special management, especially since it is a key issue for the development and growth of honorific language in children. Without emotional stability, learning, development, and rational judgment are not smooth, and without emotional stability, it is difficult to exert higher-order abilities.

이에 따라, 감정을 학습 및 제어하기 위한 다양한 기술들이 개발되고 있다. Accordingly, various techniques for learning and controlling emotions have been developed.

예를 들어, 대한민국 특허등록공보 10-0798956(발명의 명칭: 통화모드에서의 사용자 감정 조절을 위한 음파 제어 방법 및 장치)에는, 사용자의 의도와는 무관하게 사용자의 감정을 파악하여 이에 따른 음파를 자동 발생시킴으로써 사용자의 감정을 조절할 수 있는 음파 제어 방법 및 장치, 및 통화모드 실행에 따른 특정 조건을 이용하여 특정 조건을 이용하여 사용자의 현재 감정에 따른 음파를 발생시킬 수 있어 보다 사용자의 감정 제어에 효과적인 통화모드에서의 사용자 감정 조절을 위한 음파제어 방법 및 장치가 개시되어 있다. For example, in the Republic of Korea Patent Registration No. 10-0798956 (Title of the Invention: Sound wave control method and apparatus for controlling user emotions in call mode), regardless of the user's intention, the A sound wave control method and device that can control the user's emotions by automatically generating it, and a sound wave according to the user's current emotion using a specific condition using a specific condition according to the call mode execution. Disclosed are a sound wave control method and apparatus for controlling user emotions in an effective call mode.

다른 예를 들어, 대한민국 특허공개공보 10-2020-0010680(발명의 명칭: 기계학습 모델을 이용하여 N개의 프레임에 기초하여 대상의 감정인식을 수행하는 감정인식 시스템, 방법, 및 컴퓨터-판독가능매체)에는, 상기 대상의 기준프레임을 도출하는 기준 프레임 추출부, 상기 N개의 프레임에 대한 N개의 제1특징정보 및 상기 기준프레임에 대한 제2특징정보를 추출하는 특징정보추출부, 상기 N개의 제1특징정보 및 상기 제2특징정보에 기초하여, 학습된 순환신경망 모델에 의하여 상기 대상의 감정결과를 도출하는 감정 판별부를 포함하는 기계학습 모델을 이용하여 N개의 프레임에 기초하여 대상의 감정인식을 수행하는 감정인식 시스템이 개시되어 있다. For another example, Republic of Korea Patent Publication No. 10-2020-0010680 (Title of the invention: an emotion recognition system, method, and computer-readable medium for performing emotion recognition of an object based on N frames using a machine learning model ), a reference frame extraction unit for deriving the reference frame of the target, a characteristic information extraction unit for extracting N first characteristic information for the N frames and second characteristic information for the reference frame, and the N Based on the first characteristic information and the second characteristic information, the emotion recognition of the target based on N frames using a machine learning model including an emotion determining unit that derives the emotion result of the target by the learned recurrent neural network model. An emotion recognition system for performing is disclosed.

본 출원이 해결하고자 하는 일 기술적 과제는, 감정 학습 및 소통 장치, 및 그 동작 방법을 제공하는 데 있다. One technical problem to be solved by the present application is to provide an emotion learning and communication device, and an operating method thereof.

본 출원이 해결하고자 하는 다른 기술적 과제는, 사용자가 본인의 감정을 용이하게 이해하고 표현할 수 있는 감정 학습 및 소통 장치, 및 그 동작 방법을 제공하는 데 있다. Another technical problem to be solved by the present application is to provide an emotion learning and communication device that allows a user to easily understand and express their emotions, and an operating method thereof.

본 출원이 해결하고자 하는 또 다른 기술적 과제는, 사용자가 본인의 감정과 타인과 용이하게 소통 및 교류할 수 있는 감정 학습 및 소통 장치, 및 그 동작 방법을 제공하는 데 있다. Another technical problem to be solved by the present application is to provide an emotion learning and communication device that allows a user to easily communicate and interact with their emotions and others, and an operating method thereof.

본 출원이 해결하고자 하는 또 다른 기술적 과제는, 유아의 감정 및 정서 발달용 감정 학습 및 소통 장치, 및 그 동작 방법을 제공하는 데 있다. Another technical problem to be solved by the present application is to provide an emotional learning and communication device for emotional and emotional development of infants, and an operation method thereof.

본 출원이 해결하고자 하는 또 다른 기술적 과제는, 동영상 추천 및 재생 방법을 제공하는 데 있다.Another technical problem to be solved by the present application is to provide a video recommendation and playback method.

본 출원이 해결하고자 하는 또 다른 기술적 과제는, 복수의 동영상 중에서 지정된 목표 동영상을 사용자가 자연스럽게 시청할 수 있도록 유도하는 동영상 추천 및 재생 방법을 제공하는 데 있다. Another technical problem to be solved by the present application is to provide a video recommendation and playback method for inducing a user to naturally view a specified target video among a plurality of videos.

본 출원이 해결하고자 하는 또 다른 기술적 과제는, 단말기에서 구동되는 어플리케이션의 동영상 추천 및 재생 방법을 제공하는 데 있다. Another technical problem to be solved by the present application is to provide a method for recommending and playing a video of an application running in a terminal.

본 출원이 해결하고자 하는 또 다른 기술적 과제는, 유아용 동영상 추천 및 재생 방법을 제공하는 데 있다.Another technical problem to be solved by the present application is to provide a method for recommending and playing a video for infants.

본 출원이 해결하고자 하는 기술적 과제는 상술된 것에 제한되지 않는다. The technical problem to be solved by the present application is not limited to the above.

상기 기술적 과제를 해결하기 위해, 본 출원은 감정 학습 및 소통 장치의 동작 방법을 제공한다. In order to solve the above technical problem, the present application provides a method of operating an emotion learning and communication device.

일 실시 예에 따르면, 상기 감정 학습 및 소통 장치의 동작 방법은, 감정문의 신호를 표현하는 단계, 상기 감정문의 신호에 대한 응답 신호를 수신하는 단계, 상기 응답 신호에 대응하여, 상기 응답 신호에 매칭되는 감정 이미지를 추출하는 단계, 및 상기 감정 이미지의 드로잉(drawing) 과정과 함께 상기 감정 이미지를 표시하는 단계를 포함할 수 있다. According to an embodiment, the method of operating the emotion learning and communication apparatus includes expressing a signal of an emotion inquiry, receiving a response signal to the signal of the emotion inquiry, and matching the response signal in response to the response signal It may include extracting the emotional image to become, and displaying the emotional image together with a drawing process of the emotional image.

일 실시 예에 따르면, 상기 응답 신호에 매칭되는 상기 감정 이미지를 추출하는 단계는, 상기 응답 신호에 포함된 문장을 파싱(parsing)하여, 상기 응답 신호로부터 감정 표현 문구를 추출하는 단계, 및 복수의 이미지가 저장된 이미지 데이터베이스로부터, 상기 감정 표현 문구에 대응하는 상기 감정 이미지를 추출하는 단계를 포함할 수 있다. According to an embodiment, the extracting of the emotional image matching the response signal may include parsing a sentence included in the response signal, extracting an emotional expression phrase from the response signal, and a plurality of It may include extracting the emotional image corresponding to the emotional expression phrase from the image database in which the image is stored.

상기 기술적 과제를 해결하기 위해 본 출원은 감정 학습 및 소통 장치를 제공한다. In order to solve the above technical problem, the present application provides an emotional learning and communication device.

일 실시 예에 따르면, 상기 감정 학습 및 소통 장치는, 감정문의 신호를 표현하는 감정문의부, 상기 감정문의 신호에 대한 응답 신호를 수신하는 수신부, 상기 응답 신호에 대응하여, 상기 응답 신호에 매칭되는 감정 이미지를 추출하는 감정 이미지 추출부, 및 상기 감정 이미지의 드로잉 과정과 함께 상기 감정 이미지를 표시하는 표시부를 포함할 수 있다. According to an embodiment, the emotion learning and communication device includes an emotion inquiry unit expressing a signal of an emotion inquiry, a receiving unit receiving a response signal to the emotion inquiry signal, and matching the response signal in response to the response signal It may include an emotional image extracting unit for extracting an emotional image, and a display unit for displaying the emotional image together with a drawing process of the emotional image.

일 실시 예에 따르면, 상기 감정문의부는, 시각적 또는 음성적 표현으로, 상기 감정문의 신호를 표현하고, 상기 수신부는, 전기적 신호 또는 음성적 표현의 상기 응답 신호를 수신하는 것을 포함할 수 있다. According to an embodiment, the emotion inquiry unit may include a visual or audio expression to express the emotion inquiry signal, and the receiving unit may include receiving the response signal of an electrical signal or a voice expression.

상기 기술적 과제를 해결하기 위해, 본 출원은 동영상 추천 및 재생 방법을 제공한다. In order to solve the above technical problem, the present application provides a video recommendation and playback method.

일 실시 예에 따르면, 단말기에서 구동되는 어플리케이션의 상기 동영상 추천 및 재생 방법으로, 상기 동영상 추천 및 재생 방법은, 목표 동영상을 포함하는 추천 동영상 목록을 표시하는 단계, 및 상기 추천 동영상 목록 중에서 상기 목표 동영상 외에 다른 동영상이 선택된 경우, 선택된 동영상을 재생하는 동시에 상기 목표 동영상을 포함하는 업데이트된 추천 동영상 목록을 제시하고, 상기 목표 동영상이 선택된 경우, 상기 목표 동영상을 재생하는 단계를, 상기 목표 동영상이 선택될 때까지 반복하는 단계를 포함할 수 있다. According to an embodiment, as the video recommendation and playback method of an application running on a terminal, the video recommendation and playback method includes displaying a list of recommended videos including a target video, and the target video from among the list of recommended videos. If another video is selected, presenting an updated list of recommended videos including the target video while playing the selected video, and playing the target video when the target video is selected; It may include repeating steps until

일 실시 예에 따르면, 업데이트전 상기 추천 동영상 목록과 비교하여, 상기 업데이트된 추천 동영상 목록에서 상기 목표 동영상은 상위에 랭크(rank)되고, 상기 목표 동영상은 노래에 맞춰 율동을 표현하는 동영상이고, 상기 목표 동영상이 재생되는 경우, 상기 단말기의 전면 카메라가 동작하여 촬영되고, 상기 목표 동영상과 함께, 상기 목표 동영상의 율동을 모방하는 타인의 동영상, 및 상기 단말기의 상기 전면 카메라에 의해 촬영 중인 동영상을 표시하는 것을 포함할 수 있다. According to an embodiment, compared with the list of recommended videos before the update, the target video is ranked higher in the updated list of recommended videos, the target video is a video expressing a movement in accordance with a song, and the When the target video is played, the front camera of the terminal operates and is photographed, and along with the target video, a video of another person imitating the movement of the target video and a video being recorded by the front camera of the terminal are displayed may include doing

본 출원의 실시 예에 따른 감정 학습 및 소통 장치의 동작 방법은, 감정문의 신호를 표현하는 단계, 상기 감정문의 신호에 대한 응답 신호를 수신하는 단계, 상기 응답 신호에 대응하여, 상기 응답 신호에 매칭되는 감정 이미지를 추출하는 단계, 및 상기 감정 이미지의 드로잉(drawing) 과정과 함께 상기 감정 이미지를 표시하는 단계를 포함할 있다. 이에 따라, 본인의 감정을 용이하게 이해하고 타인과 소통 및 교류할 수 있는 감정 학습 및 소통 장치가 제공될 수 있다. 특히, 감정 표현이 서툰 유아의 감정 및 정서 발달시킬 수 있는 감정 학습 및 소통 장치가 제공될 수 있다.The method of operating an emotion learning and communication apparatus according to an embodiment of the present application includes the steps of expressing a signal of an emotion inquiry, receiving a response signal to the signal of the emotion inquiry, in response to the response signal, matching the response signal It may include extracting the emotional image to become, and displaying the emotional image together with a drawing process of the emotional image. Accordingly, an emotional learning and communication device capable of easily understanding one's emotions and communicating and interacting with others may be provided. In particular, there may be provided an emotional learning and communication device capable of developing the emotions and emotions of an infant who is not good at expressing emotions.

또한, 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법은, 목표 동영상을 포함하는 추천 동영상 목록을 표시하는 단계, 및 상기 추천 동영상 목록 중에서 상기 목표 동영상 외에 다른 동영상이 선택된 경우, 선택된 동영상을 재생하는 동시에 상기 목표 동영상을 포함하는 업데이트된 추천 동영상 목록을 제시하고, 상기 목표 동영상이 선택된 경우, 상기 목표 동영상을 재생하는 단계를, 상기 목표 동영상이 선택될 때까지 반복하는 단계를 포함할 수 있다. 이에 따라, 상기 단말기의 사용자는 상기 목표 동영상을 자연스럽게 시청할 수 있고, 상기 단말기 사용자의 상기 목표 동영상의 콘텐츠에 대한 관심을 향상시킬 수 있다. In addition, the video recommendation and playback method according to an embodiment of the present application includes displaying a list of recommended videos including a target video, and playing the selected video when a video other than the target video is selected from the list of recommended videos. At the same time, it may include presenting an updated list of recommended videos including the target video, and repeating the step of playing the target video when the target video is selected until the target video is selected. Accordingly, the user of the terminal can naturally view the target video, and the terminal user's interest in the content of the target video can be improved.

도 1은 본 출원의 실시 예에 따른 감정 학습 및 소통 장치의 동작 방법을 설명하기 위한 순서도이다.
도 2는 본 출원의 실시 예에 따른 감정 학습 및 소통 장치를 설명하기 위한 블록도이다.
도 3은 본 출원의 실시 예에 따른 감정 학습 및 소통 장치 및 그 동작 방법에서 응답 신호로부터 감정 표현 문구를 추출하는 단계를 설명하기 위한 도면이다.
도 4는 본 출원의 실시 예에 따른 감정 학습 및 소통 장치 및 그 동작 방법에서 감정 이미지의 드로잉 과정을 설명하기 위한 도면이다.
도 5는 본 출원의 실시 예의 변형 예에 따른 감정 학습 및 소통 장치 및 그 동작 방법에서 감정 이미지를 설명하기 위한 도면이다.
도 6은 본 출원의 실시 예에 따른 감정 학습 및 소통 장치 및 그 동작 방법에서 감정문의 신호를 표현하는 것을 설명하기 위한 도면이다.
도 7은 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법을 설명하기 위한 순서도이다.
도 8은 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법을 설명하기 위한 블록도이다.
도 9는 내지 도 11은 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법의 추천 동영상 목록 및 목표 동영상 재생 과정을 설명하기 위한 도면들이다.
1 is a flowchart illustrating an operation method of an emotion learning and communication apparatus according to an embodiment of the present application.
2 is a block diagram illustrating an emotion learning and communication apparatus according to an embodiment of the present application.
3 is a view for explaining the step of extracting an emotion expression phrase from a response signal in the emotion learning and communication apparatus and the operation method according to an embodiment of the present application.
4 is a view for explaining a drawing process of an emotion image in the emotion learning and communication apparatus and the operating method thereof according to an embodiment of the present application.
5 is a diagram for explaining an emotion image in an emotion learning and communication apparatus and an operating method thereof according to a modified example of an embodiment of the present application.
6 is a diagram for explaining expressing a signal of an emotion inquiry in an emotion learning and communication apparatus and an operating method thereof according to an embodiment of the present application.
7 is a flowchart illustrating a video recommendation and playback method according to an embodiment of the present application.
8 is a block diagram illustrating a video recommendation and playback method according to an embodiment of the present application.
9 to 11 are diagrams for explaining a recommended video list and a target video playback process of a video recommendation and playback method according to an embodiment of the present application.

이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명할 것이다. 그러나 본 발명의 기술적 사상은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예는 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the technical spirit of the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. In this specification, when a component is referred to as being on another component, it may be directly formed on the other component or a third component may be interposed therebetween. In addition, in the drawings, thicknesses of films and regions are exaggerated for effective description of technical content.

또한, 본 명세서의 다양한 실시 예 들에서 제1, 제2, 제3 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에 제 1 구성요소로 언급된 것이 다른 실시 예에서는 제 2 구성요소로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함한다. 또한, 본 명세서에서 '및/또는'은 전후에 나열한 구성요소들 중 적어도 하나를 포함하는 의미로 사용되었다.In addition, in various embodiments of the present specification, terms such as first, second, third, etc. are used to describe various components, but these components should not be limited by these terms. These terms are only used to distinguish one component from another. Accordingly, what is referred to as a first component in one embodiment may be referred to as a second component in another embodiment. Each embodiment described and illustrated herein also includes a complementary embodiment thereof. In addition, in the present specification, 'and/or' is used to mean including at least one of the elements listed before and after.

명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 구성요소 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 구성요소 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하는 것으로 이해되어서는 안 된다. 또한, 본 명세서에서 "연결"은 복수의 구성 요소를 간접적으로 연결하는 것, 및 직접적으로 연결하는 것을 모두 포함하는 의미로 사용된다. In the specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as "comprise" or "have" are intended to designate that a feature, number, step, element, or a combination thereof described in the specification is present, and one or more other features, numbers, steps, configuration It should not be construed as excluding the possibility of the presence or addition of elements or combinations thereof. Also, in the present specification, the term “connection” is used to include both indirectly connecting a plurality of components and directly connecting a plurality of components.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다.In addition, in the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

본 출원의 실시 예에 따른 감정 학습 및 소통 장치, 및 그 동작 방법이, 도 1 내지 도 6을 참조하여 설명된다. An emotion learning and communication apparatus, and an operating method thereof, according to an embodiment of the present application will be described with reference to FIGS. 1 to 6 .

도 1은 본 출원의 실시 예에 따른 감정 학습 및 소통 장치의 동작 방법을 설명하기 위한 순서도이고, 도 2는 본 출원의 실시 예에 따른 감정 학습 및 소통 장치를 설명하기 위한 블록도이고, 도 3은 본 출원의 실시 예에 따른 감정 학습 및 소통 장치 및 그 동작 방법에서 응답 신호로부터 감정 표현 문구를 추출하는 단계를 설명하기 위한 도면이고, 도 4는 본 출원의 실시 예에 따른 감정 학습 및 소통 장치 및 그 동작 방법에서 감정 이미지의 드로잉 과정을 설명하기 위한 도면이고, 도 5는 본 출원의 실시 예의 변형 예에 따른 감정 학습 및 소통 장치 및 그 동작 방법에서 감정 이미지를 설명하기 위한 도면이고, 도 6은 본 출원의 실시 예에 따른 감정 학습 및 소통 장치 및 그 동작 방법에서 감정문의 신호를 표현하는 것을 설명하기 위한 도면이다. 1 is a flowchart for explaining an operation method of an emotion learning and communication apparatus according to an embodiment of the present application, FIG. 2 is a block diagram for explaining an emotion learning and communication apparatus according to an embodiment of the present application, FIG. 3 is a view for explaining the step of extracting an emotion expression phrase from a response signal in the emotion learning and communication apparatus and the operation method according to the embodiment of the present application, Figure 4 is the emotion learning and communication apparatus according to the embodiment of the present application And it is a view for explaining a drawing process of an emotional image in its operation method, FIG. 5 is a diagram for explaining an emotional image in an emotion learning and communication apparatus and an operation method thereof according to a modified example of an embodiment of the present application, FIG. 6 is a diagram for explaining expressing a signal of an emotion inquiry in an emotion learning and communication apparatus and an operation method thereof according to an embodiment of the present application.

도 1 내지 도 6을 참조하면, 감정문의 신호(EIS)가 표현될 수 있다(S110). 상기 감정문의 신호(EIS)는, 본 출원의 실시 예에 따른 감정 학습 및 소통 장치에 포함된 감정 문의부(110)에 의해 표현될 수 있다. 1 to 6 , an emotion inquiry signal EIS may be expressed ( S110 ). The emotion inquiry signal EIS may be expressed by the emotion inquiry unit 110 included in the emotion learning and communication apparatus according to an embodiment of the present application.

본 출원의 실시 예에 따른 감정 학습 및 소통 장치는, 챗봇(chatbot)일 수 있다. 즉, 상기 감정 학습 및 소통 장치는, 감정과 관련된 다양한 빅데이터를 저장 및 관리하고 업데이트하여, 데이터 베이스를 구축하고, 인공 지능 및 기계학습을 통해 이를 활용하여 사용자와 소통하는 챗봇일 수 있다. The emotion learning and communication apparatus according to an embodiment of the present application may be a chatbot. That is, the emotion learning and communication device may be a chatbot that stores, manages, and updates various big data related to emotion, builds a database, and uses it through artificial intelligence and machine learning to communicate with the user.

상기 감정 문의부(110)는, 시각적 또는 음성적인 표현으로 상기 감정문의 신호(EIS)를 표현할 수 있다. 예를 들어, 상기 감정문의 신호(EIS)가 시각적인 표현인 경우, 상기 감정 문의부(110)는, 그림, 문자, 또는 기호 등을 이용하여, 사용자의 감정을 문의할 수 있다. 구체적으로 예를 들어, 도 6에 도시된 바와 같이, 상기 감정 문의부(110)는 감정을 표현할 수 있는 복수의 이모티콘을 사용자에게 제시하는 방법으로, 사용자의 감정을 문의할 수 있다. 이 경우, 상기 감정 문의부(110)는 표시 장치를 포함할 수 있다. The emotion inquiry unit 110 may express the emotion inquiry signal EIS in a visual or voice expression. For example, when the emotion inquiry signal EIS is a visual expression, the emotion inquiry unit 110 may inquire about the user's emotion using a picture, text, or symbol. Specifically, for example, as shown in FIG. 6 , the emotion inquiry unit 110 may inquire about the user's emotion by presenting a plurality of emoticons capable of expressing emotion to the user. In this case, the emotion inquiry unit 110 may include a display device.

또는, 다른 예를 들어, 상기 감정 문의 신호(EIS)가 음성적인 표현인 경우, 상기 감정 문의부(110)는 소리를 통해 사용자의 감정을 문의할 수 있다. 이 경우, 상기 감정 문의부(110)는 스피커를 포함할 수 있다. Alternatively, as another example, when the emotion inquiry signal EIS is a voice expression, the emotion inquiry unit 110 may inquire about the user's emotion through sound. In this case, the emotion inquiry unit 110 may include a speaker.

구체적으로 아래 <예시 1>과 같이, 사용자가 사용하는 언어로 사용자의 감정을 직접적으로 문의할 수 있다. 또는, 다른 예를 들어, 상기 감정 문의부(110)는 사용자가 사용하는 언어로 사용자의 감정을 간접적으로 문의할 수 있다. 구체적으로, 아래 <예시 2>와 같이, 사용자가 유아인 경우, 유아가 선호하는 캐릭터의 감정을 문의하는 방법으로, 사용자인 유아의 감정을 문의할 수 있다. Specifically, as shown in <Example 1> below, the user's emotions may be directly inquired in the language used by the user. Alternatively, as another example, the emotion inquiry unit 110 may indirectly inquire about the user's emotion in the language used by the user. Specifically, as shown in <Example 2> below, when the user is an infant, the emotion of the infant who is the user may be inquired as a method of inquiring about the emotion of the character preferred by the infant.

<예시 1><Example 1>

당신의 기분은 어떠 한가요?How are you feeling?

<예시 2><Example 2>

뽀로로는 오늘 기분이 어땠을까요?How was Pororo today?

또는, 또 다른 예를 들어, 상기 감정 문의부(110)는, 음성적인 표현 및 시각적인 표현으로 동시에, 사용자에게 감정 문의 신호(EIS)를 표현할 수 있다. Alternatively, as another example, the emotion inquiry unit 110 may simultaneously express the emotion inquiry signal EIS to the user through a voice expression and a visual expression.

상기 감정문의 신호(EIS)에 대한 응답 신호(RS)가 수신된다(S120). 상기 응답 신호(RS)는, 본 출원의 실시 예에 따른 감정 학습 및 소통 장치에 포함된 수신부(120)에 의해 수신될 수 있다. 상기 수신부(120)는 터치스크린패널을 갖는 표시 장치 또는 마이크일 수 있다.A response signal RS to the emotional inquiry signal EIS is received (S120). The response signal RS may be received by the receiver 120 included in the emotion learning and communication apparatus according to an embodiment of the present application. The receiver 120 may be a display device having a touch screen panel or a microphone.

일 실시 예에 따르면, 상기 감정문의 신호(EIS)를 표현하기 전, 사용자가 감정을 학습하는 단계가 선행될 수 있다. 구체적으로, 사진, 음성, 영상 등의 컨텐츠를 이용하여, 사용자가 본인의 감정을 용이하게 이해할 수 있도록, 사용자가 본인의 감정을 학습하는 단계가 선행될 수 있다. 예를 들어, 사용자가 영유아인 경우, 영유아 발달사항에 적합한 매체를 통해서 영유가가 본인의 감정을 이해하는 단계가 선행될 수 있다. 구체적으로, 상기 감정 학습 및 소통 장치에 포함된 카메라가 구동되고, 상기 카메라를 통해 영유아의 얼굴 표정이 인식되고, 인식된 영유아의 얼굴 표정을 통해서 영유아가 본인의 감정을 학습할 수 있다. 영유아가 웃고 있는 표정인 인식된 경우, 아래의 <예시 3>과 같은 문구를 표시하되, "컨텐츠 1"에 웃고 있는 사진 또는 영상을 표시하고, "컨텐츠 1"에 대응하는 감정 표현 단어를 기재할 수 있다. According to an embodiment, before expressing the emotion inquiry signal EIS, the step of learning the emotion by the user may be preceded. Specifically, the step of the user learning his/her emotions may be preceded so that the user can easily understand his/her emotions by using contents such as photos, voices, and images. For example, when the user is an infant, the step of understanding the child's emotions through a medium suitable for the development of infants and toddlers may be preceded. Specifically, a camera included in the emotion learning and communication device is driven, a facial expression of an infant is recognized through the camera, and the infant can learn their emotions through the recognized facial expression of the infant. If it is recognized that an infant is smiling, a phrase such as <Example 3> below is displayed, but a smiling photo or video is displayed in "Content 1", and an emotional expression word corresponding to "Content 1" is written. can

<예시 3><Example 3>

"표정이 (컨텐츠 1) 오늘 기분이 (좋아)?"“How do you feel (content 1) today?”

상기 응답 신호(RS)는, 상기 감정문의 신호(EIS)에 대한 사용자의 응답으로, 사용자의 감정을 표현하는 정보가 포함될 수 있다. 예를 들어, 상술된 바와 같이, 상기 감정 문의부(110)가 감정을 표현할 수 있는 복수의 이모티콘을 사용자에게 제시하는 방법으로 사용자의 감정을 문의하고, 사용자가 제시된 상기 복수의 이모티콘 중에서 어느 하나의 이모티콘을 선택하였다면, 사용자가 선택한 이모티콘이 상기 응답 신호(RS)일 수 있다. 이 경우, 상기 수신부(120)는 터치스크린패널을 포함할 수 있고, 상기 복수의 이모티콘의 제시 및 사용자의 선택은 터치스크린패널을 이용하여 수행될 수 있다. The response signal RS is a response of the user to the emotion inquiry signal EIS, and information expressing the user's emotions may be included. For example, as described above, the emotion inquiry unit 110 inquires about the user's emotion by presenting a plurality of emoticons capable of expressing emotion to the user, and the user selects any one of the plurality of emoticons presented by the user. If the emoticon is selected, the emoticon selected by the user may be the response signal RS. In this case, the receiver 120 may include a touch screen panel, and presentation of the plurality of emoticons and selection of the user may be performed using the touch screen panel.

또는, 다른 예를 들어, 상기 감정 문의부(110)가 소리를 통해 사용자의 감정을 문의한 경우 사용자는 본인의 감정을 말로 표현할 수 있고, 사용자가 말한 문장 또는 단어가 상기 응답 신호(RS)일 수 있다. 이 경우, 상기 감정문의 신호(EIS)의 표현 및 상기 응답 신호(RS)의 수신은 마이크를 이용하여 수행될 수 있다. Alternatively, for another example, when the emotion inquiry unit 110 inquires about the user's emotion through sound, the user can express his or her feelings verbally, and the sentence or word spoken by the user is the response signal (RS). can In this case, the expression of the emotion inquiry signal EIS and the reception of the response signal RS may be performed using a microphone.

또는, 또 다른 예를 들어, 상술된 바와 같이, 상기 감정 문의부(110)가 감정을 표현할 수 있는 복수의 이모티콘을 사용자에게 제시하는 방법으로 상기 감정 문의 신호(EIS)를 표현한 경우, 사용자는 본인의 감정을 말로 표현하여 상기 응답 신호(RS)를 상기 수신부(120)로 전달할 수 있다. Alternatively, as another example, as described above, when the emotion inquiry signal EIS is expressed by the emotion inquiry unit 110 by presenting a plurality of emoticons capable of expressing emotions to the user, the user It is possible to express the emotion of , and transmit the response signal RS to the receiver 120 .

또는, 또 다른 예를 들어, 상술된 바와 같이, 상기 감정 문의부(110)가, 음성적인 표현 및 시각적인 표현(복수의 이모티콘 제시)으로 동시에, 사용자에게 감정 문의 신호(EIS)를 표현한 경우, 사용자는 본인의 감정을 상기 복수의 이모티콘 중에서 어느 하나의 이모티콘을 선택하는 방법으로 상기 응답 신호(RS)를 상기 수신부(120)로 전달하거나, 사용자는 본인의 감정을 말로 표현하여 상기 응답 신호(RS)를 상기 수신부(120)로 전달할 수 있다.Or, for another example, as described above, when the emotion inquiry unit 110 expresses the emotion inquiry signal (EIS) to the user at the same time as a voice expression and a visual expression (presenting a plurality of emoticons), The user transmits the response signal RS to the receiving unit 120 by selecting any one emoticon from among the plurality of emoticons, or the user expresses his or her emotions verbally to the response signal RS ) may be transmitted to the receiver 120 .

상기 응답 신호(RS)에 대응하여, 상기 응답 신호(RS)에 매칭되는 감정 이미지(EI)가 추출될 수 있다(S130). In response to the response signal RS, an emotional image EI matching the response signal RS may be extracted (S130).

사용자가 상기 응답 신호(RS)를 상기 수신부(120)로 전달한 경우, 상기 수신부(120)는 상기 응답 신호(RS)를 수신하여, 본 출원의 실시 예에 따른 감정 학습 및 소통 장치에 포함된 감정 이미지 추출부(130)로 전달할 수 있다. When the user transmits the response signal RS to the receiver 120, the receiver 120 receives the response signal RS, and the emotion included in the emotion learning and communication apparatus according to an embodiment of the present application. may be transmitted to the image extraction unit 130 .

상기 감정 이미지 추출부(130)는, 상기 응답 신호(RS)를 이용하여, 상기 이미지 데이터 베이스(135)로부터 상기 감정 이미지(EI)를 추출할 수 있다. 상기 이미지 데이터베이스(135)는 감정 표현 문구와 대응되는 복수의 이미지를 저장할 수 있다. 상기 이미지 데이터 베이스(135)는, 본 출원의 실시 예에 따른 감정 학습 및 소통 장치에 포함된 기술적 구성일 수 있고, 또는, 본 출원의 실시 예에 따른 감정 학습 및 소통 장치와 통신하는 외부의 데이터베이스일 수 있다. The emotional image extractor 130 may extract the emotional image EI from the image database 135 by using the response signal RS. The image database 135 may store a plurality of images corresponding to the emotional expression phrase. The image database 135 may be a technical configuration included in the emotion learning and communication device according to the embodiment of the present application, or an external database communicating with the emotion learning and communication device according to the embodiment of the present application can be

상술된 바와 같이, 상기 응답 신호(RS)가, 상기 감정 문의부(110)에서 제시된 상기 복수의 이모티콘 중에서 어느 하나를 선택하는 방법으로 생성된 경우, 상기 감정 이미지 추출부(130)는, 선택된 이모티콘에 대응되는 상기 감정 이미지(EI)를 상기 이미지 데이터 베이스(135)로부터 추출할 수 있다. As described above, when the response signal RS is generated by selecting any one of the plurality of emoticons presented by the emotion inquiry unit 110, the emotion image extraction unit 130 may The emotional image EI corresponding to may be extracted from the image database 135 .

또는, 상기 응답 신호(RS)를 사용자가 말로서 표현한 경우, 상기 감정 이미지 추출부(130)는, 상기 응답 신호(RS)에 포함된 문장을 파싱(parsing)하여, 상기 응답 신호(RS)로부터 감정 표현 문구를 추출하고, 상기 이미지 데이터 베이스(135)로부터, 상기 감정 표현 문구에 대응하는 상기 감정 이미지(EI)를 추출할 수 있다. Alternatively, when the user expresses the response signal RS in words, the emotion image extraction unit 130 parses the sentence included in the response signal RS, and the emotion from the response signal RS The expression phrase may be extracted, and the emotion image EI corresponding to the emotion expression phrase may be extracted from the image database 135 .

예를 들어, 도 3의 (a)와 같이, 사용자가 "젤리 먹어서 기분이 좋아"라고 상기 응답 신호(RS)를 표현한 경우, 상기 수신부(120)는 "젤리 먹어서 기분이 좋아"라는 상기 응답 신호(RS)를 상기 감정 이미지 추출부(130)로 전달하고, 상기 감정 이미지 추출부(130)는, "젤리 먹어서 기분이 좋아"를 "젤리", "먹다", 좋다" 등으로 파싱하고, 파싱된 문구 중에서 상기 감정 표현 문구에 해당하는 "좋다"를 추출할 수 있다. 이 경우, 상기 감정 이미지 추출부(130)는, "좋다"라는 상기 감정 표현 문구에 대응하는 상기 감정 이미지(EI)를 상기 이미지 데이터베이스(135)로부터 추출할 수 있다. For example, as shown in (a) of FIG. 3 , when the user expresses the response signal RS saying “I feel good eating jelly”, the receiving unit 120 responds to the response signal “I feel good eating jelly” (RS) is transmitted to the emotional image extracting unit 130, and the emotional image extracting unit 130 parses "I feel good eating jelly" into "Jelly", "Eat", and the like, and parses It is possible to extract “good” corresponding to the emotional expression phrase from among the phrases used in the expression of emotions, in this case, the emotional image extraction unit 130 selects the emotional image EI corresponding to the emotional expression phrase “good”. It may be extracted from the image database 135 .

또는, 다른 예를 들어, 도 3의 (b)와 같이, 사용자가 "퀵보드 타다 넘어져서 울었어"라고 상기 응답 신호(RS)를 표현한 경우, 상기 수신부(120)는 "퀵보드 타다 넘어져서 울었어"라는 상기 응답 신호(RS)를 상기 감정 이미지 추출부(130)로 전달하고, 상기 감정 이미지 추출부(130)는, "퀵보드 타다 넘어져서 울었어"를 "퀵보드", "넘어지다", "울다" 등으로 파싱하고, 파싱된 문구 중에서 상기 감정 표현 문구에 해당하는 "울다"를 추출할 수 있다. 이 경우, 상기 감정 이미지 추출부(130)는, "울다"라는 상기 감정 표현 문구에 대응하는 상기 감정 이미지(EI)를 상기 이미지 데이터베이스(135)로부터 추출할 수 있다. Or, for another example, as shown in Fig. 3 (b), when the user expresses the response signal RS, "I fell on the quick board and cried", the receiving unit 120 says "I fell on the quick board and cried" The response signal RS is transmitted to the emotional image extraction unit 130, and the emotional image extraction unit 130 converts “I fell on the quick board and cried” to “quick board”, “fallen”, “cry”, etc. , and it is possible to extract "cry" corresponding to the emotion expression phrase from among the parsed phrases. In this case, the emotional image extraction unit 130 may extract the emotional image EI corresponding to the emotional expression phrase “cry” from the image database 135 .

상기 감정 이이지(EI)의 드로잉(drawing) 과정과 함께 상기 감정 이미지(EI)가 표시될 수 있다(S140). The emotion image EI may be displayed together with the drawing process of the emotion easy EI ( S140 ).

상기 감정 이미지 추출부(130)는 상기 감정 이미지(EI)를 표시부(140)로 전달할 수 있고, 상기 감정 이미지(EI)의 드로잉 과정 및 상기 감정 이미지(EI)의 표시는, 본 출원의 실시 예에 따른 감정 학습 및 소통 장치에 포함된 상기 표시부(140)에 의해 수행될 수 있다. 상기 표시부(140)는, 표시 장치, 및/또는 터치 스크린 패널을 갖는 표시 장치일 수 있다. The emotional image extraction unit 130 may transmit the emotional image EI to the display unit 140 , and the drawing process of the emotional image EI and the display of the emotional image EI are, according to an embodiment of the present application. may be performed by the display unit 140 included in the emotion learning and communication device according to the present invention. The display unit 140 may be a display device and/or a display device having a touch screen panel.

구체적으로, 도 4의 (a) 및 도 4의 (b)에 도시된 바와 같이, 시간에 따라서 상기 감정 이미지(EI)가 그려지는 과정을 표시하고 최종적으로 완성된 상기 감정 이미지(EI)가 표시될 수 있다. 즉, 한번에 상기 감정 이미지(EI)가 표현되지 않고, 상기 감정 이미지(EI)가 그려지는 과정 및 완성되는 과정을 시간에 따라서 표시할 수 있다. 이에 따라, 사용자가 유아인 경우, 유아의 관심을 유도하여 유아의 상기 감정 이미지(EI)에 대한 집중력을 향상시킬 수 있는 것은 물론, 유아가 본인의 감정을 이해하고 표현하는 방법을 용이하게 학습할 수 있다. 또한, 상기 감정 이미지(EI)의 드로잉 과정을 학습한 유아는, 타인에게 본인의 감정을 상기 감정 이미지(EI)를 드로잉하는 방법으로 표현할 수 있다. 이에 따라, 정상 발달 유아는 물론, 감정 표현이 쉽지 않은 발달 장애를 가진 유아도, 본인의 감정을 용이하게 표현하는 방법을 학습할 수 있다. Specifically, as shown in FIGS. 4A and 4B , the process of drawing the emotional image EI is displayed over time, and the finally completed emotional image EI is displayed. can be That is, the emotional image EI is not expressed at once, and the process in which the emotional image EI is drawn and completed may be displayed according to time. Accordingly, when the user is an infant, it is possible to induce the infant's interest to improve the infant's concentration on the emotional image (EI), as well as to allow the infant to easily learn how to understand and express their emotions. can In addition, a child who has learned the drawing process of the emotional image EI can express their emotions to others by drawing the emotional image EI. Accordingly, not only children with normal development, but also children with developmental disabilities in which emotions are not easy to express can learn how to easily express their emotions.

일 변형 예에 따르면, 상기 표시부(140)는 상기 감정 이미지(EI)의 드로잉 과정과 함께 상기 감정 이미지(EI)를 표시하되, 상기 감정 이미지(EI)를 완성시키지 않을 수 있다. 구체적으로, 도 4의 (a)에 도시된 상기 감정 이미지(EI)를 표시하는 경우, 상기 표시부(140)는 상기 감정 이미지(EI)의 드로잉 과정과 함께 상기 감정 이미지(EI)를 표시하되, 상기 감정 이미지(EI)에서 주요 감정 표현 부분에 해당하는 "눈 모양"을 제외하고 상기 감정 이미지(EI) 표시할 수 있다. 이후, 사용자가 "눈 모양"을 그려, 최종적으로 상기 감정 이미지(EI)를 완성할 수 있다. 이에 따라, 사용자는 본인의 감정을 표현하는 방법을 보다 적극적으로 학습할 수 있다. According to a modification, the display unit 140 may display the emotional image EI together with the drawing process of the emotional image EI, but may not complete the emotional image EI. Specifically, when displaying the emotional image EI shown in FIG. 4A , the display unit 140 displays the emotional image EI together with the drawing process of the emotional image EI, In the emotional image EI, the emotional image EI may be displayed except for the “eye shape” corresponding to the main emotional expression part. Thereafter, the user may draw an “eye shape” to finally complete the emotional image EI. Accordingly, the user can more actively learn how to express his/her emotions.

일 변형 예에 따르면, 상기 감정 이미지(EI)는 상기 응답 신호(RS)에 포함된 사물이 의인화된 이미지일 수 있다. 예를 들어, 구체적으로, 도 3의 (a)를 참조하여 설명된 바와 같이, 상기 응답 신호(RS)가 "젤리 먹어서 기분이 좋아"인 경우, 상기 감정 이미지 추출부(130)는, 상기 응답 신호(RS)가 파싱된 문구 중에서, 상기 감정 표현 문구인 "좋다"와 함께 의인화 대상이 되는 사물인 "젤리"를 추출할 수 있다. 이후, 상기 감정 이미지 추출부(130)는, 의인화 대상이 되는 사물인 "젤리"에 대한 이미지를 상기 이미지 데이터베이스(135)로부터 추출하고, 상기 표시부(140)는 상기 감정 표현 문구인 "좋다"의 이미지가 표현될 수 있도록, “젤리”를 의인화시켜 표현할 수 있다. 즉, 이 경우, 상기 감정 이미지(EI)는 도 5의 (a)와 같이 웃고 있는 젤리일 수 있다. 이 경우에도, 도 5의 (a)의 상기 감정 이미지(EI, 웃고 있는 젤리)는 일시에 표현되지 않고, 상기 감정 이미지(EI, 웃고 있는 젤리)가 그려지는 과정 및 완성되는 과정을 시간에 따라서 표시할 수 있다.According to a modification, the emotional image EI may be an image in which an object included in the response signal RS is personified. For example, specifically, as described with reference to (a) of FIG. 3 , when the response signal RS is “I feel good eating jelly”, the emotional image extraction unit 130 may From among the phrases in which the signal RS is parsed, "jelly", which is an object to be personified together with "good", which is the expression of emotion, may be extracted. Thereafter, the emotional image extraction unit 130 extracts an image of “jelly”, which is an object to be personified, from the image database 135, and the display unit 140 displays the emotion expression phrase “good”. “Jelly” can be personified and expressed so that the image can be expressed. That is, in this case, the emotional image EI may be a smiling jelly as shown in FIG. 5A . Even in this case, the emotional image (EI, smiling jelly) in FIG. can be displayed

다른 예를 들어, 구체적으로, 도 3의 (b)를 참조하여 설명된 바와 같이, 상기 응답 신호(RS)가 “퀵보드 타다 넘어져서 울었어”인 경우, 상기 감정 이미지 추출부(130)는, 상기 응답 신호(RS)가 파싱된 문구 중에서, 상기 감정 표현 문구인 “울다”와 함께 의인화 대상이 되는 사물인 “퀵보드”를 추출할 수 있다. 이후, 상기 감정 이미지 추출부(130)는, 의인화 대상이 되는 사물인 “퀵보드”에 대한 이미지를 상기 이미지 데이터베이스(135)로부터 추출하고, 상기 감정 표현 문구인 “울다”의 이미지가 표현될 수 있도록, “퀵보드”를 의인화시켜 표현할 수 있다. 즉, 이 경우, 상기 감정 이미지(EI)는 도 5의 (b)와 같이 울고 있는 퀵보드일 수 있다. 이 경우에도, 도 5의 (b)의 상기 감정 이미지(EI, 울고 있는 퀵보드)는 일시에 표현되지 않고, 상기 감정 이미지(EI, 울고 있는 퀵보드)가 그려지는 과정 및 완성되는 과정을 시간에 따라서 표시할 수 있다.For another example, specifically, as described with reference to FIG. 3 ( b ), when the response signal RS is “I fell and cried while riding a quickboard”, the emotional image extraction unit 130 is From among the phrases in which the response signal RS is parsed, it is possible to extract "quick board" which is an object to be personified together with "cry" which is the emotional expression phrase. Thereafter, the emotional image extraction unit 130 extracts an image of “quick board”, which is an object to be personified, from the image database 135, so that the image of “cry”, which is the emotional expression phrase, can be expressed. , “quick board” can be personified and expressed. That is, in this case, the emotional image EI may be a crying quickboard as shown in FIG. 5B . Even in this case, the emotional image (EI, crying quick board) of FIG. 5 (b) is not expressed at once, and the process of drawing and completing the emotional image (EI, crying quick board) according to time can be displayed

일 변형 예에 따르면, 본 출원의 실시 예에 따른 감정 학습 및 소통 장치는, 상기 감정 이미지(EI) 및/또는 상기 감정 표현 문구를 저장하는 기록 데이터베이스를 포함할 수 있다. 상기 기록 데이터베이스는, 상기 감정 이미지(EI) 및/또는 상기 감정 표현 문구를 시간 정보와 함께 매칭시켜 저장할 수 있다. 상기 기록 데이터베이스에 시간 정보와 함께 매칭되어 저장된 상기 감정 이미지(EI) 및/또는 상기 감정 표현 문구는, 제3 자의 단말기로 전달될 수 있다. 구체적으로, 사용자가 유아인 경우, 유아의 부모, 친인척, 또는 선생님의 단말기로, 시간 정보와 함께 매칭되어 저장된 상기 감정 이미지(EI) 및/또는 상기 감정 표현 문구가 전달될 수 있고, 이에 따라, 유아의 부모, 친인척, 또는 선생님은 유아의 감정 상태를 시간대별로 용이하게 확인할 수 있다.According to a modification, the emotion learning and communication apparatus according to an embodiment of the present application may include a record database for storing the emotion image EI and/or the emotion expression phrase. The record database may match and store the emotional image (EI) and/or the emotional expression phrase together with time information. The emotional image (EI) and/or the emotional expression phrase that are matched and stored together with time information in the record database may be transmitted to a third-party terminal. Specifically, when the user is an infant, the emotional image (EI) and/or the emotional expression phrase stored by matching with time information may be transmitted to the terminal of the infant's parent, relative, or teacher, and accordingly , a parent, relative, or teacher of the infant can easily check the emotional state of the infant for each time period.

또한, 일 변형 예에 따르면, 사용자(예를 들어, 유아)의 상기 응답 신호(RS)가 불명확하여 상기 응답 신호(RS)에 매칭되는 상기 감정 이미지(EI)를 추출하는 것이 용이하지 않은 경우, 상기 감정 문의부(110)는 제3 자(예를 들어, 유아의 부모, 친인척 또는 선생님)의 단말기로 상기 감정문의 신호(EIS)를 전달하여, 사용자의 감정을 문의할 수 있다. 이후, 상기 수신부(120)는 제3 자의 단말기로부터 상기 감정문의 신호(EIS)에 대한 상기 응답 신호(RS)를 수신하고, 상기 감정 이미지 추출부(130)는 상기 제3 자의 단말기로부터 수신된 상기 응답 신호(RS)를 이용하여 상기 감정 이미지(EI)를 추출할 수 있다. In addition, according to one modification, when it is not easy to extract the emotional image EI matching the response signal RS because the response signal RS of the user (eg, an infant) is unclear, The emotion inquiry unit 110 may transmit the emotion inquiry signal EIS to a terminal of a third party (eg, a parent, relative, or teacher of an infant) to inquire about the user's emotion. Thereafter, the receiving unit 120 receives the response signal RS to the emotion inquiry signal EIS from a third party terminal, and the emotional image extracting unit 130 receives the emotion image extracting unit 130 from the third party terminal. The emotional image EI may be extracted using the response signal RS.

누리과정, 즉 초등학교에서 고등학교 학교과정에서 인지, 언어력, 사고력의 중요성이 증가되고 있으며, 인지 진단에 대한 실효성과 중요성이 대두되고 있다. 본인의 감정을 학습 이해하는 것이 그 아이의 성향을 파악하고 맞춤 교육의 진입일 수 있으며, 이에 따라, 본 출원의 실시 예에 따른 감정 학습 및 소통 장치는, 전인적 교육으로 이어지는 초석이 될 수 있다.The importance of cognition, language ability, and thinking ability in the Nuri course, that is, from elementary school to high school, is increasing, and the effectiveness and importance of cognitive diagnosis are emerging. Learning and understanding one's emotions may be the entry into customized education by grasping the child's propensity, and accordingly, the emotional learning and communication device according to an embodiment of the present application may be a cornerstone leading to holistic education.

이하, 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법이 도 7 내지 도 11을 참조하여 설명된다. Hereinafter, a video recommendation and playback method according to an embodiment of the present application will be described with reference to FIGS. 7 to 11 .

도 7은 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법을 설명하기 위한 순서도이고, 도 8은 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법을 설명하기 위한 블록도이고, 도 9는 내지 도 11은 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법의 추천 동영상 목록 및 목표 동영상 재생 과정을 설명하기 위한 도면들이다. 7 is a flowchart illustrating a video recommendation and playback method according to an embodiment of the present application, FIG. 8 is a block diagram illustrating a video recommendation and playback method according to an embodiment of the present application, and FIGS. 9 to 11 is a diagram for explaining a recommended video list and a target video playback process of a video recommendation and playback method according to an embodiment of the present application.

도 7 내지 도 11을 참조하면, 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법은, 단말기(260)에서 구동되는 어플리케이션을 통해 구현될 수 있다. 상기 단말기(260)는, 휴대용 개인 단말기, PC, 테블릿 등 다양한 종류의 단말기를 포함할 수 있다. 7 to 11 , the method for recommending and playing a video according to an embodiment of the present application may be implemented through an application running in the terminal 260 . The terminal 260 may include various types of terminals such as a portable personal terminal, a PC, and a tablet.

상기 단말기(260)는, 추천 동영상 목록 제어부(220), 카메라 제어부(230), 전면 카메라(280), 표시부(240), 및 입력부(250)를 포함할 수 있다. The terminal 260 may include a recommended video list control unit 220 , a camera control unit 230 , a front camera 280 , a display unit 240 , and an input unit 250 .

목표 동영상을 포함하는 추천 동영상 목록(270)이 표시될 수 있다(S210). 상기 추천 동영상 목록 제어부(220)는, 다양한 동영상을 저장 및 관리하는 동영상 데이터베이스(210)로부터 동영상을 전달받아, 상기 추천 동영상 목록(270)을 생성할 수 있다. A recommended video list 270 including the target video may be displayed ( S210 ). The recommended video list controller 220 may receive a video from the video database 210 that stores and manages various videos, and generates the recommended video list 270 .

상기 추천 동영상 목록(270)은, 도 9에 도시된 바와 같이, 상기 목표 동영상 외에, 복수의 기타 동영상(동영상 1, 동영상 2, 동영상 3, 동영상 4)을 포함할 수 있다. As shown in FIG. 9 , the recommended video list 270 may include a plurality of other videos (video 1, video 2, video 3, and video 4) in addition to the target video.

상기 표시부(240)는, 상기 추천 동영상 목록 제어부(220)로부터 상기 추천 동영상 목록(270)을 전달받아, 화면에 상기 추천 동영상 목록(270)을 표시할 수 있다. 상기 표시부(240)는, 상기 추천 동영상 목록(270)의 상기 목표 동영상 및 복수의 기타 동영상 각각의 섬네일(thumbnail) 및 대표 화면을 표시할 수 있다. The display unit 240 may receive the recommended video list 270 from the recommended video list controller 220 and display the recommended video list 270 on a screen. The display unit 240 may display thumbnails and representative screens of each of the target video and a plurality of other videos in the recommended video list 270 .

상기 목표 동영상은, 상기 추천 동영상 목록(270)의 동영상들 중에서, 상기 단말기(260)의 사용자가 시청해야 하는 동영상으로, 상기 단말기(260)의 관리자 또는 사용자와 일정한 관계가 있는 제3자가 설정한 동영상일 수 있다. 구체적으로, 사용자가 유아인 경우, 유아의 부모, 친인척, 또는 선생님이, 유아가 상기 단말기(260)를 통해 시청했으면 하는 동영상을 상기 목표 동영상으로 설정할 수 있다. 상기 단말기(260)의 관리자 또는 상기 제3자에 의해, 상기 추천 동영상 목록 제어부(220)는, 상기 동영상 데이터베이스(210)에 저장된 동영상 중에서, 상기 목표 동영상이 설정될 수 있다. 또는 상기 목표 동영상은, 본 출원의 실시 예에 따른 동영상 추천 및 재생 방법이 구현되는 어플리케이션 관리자가 제작 및 관리하는 동영상일 수 있다. 예를 들어, 상기 목표 동영상은, 노래에 맞춰 율동을 표현하는 동영상일 수 있다. The target video is a video that the user of the terminal 260 should watch from among the videos in the recommended video list 270 , and is set by an administrator of the terminal 260 or a third party having a certain relationship with the user. It could be a video. Specifically, when the user is an infant, a parent, relative, or teacher of the infant may set a video desired by the infant to be viewed through the terminal 260 as the target video. By the manager of the terminal 260 or the third party, the recommended video list controller 220 may set the target video among the videos stored in the video database 210 . Alternatively, the target video may be a video produced and managed by an application manager implementing the video recommendation and playback method according to an embodiment of the present application. For example, the target video may be a video expressing a movement in accordance with a song.

상기 단말기(260)의 관리자 또는 상기 제3 자는, 사용자에게 보여주고 싶은 상기 목표 동영상이 있는 경우, 장르를 지정하여 설정 및 저장할 수 있다. 구체적으로, 교육, 사회관계, 신체활동, 미술, 음악 등으로 분류하여, 상기 목표 동영상을 설정 및 저장하고, 그룹핑하여 관리할 수 있다. 또한, 상기 목표 동영상은, 지인의 추천, 교육 전문 평가단의 추천 등 추천을 통한 검색으로 설정 및 저장 관리될 수 있다. 구체적으로, 언어, 수학, 과학, 예체능 등 학과별 동영상으로 구분되어 검색될 수 있다. When there is the target video to be displayed to the user, the manager of the terminal 260 or the third person may designate a genre, set and store the target video. Specifically, by classifying education, social relations, physical activity, art, music, and the like, the target video may be set and stored, and grouped and managed. In addition, the target video may be set, stored, and managed as a search through a recommendation, such as a recommendation of an acquaintance or a recommendation of an educational evaluation team. Specifically, it can be searched after being divided into videos by department, such as language, mathematics, science, and arts and sports.

또한, 상기 동영상 데이터베이스(210)는, 상기 단말기(260)에 포함된 기술적 구성일 수 있고, 또는 상기 단말기(260)와 통신하는 외부의 데이터베이스일 수 있다.In addition, the video database 210 may be a technical configuration included in the terminal 260 or may be an external database communicating with the terminal 260 .

상기 추천 동영상 목록(270)에서 상기 목표 동영상이 선택되었는지 판단될 수 있다(S220). It may be determined whether the target video is selected from the recommended video list 270 ( S220 ).

구체적으로, 상기 입력부(250)는 상기 단말기(260) 사용자로부터, 상기 추천 동영상 목록(270) 중에서 어느 하나의 동영상을 선택하는 입력 신호(IS)를 수신할 수 있다. 예를 들어, 상기 입력부(250) 및 상기 표시부(240)가 터치스크린 패널을 갖는 표시 장치를 포함하는 경우, 상기 단말기(260) 사용자의 터치 신호가 상기 입력 신호(IS)가 될 수 있다. 상기 입력부(250)는, 상기 입력 신호(IS)를 상기 추천 동영상 목록 제어부(220)로 전달할 수 있다. Specifically, the input unit 250 may receive, from the user of the terminal 260 , an input signal IS for selecting one video from the recommended video list 270 . For example, when the input unit 250 and the display unit 240 include a display device having a touch screen panel, a touch signal of a user of the terminal 260 may be the input signal IS. The input unit 250 may transmit the input signal IS to the recommended video list controller 220 .

상기 입력 신호(IS)를 수신한 결과, 상기 추천 동영상 목록(270) 중에서, 상기 목표 동영상 외에, 다른 동영상이 선택된 경우, 선택된 동영상이 재생되는 동시에 상기 목표 동영상을 포함하는 업데이트된 추천 동영상 목록(270)이 제시(S230)되고, 상기 목표 동영상이 선택된 경우, 상기 목표 동영상이 재생(S235)되는 단계가, 상기 목표 동영상이 선택될 때까지 반복 수행될 수 있다. As a result of receiving the input signal IS, if another video other than the target video is selected from among the recommended video list 270 , the selected video is played and an updated recommended video list 270 including the target video ) is presented (S230) and the target video is selected, the step of playing the target video (S235) may be repeatedly performed until the target video is selected.

구체적으로, 상기 추천 동영상 목록(270) 중에서, 상기 목표 동영상 외에, 다른 동영상이 선택된 경우, 상기 추천 동영상 목록 제어부(220)는, 상기 선택된 동영상을 상기 표시부(240)로 전달하고, 상기 표시부(240)는, 상기 선택된 동영상을 재생할 수 있다. 또한, 상기 선택된 동영상의 재생과 함께, 도 10에 도시된 바와 같이, 상기 목표 동영상을 포함하는 상기 추천 동영상 목록(270)을 업데이트하여, 재생 중인 상기 선택된 동영상 아래에 상기 업데이트된 상기 추천 동영상 목록(270)이 표시될 수 있다. 이 경우, 상기 목표 동영상은, 업데이트 전 상기 추천 동영상 목록(270)과 비교하여, 상기 업데이트된 상기 추천 동영상 목록(270)에서, 상위에 랭크(rank)될 수 있다. 상기 단말기(260)의 사용자가 상기 목표 동영상을 선택하지 않는 횟수가 증가하여, 상기 추천 동영상 목록(270)의 업데이트 횟수가 증가할수록, 상기 업데이트된 추천 동영상 목록(270)에서, 상기 목표 동영상은 상위에 랭크될 수 있고, 이에 따라, 상기 단말기(260) 사용자가 상기 목표 동영상을 선택하도록 자연스럽게 유도할 수 있다. Specifically, when another video other than the target video is selected from among the recommended video list 270 , the recommended video list controller 220 transmits the selected video to the display unit 240 , and the display unit 240 ) can play the selected video. In addition, along with the playback of the selected video, as shown in FIG. 10 , the recommended video list 270 including the target video is updated, and the updated recommended video list ( 270) may be displayed. In this case, the target video may be ranked higher in the updated recommended video list 270 than the recommended video list 270 before the update. As the number of times the user of the terminal 260 does not select the target video increases and the number of updates of the recommended video list 270 increases, in the updated recommended video list 270, the target video is higher may be ranked, and accordingly, it is possible to naturally induce the user of the terminal 260 to select the target video.

상기 추천 동영상 목록(270) 중에서, 상기 목표 동영상이 선택된 경우, 상기 추천 동영상 목록 제어부(220)는, 상기 목표 동영상을 상기 표시부(240)로 전달하고, 상기 표시부(240)는, 상기 목표 동영상을 재생할 수 있다. When the target video is selected from among the recommended video list 270 , the recommended video list controller 220 transmits the target video to the display unit 240 , and the display unit 240 displays the target video can play

상술된 바와 같이, 상기 목표 동영상은 노래에 맞춰 율동을 표현하는 동영상일 수 있다. 이 경우, 상기 목표 동영상이 재생되는 경우, 상기 추천 동영상 목록 제어부(220)는, 상기 카메라 제어부(230)를 통해 상기 단말기(260)의 전면 카메라(280)를 동작시켜, 상기 목표 동영상을 시청하는 상기 단말기(260) 사용자를 촬영할 수 있다. 상기 표시부(240)는, 상기 목표 동영상과 함께, 상기 목표 동영상의 율동을 모방하는 타인의 동영상 및 상기 단말기(260)의 상기 전면 카메라(280)를 통해 촬영 중인 동영상을 표시할 수 있다. As described above, the target moving image may be a moving image expressing movement in accordance with a song. In this case, when the target video is played, the recommended video list controller 220 operates the front camera 280 of the terminal 260 through the camera controller 230 to view the target video. The user of the terminal 260 may be photographed. The display unit 240 may display, along with the target video, a video of another person imitating the rhythm of the target video and a video being shot through the front camera 280 of the terminal 260 .

이에 따라, 상기 단말기(260)의 사용자는 상기 목표 동영상에서 재생되는 노래 및 율동, 상기 목표 동영상의 율동을 모방하는 타인의 동영상, 및 상기 전면 카메라(280)를 통해 촬영 중인 자신의 모습이 담긴 동영상을 동시에 시청할 수 있다. 즉, 상기 목표 동영상의 율동을 모방하는 타인의 동영상과 상기 전면 카메라(280)를 통해 촬영 중인 자신의 모습이 담긴 동영상을 동시에 시청하여, 상기 목표 동영상의 율동에 대한 상기 단말기(260)의 사용자의 관심 및 모방을 용이하게 유도할 수 있다. Accordingly, the user of the terminal 260 includes a song and rhythm played in the target video, a video of another person imitating the movement of the target video, and a video containing the image of herself being photographed through the front camera 280 . can be viewed simultaneously. That is, by simultaneously watching a video of another person imitating the movement of the target video and a video of oneself being photographed through the front camera 280, the user of the terminal 260 for the movement of the target video It can easily induce interest and imitation.

일 실시 예에 따르면, 상기 추천 동영상 목록 제어부(220)는, 상기 전면 카메라(280)를 통해 촬영된 동영상을, 상기 동영상 데이터베이스(210)에 업로드 및/또는 저장할 수 있다. 이에 따라, 다른 단말기의 사용자가 상기 목표 동영상을 선택하여 시청하는 경우, 상기 전면 카메라(280)를 통해 촬영된 동영상이 타인의 동영상으로 재생될 수 있다. According to an embodiment, the recommended video list controller 220 may upload and/or store a video captured by the front camera 280 to the video database 210 . Accordingly, when a user of another terminal selects and views the target video, the video captured through the front camera 280 may be played back as another person's video.

상술된 본 발명의 실시 예들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 당업자들에게 이해될 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터, 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 본 발명의 실시 예들의 기능들을 수 행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능 하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 본 발명의 실시 예에 따른 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. 또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기 능들이 순서를 벗어나서 발생하는 것도 가능하다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.It will be understood by those skilled in the art that the above-described embodiments of the present invention may be performed by computer program instructions. These computer program instructions may be embodied in the processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions performed by the processor of the computer or other programmable data processing equipment are not shown in the flowchart block(s). It creates a means for performing the functions of the embodiments of the invention. These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, the computer-usable or computer-readable memory The instructions stored in the . It is also possible to produce a manufactured item containing an instruction means for performing a function according to an embodiment of the present invention. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for performing the functions described in the flowchart block(s). Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). Also, in some alternative implementations, it is possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown one after another may in fact be performed substantially simultaneously, or it is possible that the blocks are sometimes performed in the reverse order according to the corresponding function.

이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.As mentioned above, although the present invention has been described in detail using preferred embodiments, the scope of the present invention is not limited to specific embodiments and should be construed according to the appended claims. In addition, those skilled in the art will understand that many modifications and variations are possible without departing from the scope of the present invention.

110: 감정 문의부
120: 수신부
130: 감정 이미지 추?z
135: 이미지 데이터베이스
140: 표시부
210: 동영상 데이터베이스
220: 추천 동영상 목록 제어부
230: 카메라 제어부
240: 표시부
250: 입력부
260: 단말기
270: 추천 동영상 목록
280: 전면 카메라
110: appraisal inquiry department
120: receiver
130: emotional image weight?z
135: image database
140: display unit
210: video database
220: recommended video list control unit
230: camera control
240: display unit
250: input unit
260: terminal
270: list of recommended videos
280: front camera

Claims (6)

감정문의 신호를 표현하는 단계;
상기 감정문의 신호에 대한 응답 신호를 수신하는 단계;
상기 응답 신호에 대응하여, 상기 응답 신호에 매칭되는 감정 이미지를 추출하는 단계; 및
상기 감정 이미지의 드로잉(drawing) 과정과 함께 상기 감정 이미지를 표시하되, 시간에 따라서 상기 감정 이미지가 그려지는 과정을 표시하는 단계를 포함하되,
상기 감정 이미지는, 제1 구성 내지 제3 구성을 갖고,
상기 감정 이미지를 표시하는 단계는,
제1 구성을 갖는 제1 이미지를 표시하는 단계;
상기 제1 이미지를 표시한 이후, 제1 구성을 갖는 상기 제1 이미지에 제2 구성이 더해진 제2 이미지를 표시하는 단계; 및
상기 제2 이미지를 표시한 이후, 상기 제1 및 제2 구성을 갖는 상기 제2 이미지에 제3 구성이 더해진 제3 이미지를 표시하는 단계를 포함하되,
상기 감정문의 신호를 표현하기 전,
사용자가 감정을 학습하는 단계가 선행되되,
상기 사용자가 감정을 학습하는 단계는,
상기 사용자의 얼굴 표정을 카메라를 통해 촬영하는 단계; 및
촬영된 상기 사용자의 얼굴 표정에 대응하는 사진 또는 영상의 컨텐츠 및 상기 컨텐츠에 대응하는 감정 표현 단어가 표시되는 단계를 포함하는 감정 학습 및 소통 장치의 동작 방법.
expressing a signal for an emotional inquiry;
receiving a response signal to the emotional inquiry signal;
in response to the response signal, extracting an emotional image matching the response signal; and
Displaying the emotional image together with the drawing process of the emotional image, including displaying the process in which the emotional image is drawn over time,
The emotional image has a first configuration to a third configuration,
The step of displaying the emotional image,
displaying a first image having a first configuration;
after displaying the first image, displaying a second image in which a second configuration is added to the first image having a first configuration; and
After displaying the second image, displaying a third image in which a third configuration is added to the second image having the first and second configurations,
Before expressing the signal of the emotional inquiry,
The step in which the user learns emotions is preceded,
The step of the user learning the emotion,
photographing the user's facial expression through a camera; and
The method of operating an emotion learning and communication device comprising the step of displaying content of a photo or video corresponding to the captured user's facial expression and an emotion expression word corresponding to the content.
제1 항에 있어서,
상기 감정 이미지는 제4 구성을 더 포함하고,
상기 제4 구성이 생략되어 미완성된 상기 제3 이미지에 사용자가 상기 제4 구성을 그려 상기 감정 이미지를 완성하는 단계를 더 포함하고,
상기 응답 신호에 매칭되는 상기 감정 이미지를 추출하는 단계는,
상기 응답 신호에 포함된 문장을 파싱(parsing)하여, 상기 응답 신호로부터 감정 표현 문구를 추출하는 단계; 및
복수의 이미지가 저장된 이미지 데이터베이스로부터, 상기 감정 표현 문구에 대응하는 상기 감정 이미지를 추출하는 단계를 포함하는 감정 학습 및 소통 장치의 동작 방법.
According to claim 1,
The emotional image further comprises a fourth configuration,
Completing the emotional image by the user drawing the fourth configuration on the third image that is not completed because the fourth configuration is omitted,
The step of extracting the emotional image matching the response signal,
parsing the sentence included in the response signal, and extracting an emotion expression phrase from the response signal; and
Method of operating an emotion learning and communication device comprising the step of extracting the emotion image corresponding to the emotion expression phrase from an image database in which a plurality of images are stored.
감정문의 신호를 표현하는 감정문의부;
상기 감정문의 신호에 대한 응답 신호를 수신하는 수신부;
상기 응답 신호에 대응하여, 상기 응답 신호에 매칭되는 감정 이미지를 추출하는 감정 이미지 추출부; 및
상기 감정 이미지의 드로잉 과정과 함께 상기 감정 이미지를 표시하되 시간에 따라서 상기 감정 이미지가 그려지는 과정을 표시하는 표시부를 포함하되,
상기 감정 이미지는, 제1 구성 내지 제3 구성을 갖고,
상기 표시부가 상기 감정 이미지를 표시하는 단계는,
제1 구성을 갖는 제1 이미지를 표시하는 단계;
상기 제1 이미지를 표시한 이후, 제1 구성을 갖는 상기 제1 이미지에 제2 구성이 더해진 제2 이미지를 표시하는 단계; 및
상기 제2 이미지를 표시한 이후, 상기 제1 및 제2 구성을 갖는 상기 제2 이미지에 제3 구성이 더해진 제3 이미지를 표시하는 단계를 포함하되,
상기 감정문의 신호를 표현하기 전,
사용자가 감정을 학습하는 단계가 선행되되,
상기 사용자가 감정을 학습하는 단계는,
상기 사용자의 얼굴 표정을 카메라를 통해 촬영하는 단계; 및
촬영된 상기 사용자의 얼굴 표정에 대응하는 사진 또는 영상의 컨텐츠 및 상기 컨텐츠에 대응하는 감정 표현 단어가 표시되는 단계를 포함하는 감정 학습 및 소통 장치.
an appraisal inquiry unit that expresses a signal of an appraisal inquiry;
a receiving unit for receiving a response signal to the emotional inquiry signal;
in response to the response signal, an emotion image extraction unit for extracting an emotion image matching the response signal; and
Displaying the emotional image together with the drawing process of the emotional image, including a display unit for displaying the process of drawing the emotional image over time,
The emotional image has a first configuration to a third configuration,
The step of displaying the emotional image by the display unit,
displaying a first image having a first configuration;
after displaying the first image, displaying a second image in which a second configuration is added to the first image having a first configuration; and
After displaying the second image, displaying a third image in which a third configuration is added to the second image having the first and second configurations,
Before expressing the signal of the emotional inquiry,
The step in which the user learns emotions is preceded,
The step of the user learning the emotion,
photographing the user's facial expression through a camera; and
Emotion learning and communication apparatus comprising the step of displaying the content of the photo or video corresponding to the captured user's facial expression and the emotion expression word corresponding to the content.
제3 항에 있어서,
상기 감정문의부는, 시각적 또는 음성적 표현으로, 상기 감정문의 신호를 표현하고,
상기 수신부는, 전기적 신호 또는 음성적 표현의 상기 응답 신호를 수신하는 것을 포함하는 감정 학습 및 소통 장치.
4. The method of claim 3,
The emotion inquiry unit expresses a signal of the emotion inquiry by visual or voice expression,
The receiving unit, Emotion learning and communication device comprising receiving the response signal of the electrical signal or voice expression.
삭제delete 삭제delete
KR1020200035638A 2020-03-24 2020-03-24 Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video KR102328998B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200035638A KR102328998B1 (en) 2020-03-24 2020-03-24 Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200035638A KR102328998B1 (en) 2020-03-24 2020-03-24 Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video

Publications (2)

Publication Number Publication Date
KR20210119139A KR20210119139A (en) 2021-10-05
KR102328998B1 true KR102328998B1 (en) 2021-11-18

Family

ID=78077844

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200035638A KR102328998B1 (en) 2020-03-24 2020-03-24 Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video

Country Status (1)

Country Link
KR (1) KR102328998B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102264428B1 (en) * 2014-01-07 2021-06-15 삼성전자 주식회사 Method and appratus for operating of a electronic device
KR20160029895A (en) * 2014-09-05 2016-03-16 강원대학교산학협력단 Apparatus and method for recommending emotion-based character
KR101776254B1 (en) * 2015-11-05 2017-09-07 대구보건대학교산학협력단 Servise providing system for congnitive training
KR101857581B1 (en) * 2016-04-27 2018-05-14 박재현 turm based picture chatting method and a computer readable recording medium storing a turn based picture chat application

Also Published As

Publication number Publication date
KR20210119139A (en) 2021-10-05

Similar Documents

Publication Publication Date Title
US12050574B2 (en) Artificial intelligence platform with improved conversational ability and personality development
CN109074117B (en) Providing emotion-based cognitive assistant systems, methods, and computer-readable media
US9634855B2 (en) Electronic personal interactive device that determines topics of interest using a conversational agent
CN107784354B (en) Robot control method and accompanying robot
CN109947984A (en) A kind of content delivery method and driving means for children
JP2016177483A (en) Communication support device, communication support method, and program
Mittell Narrative Theory and Adaptation.
CN111133403A (en) Dynamic user interaction system and method for enhancing happiness
CN114387829A (en) Language learning system based on virtual scene, storage medium and electronic equipment
JP6656529B2 (en) Foreign language conversation training system
CN106357715A (en) Method, toy, mobile terminal and system for correcting pronunciation
Kennedy Change your mind: Stevonnie’s new body schema and queer literacies in Steven Universe
KR102328998B1 (en) Device for learning and communication of emotion, operation method for the same, and method for recommendation and playing of video
CN113301352A (en) Automatic chat during video playback
KR102619562B1 (en) System for providing foreign language learning reward service using lock screen
Teófilo Enabling deaf or hard of hearing accessibility in live theaters through virtual reality
KR102652008B1 (en) Method and apparatus for providing a multimodal-based english learning service applying native language acquisition principles to a user terminal using a neural network
KR102260280B1 (en) Method for studying both foreign language and sign language simultaneously
Luan Finding a Basic Interpretive Unit through the Human Visual Perception and Cognition-A Comparison between Filmmakers and Audiences
Lopes Learning Body Techniques: Dance and Body Flexibility among Gay Black Teens in Salvador de Bahia, Brazil
Dooley Screenwriting the body in Fireflies: An analysis of the devising and writing process
Hofer-Robinson Staging The Frozen Deep as Practice-led Research:" Illusion can only be perfected through the feelings."
Jeng The Long Take: A Spectacular Film Realism for the Anthropocene
Joesoef The Analysis of an IT Film Using Charles Sanders Peirce’s Semiotic Theory
Miller “Science fiction without gadgets” and the normalization of cognitive impairment: Reassessing Charly (1968)

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant