KR102049838B1 - Apparatus and method for transferring emotion based on vibrotactile - Google Patents

Apparatus and method for transferring emotion based on vibrotactile Download PDF

Info

Publication number
KR102049838B1
KR102049838B1 KR1020170163942A KR20170163942A KR102049838B1 KR 102049838 B1 KR102049838 B1 KR 102049838B1 KR 1020170163942 A KR1020170163942 A KR 1020170163942A KR 20170163942 A KR20170163942 A KR 20170163942A KR 102049838 B1 KR102049838 B1 KR 102049838B1
Authority
KR
South Korea
Prior art keywords
user
emotion
information
image
recognized
Prior art date
Application number
KR1020170163942A
Other languages
Korean (ko)
Other versions
KR20180070467A (en
Inventor
전석희
정윤아
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Publication of KR20180070467A publication Critical patent/KR20180070467A/en
Application granted granted Critical
Publication of KR102049838B1 publication Critical patent/KR102049838B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72547
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 진동촉각기반의 감성 전달 장치 및 방법을 개시한다. 본 발명의 일실시예에 따르면 감성 전달 장치는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 사용자 인식부, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부, 상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부 및 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함할 수 있다.The present invention discloses an apparatus and method for transmitting vibration based emotion. According to an embodiment of the present invention, the emotion transmitting apparatus analyzes at least one of a user recognition unit that recognizes at least one of a user voice and a user image, and analyzes at least one of the recognized user voice and the recognized user image to obtain user emotion information. A generated emotion information generator, a vibration tactile information generator configured to generate vibration tactile information based on the generated user emotion information, and at least one of the recognized user voice and the recognized user image and the generated vibration tactile information It may include a data processing unit for generating the user emotion data based on the, and transmits the generated user emotion data to the other party device connected to the call.

Description

진동촉각기반의 감성 전달 장치 및 방법{APPARATUS AND METHOD FOR TRANSFERRING EMOTION BASED ON VIBROTACTILE}Vibration tactile based emotion transmission device and method {APPARATUS AND METHOD FOR TRANSFERRING EMOTION BASED ON VIBROTACTILE}

본 발명은 진동촉각을 이용하여 사용자의 감성을 전달하는 기술적 사상에 관한 것으로, 상대방에게 분석된 감정을 기반으로 생성된 진동촉각(vibrotactile)을 음성 및 영상과 함께 전달하는 장치 및 방법에 관한 것이다.The present invention relates to a technical idea of transmitting a user's emotion using a vibration tactile device, and relates to an apparatus and a method for transmitting a vibrotactile generated based on an emotion analyzed to the other party together with a voice and an image.

기술이 발달함에 따라 음성 중심의 전화 통화는 카메라와 모니터를 사용한 영상 통화로 발전할 수 있었다.As technology has advanced, voice-centric phone calls have evolved into video calls using cameras and monitors.

특히, 스마트폰의 등장은 영상통화의 보급화에 큰 기여를 했다. 이에 따라 사람들은 통화시 청각 정보화 시각 정보를 동시에 주고 받을 수 있게 되었다.In particular, the emergence of smart phones has contributed greatly to the spread of video calls. As a result, people can simultaneously send and receive auditory informational visual information during a call.

스마트폰은 진동자를 탑재하여 사용자에게 촉각적인 정보도 제공하는 햅틱 기능을 제공할 수 있다. 따라서, 스마트폰은 상대방에게 촉각적인 정보를 전달할 수 있는 환경을 제공할 수 있다. The smartphone may be equipped with a vibrator to provide a haptic function that also provides tactile information to the user. Therefore, the smart phone can provide an environment that can deliver tactile information to the other party.

스마트폰의 햅틱 기능은 스마트폰과 사용자를 교감시켜 주는 역할을 수행할 수 있다.The haptic function of a smartphone can play a role of interacting with a smartphone and a user.

다시 말해, 사용자가 자신의 스마트폰을 터치하거나 흔들었을 경우에만 스마트폰이 다양한 진동을 사용자에게 제공할 수 있다.In other words, the smartphone may provide various vibrations to the user only when the user touches or shakes his smartphone.

다만, 스마트폰은 사용자에게 터치 및 회전 동작에 따라 진동촉각을 제공할 뿐, 영상 통화 중 상대방의 감정 및 감성을 진동을 이용하여 상대방에게 전달할 수 없다는 문제점이 존재한다.However, there is a problem in that a smart phone provides a vibration tactile touch to a user according to a touch and rotation operation, and cannot transmit the emotion and emotion of the other party to the other party using vibration during a video call.

한국등록특허 제10-1294214호, "상대 통화자의 감정을 진동으로 전달하는 이동통신 단말기 및 방법"Korea Patent Registration No. 10-1294214, "Mobile communication terminal and method for transmitting the emotion of the other party to the vibration" 한국공개특허 제10-2010-0028764호, "음성 통화 중에 진동 정보를 송수신하는 이동통신 단말기 및 방법"Korean Patent Publication No. 10-2010-0028764, "Mobile communication terminal and method for transmitting and receiving vibration information during a voice call"

본 발명은 진동촉각기반의 감성 전달 장치 및 방법을 제공 하고자 한다.The present invention is to provide an apparatus and method for transmitting vibration based emotion.

본 발명은 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달하는 장치 및 방법을 제공하고자 한다.An object of the present invention is to provide an apparatus and method for analyzing user emotions based on video and audio obtained during a video call, and transmitting the analyzed user emotions to vibrotactile tactile senses.

본 발명은 시각 및 청각뿐만 아니라 촉각을 통하여 영상 통화의 몰입감을 증가시키는 장치 및 방법을 제공하고자 한다.An object of the present invention is to provide an apparatus and method for increasing the immersion of a video call through visual and auditory as well as touch.

본 발명은 음성통화, 영상통화, 게임 및 회의 등의 다양한 엔터테이먼트(entertainment)에서 감성 정보를 음성, 영상 및 진동촉각을 통하여 전달하는 장치 및 방법을 제공하고자 한다.An object of the present invention is to provide an apparatus and method for transmitting emotion information through voice, video, and vibration tactile in various entertainments such as voice call, video call, game, and conference.

본 발명의 일실시예에 따르면 감성 전달 장치는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 사용자 인식부, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부, 상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부 및 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함할 수 있다. According to an embodiment of the present invention, the emotion transmitting apparatus analyzes at least one of a user recognition unit that recognizes at least one of a user voice and a user image, and analyzes at least one of the recognized user voice and the recognized user image to obtain user emotion information. A generated emotion information generator, a vibration tactile information generator configured to generate vibration tactile information based on the generated user emotion information, and at least one of the recognized user voice and the recognized user image and the generated vibration tactile information It may include a data processing unit for generating the user emotion data based on the, and transmits the generated user emotion data to the other party device connected to the call.

본 발명의 일실시예에 따르면 상기 사용자 인식부는, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하고, 상기 감정 정보 생성부는, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성할 수 있다.According to an embodiment of the present invention, the user recognizer may record the recognized user voice as much as a specific buffer capacity, and the emotion information generator may generate first user emotion information by analyzing the recorded user voice. .

본 발명의 일실시예에 따르면 상기 사용자 인식부는, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식할 수 있다.According to an embodiment of the present invention, the user recognition unit may divide the recognized user image in units of frames and recognize a user face in each of the divided user images.

본 발명의 일실시예에 따르면 상기 사용자 인식부는, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하고, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식할 수 있다.According to an embodiment of the present invention, the user recognizer determines a user image of a first frame and a user image of a second frame from the divided user image, and determines the user image of the determined first frame and the determined second frame. By comparing the user image of the user can recognize the facial expression change of the recognized user's face.

본 발명의 일실시예에 따르면 상기 감정 정보 생성부는, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성할 수 있다.According to an embodiment of the present invention, the emotion information generation unit may generate second user emotion information by analyzing the user image of the determined first frame.

본 발명의 일실시예에 따르면 상기 감정 정보 생성부는, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하고, 상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트할 수 있다.According to an embodiment of the present invention, the emotion information generator determines whether a user image of the second frame exists in the divided user image, and when the user image of the second frame exists, the recognized facial expression change. May be analyzed to update the generated second user emotion information.

본 발명의 일실시예에 따르면 상기 감정 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성할 수 있다.According to an embodiment of the present invention, the emotion information generation unit may generate the user emotion information including the generated first user emotion information and the updated second user emotion information.

본 발명의 일실시예에 따르면 상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성하고, 상기 데이터 처리부는, 상기 인식된 사용자 음성 및 상기 생성된 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제1 사용자 감성 데이터를 전송할 수 있다.According to an embodiment of the present invention, the vibrotactile information generation unit generates first vibrotactile information based on the generated first user emotion information, and the data processor generates the recognized user voice and the generated agent. The first user emotion data may be generated based on the first vibration tactile information, and the generated first user emotion data may be transmitted to the counterpart device.

본 발명의 일실시예에 따르면 상기 진동촉각 정보 생성부는, 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성하고, 상기 데이터 처리부는, 상기 인식된 사용자 영상 및 상기 생성된 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제2 사용자 감성 데이터를 전송할 수 있다.According to an embodiment of the present invention, the vibrotactile information generation unit generates second vibrotactile information based on the updated second user emotion information, and the data processor generates the recognized user image and the generated agent. The second user emotion data may be generated based on the vibration tactile information, and the generated second user emotion data may be transmitted to the counterpart device.

본 발명의 일실시예에 따르면 상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제3 진동촉각 정보를 생성하고, 상기 데이터 처리부는, 상기 인식된 사용자 음성, 상기 인식된 사용자 영상 및 상기 생성된 제2 진동촉각 정보에 기초하여 제3 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제3 사용자 감성 데이터를 전송할 수 있다.According to an embodiment of the present invention, the vibration tactile information generation unit generates third vibration tactile information based on the generated first user emotion information and the updated second user emotion information, and the data processor is configured to: The third user emotion data may be generated based on the recognized user voice, the recognized user image, and the generated second vibration tactile information, and the third user emotion data may be transmitted to the counterpart device.

본 발명의 일실시예에 따르면 감성 전달 방법은 사용자 인식부에서, 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계, 감정 정보 생성부에서, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 단계, 진동촉각 정보 생성부에서, 상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 단계 및 데이터 처리부에서, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 단계를 포함할 수 있다.According to an embodiment of the present invention, in the emotion transmitting method, at least one of a user voice and a user image is recognized by a user recognizer, and at the emotion information generator, at least one of the recognized user voice and the recognized user image. Generating any user emotion information by analyzing any one, generating the vibration tactile information based on the generated user emotion information, and generating, by the data processor, the recognized user voice and the recognized user The method may include generating user emotion data based on at least one of user images and the generated vibration tactile information, and transmitting the generated user emotion data to a counterpart connected device.

본 발명의 일실시예에 따르면 감성 전달 방법은 상기 사용자 인식부에서, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하는 단계, 상기 사용자 인식부에서, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는 단계, 상기 사용자 인식부에서, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하는 단계 및 상기 사용자 인식부에서, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는 단계를 포함할 수 있다.According to an embodiment of the present invention, in the emotion delivery method, recording the recognized user voice by a specific buffer capacity in the user recognition unit, in the user recognition unit, the recognized user image is divided in units of frames, Recognizing a user face in each of the divided user images, determining, by the user recognition unit, a user image of a first frame and a user image of a second frame in the divided user image, and in the user recognition unit, And comparing the user image of the determined first frame with the user image of the determined second frame to recognize a change in facial expression of the recognized user's face.

본 발명의 일실시예에 따르면 감성 전달 방법은 상기 감정 정보 생성부에서, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는 단계, 상기 감정 정보 생성부에서, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는 단계, 상기 감정 정보 생성부에서, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하는 단계, 상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는 단계 및 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, in the emotion delivery method, generating the first user emotion information by analyzing the recorded user voice in the emotion information generator, and in the emotion information generator, Generating second user emotion information by analyzing a user image, determining, by the emotion information generator, whether a user image of the second frame exists in the divided user image, and a user image of the second frame If present, analyzing the recognized facial expression change to update the generated second user emotion information and the user emotion information including the generated first user emotion information and the updated second user emotion information It may comprise the step of generating.

본 발명의 일실시예에 따르면, 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달할 수 있다.According to an embodiment of the present invention, the user emotion may be analyzed based on the video and the voice acquired during the video call, and the analyzed user emotion may be transmitted to the vibrotactile.

본 발명의 일실시예에 따르면, 시각 및 청각뿐만 아니라 촉각을 통하여 영상 통화의 몰입감을 증가시킬 수 있다.According to an embodiment of the present invention, the immersion of the video call can be increased through not only visual and auditory but also tactile senses.

본 발명의 일실시예에 따르면, 음성통화, 영상통화, 게임 및 회의 등의 다양한 엔터테이먼트에서 감성 정보를 음성, 영상 및 진동촉각을 통하여 전달할 수 있다.According to an embodiment of the present invention, emotional information may be transmitted through voice, video, and vibration tactile in various entertainments such as voice call, video call, game, and conference.

도 1은 본 발명의 일실시예에 따른 감성 전달 장치의 블록도를 도시한다.
도 2 내지 도 5는 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.
1 is a block diagram of an emotional delivery device according to an embodiment of the present invention.
2 to 5 show a flow diagram related to the emotional delivery method according to an embodiment of the present invention.

이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings.

실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다.The examples and terms used therein are not intended to limit the techniques described in this document to specific embodiments, but should be understood to include various modifications, equivalents, and / or alternatives to the examples.

하기에서 다양한 실시 예들을 설명에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.In the following description of the various embodiments, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

그리고 후술되는 용어들은 다양한 실시 예들에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, terms to be described below are terms defined in consideration of functions in various embodiments, and may vary according to a user's or operator's intention or custom. Therefore, the definition should be made based on the contents throughout the specification.

도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.In connection with the description of the drawings, similar reference numerals may be used for similar components.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Singular expressions may include plural expressions unless the context clearly indicates otherwise.

본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다.In this document, expressions such as "A or B" or "at least one of A and / or B" may include all possible combinations of items listed together.

"제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.Expressions such as "first," "second," "first," or "second," etc. may modify the components, regardless of order or importance, to distinguish one component from another. Used only and do not limit the components.

어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다.When any (eg first) component is said to be "connected (functionally or communicatively)" or "connected" to another (eg second) component, the other component is said other It may be directly connected to the component or may be connected through another component (for example, the third component).

본 명세서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다.In this specification, "configured to" is modified to have the ability to "suitable," "to," "to," depending on the context, for example, hardware or software. Can be used interchangeably with "made to", "doing", or "designed to".

어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다.In some situations, the expression “device configured to” may mean that the device “can” together with other devices or components.

예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.For example, the phrase “processor configured (or configured to) perform A, B, and C” may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general purpose processor (eg, a CPU or an application processor) capable of performing the corresponding operations.

또한, '또는' 이라는 용어는 배타적 논리합 'exclusive or' 이기보다는 포함적인 논리합 'inclusive or' 를 의미한다.In addition, the term 'or' means inclusive or 'inclusive or' rather than 'exclusive or'.

즉, 달리 언급되지 않는 한 또는 문맥으로부터 명확하지 않는 한, 'x가 a 또는 b를 이용한다' 라는 표현은 포함적인 자연 순열들(natural inclusive permutations) 중 어느 하나를 의미한다.In other words, unless stated otherwise or unclear from the context, the expression 'x uses a or b' means any one of natural inclusive permutations.

도 1은 본 발명의 일실시예에 따른 감성 전달 장치의 블록도를 도시한다.1 is a block diagram of an emotional delivery device according to an embodiment of the present invention.

구체적으로, 도 1은 본 발명의 일실시예에 따른 감성 전달 장치의 구성 요소들을 예시한다. 이하 사용되는 '. 부', '. 기' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Specifically, Figure 1 illustrates the components of the emotional delivery device according to an embodiment of the present invention. Used below. Wealth, ' The term 'herein' refers to a unit for processing at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.

도 1을 참고하면, 감성 전달 장치(100)는 사용자 인식부(110), 감정 정보 생성부(120), 진동촉각 정보 생성부(130) 및 데이터 처리부(140)를 포함한다.Referring to FIG. 1, the emotion transmitting apparatus 100 may include a user recognizer 110, an emotion information generator 120, a vibration tactile information generator 130, and a data processor 140.

예를 들어, 감성 전달 장치(100)는 스마트폰 또는 사용자 단말 장치이거나, 스마트폰 또는 사용자 단말 장치와 결합되는 외부 장치일 수 있다.For example, the emotion transmitting device 100 may be a smartphone or a user terminal device, or may be an external device combined with a smartphone or a user terminal device.

본 발명의 일실시예에 따르면 사용자 인식부(110)는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식한다.According to an embodiment of the present invention, the user recognizer 110 recognizes at least one of a user voice and a user image.

본 발명의 일실시예에 따르면 사용자 인식부(110)는 인식된 사용자 음성을 특정 버퍼 용량만큼 기록한다.According to an embodiment of the present invention, the user recognition unit 110 records the recognized user voice by a specific buffer capacity.

일례로, 사용자 인식부(110)는 마이크로 폰(microphone) 및 카메라를 포함하고, 마이크로 폰을 통하여 사용자 음성을 인식하고, 카메라를 통하여 사용자 영상을 인식할 수 있다.For example, the user recognition unit 110 may include a microphone and a camera, and may recognize a user voice through the microphone, and may recognize the user image through the camera.

본 발명의 일실시예에 따르면 사용자 인식부(110)는 카메라를 통하여 인식된 사용자 영상을 프레임 단위로 분할하고, 분할된 사용자 영상 각각에서 사용자 얼굴을 인식한다.According to an embodiment of the present invention, the user recognition unit 110 divides the user image recognized by the camera in units of frames, and recognizes a user face in each of the divided user images.

예를 들어, 분할된 사용자 영상은 제1 프레임의 사용자 영상, 제2 프레임의 사용자 영상 및 제n 프레임의 사용자 영상을 포함할 수 있다. 여기서, n은 임의의 수로 사용자의 설정에 기초하여 변경될 수 있다.For example, the divided user image may include a user image of a first frame, a user image of a second frame, and a user image of an nth frame. Here, n may be changed to any number based on the user's setting.

일례로, 사용자 인식부(110)는 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하고, 결정된 제1 프레임의 사용자 영상과 결정된 제2 프레임의 사용자 영상을 비교하여 인식된 사용자 얼굴의 표정 변화를 인식할 수 있다.For example, the user recognizer 110 determines the user image of the first frame and the user image of the second frame from the divided user image, and compares the user image of the determined first frame with the user image of the determined second frame. The facial expression change of the recognized user's face may be recognized.

예를 들어, 사용자 인식부(110)는 영상을 구성하는 사진 단위인 프레임을 이용하여 사용자 영상을 인식한다. 사용자 영상은 주로 1초에 24~60개의 사진을 연속으로 출력하는 형태이다. 사용자 인식부(110)는 사용자 영상의 사용자 얼굴에서 표정을 1 프레임 단위로 나누어 표정 인식을 통해 감정 인식을 수행한다.For example, the user recognition unit 110 recognizes a user image using a frame that is a photo unit constituting an image. User video is a form that continuously outputs 24 to 60 pictures per second. The user recognition unit 110 divides the expression in the user face of the user image in units of one frame and performs emotion recognition through facial recognition.

본 발명의 일실시예에 따르면 감정 정보 생성부(120)는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성한다.According to an embodiment of the present invention, the emotion information generator 120 generates user emotion information by analyzing at least one of a user voice and a user image.

일례로, 감정 정보 생성부(120)는 특정 버퍼 용량만큼 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성한다.For example, the emotion information generator 120 analyzes the user voice recorded by a specific buffer capacity and generates first user emotion information.

예를 들어, 특정 버퍼 용량은 감정 정보 생성부(120)가 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하기 위한 기준치에 해당할 수 있다.For example, the specific buffer capacity may correspond to a reference value for generating the first user emotion information by analyzing the user voice by the emotion information generator 120.

본 발명의 일실시예에 따르면 감정 정보 생성부(120)는 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성한다.According to an embodiment of the present invention, the emotion information generating unit 120 generates the second user emotion information by analyzing the determined user image of the first frame.

일례로, 감정 정보 생성부(120)는 분할된 사용자 영상에서 제2 프레임의 사용자 영상의 존재 여부를 판단할 수 있다.For example, the emotion information generator 120 may determine whether the user image of the second frame exists in the divided user image.

본 발명의 일실시예에 따르면 감정 정보 생성부(120)는 제2 프레임의 사용자 영상이 존재할 경우, 인식된 표정 변화를 분석하여 생성된 제2 사용자 감정 정보를 업데이트한다.According to an embodiment of the present invention, when the user image of the second frame exists, the emotion information generator 120 updates the second user emotion information generated by analyzing the recognized facial expression change.

예를 들어, 감정 정보 생성부(120)는 사용자 영상을 하나의 프레임 단위로 분할하여, 분할된 사용자 영상에서 사용자의 얼굴이 존재하는지 여부를 판단한다.For example, the emotion information generator 120 divides the user image into one frame unit and determines whether a face of the user exists in the divided user image.

또한, 감정 정보 생성부(120)는 사용자의 얼굴이 존재할 경우, 사용자 얼굴의 표정을 판단하고, 사용자 얼굴을 판단한 프레임과 비교 대상 프레임의 사용자 영상에서 눈의 모양 및 입의 모양 등을 비교하여 표정 변화를 인식한다.In addition, when the user's face is present, the emotion information generating unit 120 determines the facial expression of the user's face, compares the shape of the eye, the shape of the mouth, etc. in the user image of the frame to which the user's face is determined, Be aware of the change.

일례로, 감정 정보 생성부(120)는 사용자 영상의 사용자 얼굴에서 표정 변화에 기초하여 제2 사용자 감정 정보를 생성한다. 또한, 제2 사용자 감정 정보는 표정 감정 인식에 이용될 수 있다.For example, the emotion information generator 120 may generate second user emotion information based on a change in facial expression of the user's face in the user image. In addition, the second user emotion information may be used for facial emotion recognition.

본 발명의 일실시예에 따르면 감정 정보 생성부(120)는 생성된 제1 사용자 감정 정보 및 업데이트된 제2 사용자 감정 정보를 포함하는 사용자 감정 정보를 생성한다.According to an embodiment of the present invention, the emotion information generator 120 generates user emotion information including the generated first user emotion information and the updated second user emotion information.

일례로, 감정 정보 생성부(120)는 사용자 음성에서 음성 주파수 변화에 기초하여 제1 사용자 감정 정보를 생성한다. 또한, 제1 사용자 감정 정보는 음성 감정 인식에 이용될 수 있다.For example, the emotion information generator 120 generates first user emotion information based on a change in voice frequency in the user voice. In addition, the first user emotion information may be used for voice emotion recognition.

일례로, 감정 정보 생성부(120)는 음성 분석 기반의 제1 사용자 감정 정보 및 영상 분석 기반의 제2 사용자 감정 정보를 포함하는 사용자 감정 정보를 생성한다.For example, the emotion information generator 120 generates user emotion information including first user emotion information based on voice analysis and second user emotion information based on image analysis.

본 발명의 일실시예에 따르면 진동촉각 정보 생성부(130)는 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다.According to an embodiment of the present invention, the vibration tactile information generation unit 130 generates vibration tactile information based on user emotion information.

일례로, 진동촉각 정보 생성부(130)는 상대방 기기와 통신 연결 시, 상대방 기기로 전달하기 위하여 인식된 사용자 음성 및 사용자 영상 기초하여 분석된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다.For example, the vibration tactile information generation unit 130 generates vibration tactile information based on user emotion information analyzed based on a recognized user voice and a user image for communication with the counterpart device.

예를 들어, 진동촉각 정보는 2003년 MacLean 등에 의하여 제안된 개념인 햅틱 아이콘으로서, 추상적인 의미를 전달하기 위하여 만들어진 체계를 갖는 진동신호(Vibrotactile Signal)를 포함한다.For example, the vibrotactile information is a haptic icon, a concept proposed by MacLean et al. In 2003, and includes a vibrotactile signal having a system made to convey an abstract meaning.

본 발명의 일실시예에 따르면 진동촉각 정보 생성부(130)는 음성 분석 기반의 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성한다.According to an embodiment of the present invention, the vibration tactile information generating unit 130 generates the first vibration tactile information based on the first user emotion information based on voice analysis.

일례로, 진동촉각 정보 생성부(130)는 영상 분석 기반의 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성한다.For example, the vibration tactile information generator 130 generates second vibration tactile information based on the second user emotion information based on the image analysis.

본 발명의 일실시예에 따르면 진동촉각 정보 생성부(130)는 제1 사용자 감정 정보 및 제2 사용자 감정 정보에 기초하여 제3 진동촉각 정보를 생성한다.According to an embodiment of the present invention, the vibration tactile information generating unit 130 generates third vibration tactile information based on the first user emotion information and the second user emotion information.

본 발명의 일실시예에 따르면 데이터 처리부(140)는 사용자 음성 및 사용자 영상 중 적어도 어느 하나와 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성한다.According to an embodiment of the present invention, the data processor 140 generates user emotion data based on at least one of user voice and user image and vibration tactile information.

예를 들어, 사용자 감성 데이터는 제1 사용자 감성 데이터, 제2 사용자 감성 데이터 및 제3 사용자 감성 데이터를 포함할 수 있다.For example, the user emotion data may include first user emotion data, second user emotion data, and third user emotion data.

본 발명의 일실시예에 따르면 데이터 처리부(140)는 통화 연결된 상대방 기기로 생성된 사용자 감성 데이터를 전송한다.According to an embodiment of the present invention, the data processor 140 transmits the user emotion data generated to the counterpart connected device.

일례로, 데이터 처리부(140)는 사용자 음성 및 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 상대방 기기로 제1 사용자 감성 데이터를 전송한다.For example, the data processor 140 may generate first user emotion data based on the user voice and the first vibration tactile information, and transmit the first user emotion data to the counterpart device.

본 발명의 일실시예에 따르면 데이터 처리부(140)는 사용자 영상 및 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상대방 기기로 제2 사용자 감성 데이터를 전송할 수 있다.According to an embodiment of the present invention, the data processor 140 may generate second user emotion data based on the user image and the second vibration tactile information, and transmit the second user emotion data to the counterpart device.

본 발명의 일실시예에 따르면 데이터 처리부(140)는 사용자 음성, 사용자 영상 및 제2 진동촉각 정보에 기초하여 제3 사용자 감성 데이터를 생성하고, 상대방 기기로 제3 사용자 감성 데이터를 전송한다.According to an embodiment of the present invention, the data processor 140 generates third user emotion data based on the user voice, the user image, and the second vibration tactile information, and transmits the third user emotion data to the counterpart device.

일례로, 진동촉각 정보는 상대방 기기에 전달되어, 상대방 기기에서 진동촉각 정보에 기초하는 진동을 발생시키도록 활용될 수 있다.For example, the vibration tactile information may be transmitted to the counterpart device and used to generate a vibration based on the vibration tactile information in the counterpart device.

본 발명의 일실시예에 따르면, 감성 전달 장치는 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달할 수 있다.According to an embodiment of the present invention, the emotion transmitting apparatus may analyze the user emotion based on the image and the voice acquired during the video call, and transmit the analyzed user emotion as the vibrotactile.

본 발명의 일실시예에 따르면, 감성 전달 장치는 시각 및 청각뿐만 아니라 촉각을 통하여 영상 통화의 몰입감을 증가시킬 수 있다.According to an embodiment of the present invention, the emotional delivery device may increase the immersion of the video call through the sense of touch as well as visual and auditory.

본 발명의 일실시예에 따르면 데이터 처리부(140)는 통신부(150)를 통하여 사용자 감성 데이터를 상대방 기기로 전송할 수 있다.According to an embodiment of the present invention, the data processing unit 140 may transmit user emotion data to the counterpart device through the communication unit 150.

본 발명의 다른 실시예에 따르면 감성 전달 장치(100)는 통신부(150), 메모리(160) 및 제어부(170)를 포함할 수 있다.According to another embodiment of the present invention, the emotion transmitting apparatus 100 may include a communication unit 150, a memory 160, and a controller 170.

본 발명의 다른 실시예에 따르면 통신부(150)는 기저 대역 신호를 RF대역 신호로 상향 변환한 후 안테나를 통해 송신하고, 안테나를 통해 수신되는 RF 대역 신호를 기저 대역 신호로 하향 변환한다.According to another embodiment of the present invention, the communication unit 150 up-converts the baseband signal into an RF band signal and then transmits the signal through an antenna and downconverts the RF band signal received through the antenna into the baseband signal.

예를 들어, 통신부(150)는 송신 필터, 수신 필터, 증폭기, 믹서(mixer), 오실레이터(oscillator), DAC(digital to analog convertor), ADC(analog to digital convertor) 등을 포함할 수 있다.For example, the communication unit 150 may include a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, a digital to analog convertor (DAC), an analog to digital convertor (ADC), and the like.

또한, 통신부(150)는 서로 다른 주파수 대역의 신호들을 처리하기 위해 서로 다른 통신 모듈들을 포함할 수 있다.In addition, the communication unit 150 may include different communication modules to process signals of different frequency bands.

예를 들어, 서로 다른 통신 규격들은 블루투스 저 에너지(Bluetooth low energy, BLE), Wi-Fi(Wireless Fidelity), WiGig(WiFi Gigabyte), 셀룰러 네트워크(예: LTE(Long Term Evolution)) 등을 포함할 수 있다.For example, different communication standards may include Bluetooth low energy (BLE), Wireless Fidelity (Wi-Fi), Wi-Fi Gigabyte (WiGig), cellular networks (e.g. Long Term Evolution), etc. Can be.

또한, 서로 다른 주파수 대역들은 극고단파(super high frequency, SHF)(예: 2.5GHz, 5Ghz) 대역, mm파(millimeter wave)(예: 60GHz) 대역을 포함할 수 있다.In addition, different frequency bands may include a super high frequency (SHF) (eg 2.5 GHz, 5 Ghz) band and a millimeter wave (eg 60 GHz) band.

본 발명의 다른 실시예에 따르면 메모리(160)는 감성 전달 장치(100)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다.According to another exemplary embodiment of the present invention, the memory 160 stores data such as a basic program, an application program, and setting information for the operation of the emotion transmitting apparatus 100.

특히, 메모리(160)는 다양한 실시 예들에 따라 파일을 관리하기 위한 적어도 하나의 명령어 집합(예: 어플리케이션)을 저장할 수 있다.In particular, the memory 160 may store at least one command set (eg, an application) for managing a file according to various embodiments.

일례로, 메모리(160)는 제어부(170)의 요청에 따라 저장된 데이터를 제공할 수 있고, 메모리(160)는 휘발성 및/또는 비휘발성 메모리 및 버퍼를 포함할 수 있다.For example, the memory 160 may provide stored data at the request of the controller 170, and the memory 160 may include volatile and / or nonvolatile memory and a buffer.

예를 들어, 메모리(160)는 감성 전달 장치(100)의 적어도 하나의 다른 구성요소에 관련된 명령 또는 데이터를 저장할 수 있다.For example, the memory 160 may store instructions or data related to at least one other component of the emotion transmitting device 100.

메모리(160)는 감성 전달 장치(100)에 포함되는 것으로, '내부 저장소'또는 '내부 저장 장치'로 지칭될 수 있다.The memory 160 is included in the emotion transmitting device 100 and may be referred to as an 'internal storage' or an 'internal storage device'.

예를 들어, 메모리(160)는 사용자 음성 및 사용자 영상을 버퍼에 저장할 수 있다.For example, the memory 160 may store a user voice and a user image in a buffer.

본 발명의 다른실시예에 따르면 제어부(170)는 사용자 인식부(110), 감정 정보 생성부(120), 진동촉각 정보 생성부(130) 및 데이터 처리부(140)의 동작을 제어할 수 있다.According to another embodiment of the present invention, the control unit 170 may control operations of the user recognition unit 110, the emotion information generating unit 120, the vibration tactile information generating unit 130, and the data processing unit 140.

예를 들어, 제어부(170)는 감성 전달 장치(100)의 적어도 하나의 다른 구성 요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.For example, the controller 170 may execute arithmetic or data processing related to control and / or communication of at least one other component of the emotion transmitting apparatus 100.

예를 들어, 제어부(170)는 운영 체제 또는 응용 프로그램을 구동하여 제어부(170)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다.For example, the controller 170 may drive an operating system or an application program to control a plurality of hardware or software components connected to the controller 170, and may perform various data processing and operations.

예를 들어, 제어부(170)는 SOC(system on chip)로 구현될 수 있다. 제어부(170)는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.For example, the controller 170 may be implemented as a system on chip (SOC). The controller 170 may load and process a command or data received from at least one of other components (eg, nonvolatile memory) into the volatile memory, and store the result data in the nonvolatile memory.

또한, 제어부(170)는 진동자를 제어하여 진동을 발생 시킬 수 있다.In addition, the controller 170 may generate a vibration by controlling the vibrator.

예를 들어, 제어부(170)는 사용자 감정 정보에 기초하여 생성된 진동촉각 정보에 기초하여 진동촉각을 발생할 수 있다.For example, the controller 170 may generate vibration tactile based on vibration tactile information generated based on user emotion information.

예를 들어, 제어부(170)는 사용자 음성을 특정 버퍼 용량만큼 저장하도록 메모리(160)를 제어할 수 있다.For example, the controller 170 may control the memory 160 to store a user voice as much as a specific buffer capacity.

예를 들어, 제어부(170)는 감성 전달 장치(100)가 이하 도 2 내지 도 5 등에 도시된 절차를 수행하도록 제어할 수 있다.For example, the controller 170 may control the emotional delivery apparatus 100 to perform the procedure illustrated in FIGS. 2 to 5.

본 발명의 일실시예에 따르면, 감성 전달 장치(100)는 음성통화, 영상통화, 게임 및 회의 등의 다양한 엔터테이먼트(entertainment)에서 감성 정보를 음성, 영상 및 진동촉각을 통하여 전달할 수 있다.According to an embodiment of the present invention, the emotion delivery device 100 may transmit emotion information through voice, video, and vibration tactile in various entertainments such as voice call, video call, game, and conference.

도 2는 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.2 is a flowchart illustrating an emotional delivery method according to an embodiment of the present invention.

구체적으로, 도 2는 감성 전달 방법이 상대방 기기와 영상 통화 시 획득되는 사용자 음성, 영상을 분석하여 진동촉각 정보를 생성하고, 사용자 음성, 영상을 진동촉각 정보와 동시에 전송하는 절차를 예시한다.In detail, FIG. 2 illustrates a procedure of generating a vibration tactile information by analyzing a user voice and an image acquired during a video call with the counterpart device, and simultaneously transmitting the user voice and the image with the vibration tactile information.

도 2를 참고하면, 단계(201)에서 감성 전달 방법은 사용자 음성 및 사용자 영상을 인식한다. 즉, 감성 전달 방법은 상대방 기기와 영상 통화 또는 음성 통화 연결 시 마이크로폰을 이용하여 사용자 음성을 인식하고, 카메라를 통하여 사용자 영상을 인식한다.Referring to FIG. 2, in step 201, the method for transmitting emotions recognizes a user voice and a user image. In other words, the emotional delivery method recognizes a user's voice using a microphone when a video call or a voice call is connected to the counterpart device, and recognizes the user's image through a camera.

단계(202)에서 감성 전달 방법은 사용자 감정 정보를 생성한다. 즉, 감성 전달 방법은 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성한다.In step 202, the emotion delivery method generates user emotion information. That is, the emotion delivery method generates user emotion information by analyzing at least one of a user voice and a user image.

단계(203)에서 감성 전달 방법은 진동촉각 정보를 생성한다. 즉, 감성 전달 방법은 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다.In step 203, the emotional delivery method generates vibration tactile information. That is, the emotion delivery method generates vibration tactile information based on user emotion information.

단계(204)에서 감성 전달 방법은 상대방 기기로 사용자 감성 데이터를 전송한다. 즉, 감성 전달 방법은 사용자 음성 및 사용자 영상 중 적어도 어느 하나와 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 생성된 사용자 감성 데이터를 상대방 기기로 전송한다.In step 204, the emotion delivery method transmits user emotion data to the counterpart device. That is, the emotion transmission method generates user emotion data based on at least one of user voice and user image and vibration tactile information, and transmits the generated user emotion data to the counterpart device.

도 3은 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.3 is a flowchart illustrating a method of transmitting emotion according to an embodiment of the present invention.

구체적으로, 도 3은 감성 전달 방법이 사용자 음성 및 사용자 영상에 기초하여 분석된 사용자 감정 정보를 이용하여 진동촉각 정보를 생성하고, 사용자 음성 및 사용자 영상과 진동촉각 정보를 상대방 기기로 전송하는 절차를 예시한다.In detail, FIG. 3 illustrates a procedure in which the method of transmitting emotion generates vibration tactile information using user emotion information analyzed based on user voice and user image, and transmits user voice and user image and vibration tactile information to the counterpart device. To illustrate.

도 3을 참고하면, 단계(301)에서 감성 전달 방법은 상대방 기기와 연결한다. 즉, 감성 전달 방법은 상대방 기기와 음성 통화 또는 영상 통화를 연결하고, 마이크로폰을 통하여 사용자 음성을 인식하고, 카메라를 통하여 사용자 영상을 인식한다.Referring to FIG. 3, in step 301, the method for transmitting emotions is connected with a counterpart device. That is, the emotional delivery method connects a voice call or a video call with the counterpart device, recognizes a user voice through a microphone, and recognizes a user image through a camera.

단계(302)에서 감성 전달 방법은 음성 채널을 통하여 음성 기반 감정분석을 수행한다. 즉, 감성 전달 방법은 마이크로폰을 통하여 인식된 사용자 음성에 기초하여 사용자 감정을 분석한다. 여기서, 감성 전달 방법은 사용자 음성의 주파수 변화에 기초하여 사용자 감정을 분석할 수 있다.In step 302, the emotion delivery method performs voice based emotion analysis through the voice channel. That is, the emotion delivery method analyzes user emotion based on the user voice recognized through the microphone. Here, the emotion transmission method may analyze the user emotion based on the frequency change of the user voice.

단계(303)에서 감성 전달 방법은 영상 채널을 통하여 영상 기반 감정분석을 수행한다. 즉, 감성 전달 방법은 카메라를 통하여 인식된 사용자 영상에 기초하여 사용자 감정을 분석한다. 여기서, 감성 전달 방법은 사용자 영상의 얼굴에 기초하여 사용자 감정을 분석할 수 있다.In step 303, the emotion delivery method performs image-based emotion analysis through an image channel. That is, the emotion delivery method analyzes user emotions based on user images recognized through a camera. Here, the emotion delivery method may analyze the user emotion based on the face of the user image.

단계(304)에서 감성 전달 방법은 음성 기반 감정 분석 및 영상 기반 감정 분석을 기초하여 진동촉각 정보를 생성한다. 즉, 감성 전달 방법은 사용자 음성의 분석 및 사용자 영상의 분석에 기초하여 각각 생성되는 사용자 감정 정보에 기초하여 진동촉각 정보를 각각 생성하고, 각각 생성된 진동촉각 정보를 종합하여 진동촉각 정보를 생성할 수 있다.In step 304, the emotion delivery method generates vibration tactile information based on voice based emotion analysis and image based emotion analysis. That is, the emotion transmission method may generate vibration tactile information based on user emotion information generated based on analysis of user voice and analysis of user image, and generate vibration tactile information by combining the generated vibration tactile information. Can be.

단계(305)에서 감성 전달 방법은 상대방으로 음성, 영상 및 촉각 정보를 전송한다. 즉, 감성 전달 방법은 통화 연결된 상대방 기기로 사용자 음성, 사용자 영상 및 음성 및 영상의 분석에 기초하여 생성된 촉각 정보를 전송한다.In step 305, the emotional delivery method transmits voice, video and tactile information to the other party. That is, the emotion transmission method transmits the tactile information generated based on the analysis of the user voice, the user image, and the voice and the image to the counterpart connected device.

본 발명의 일실시예에 따르면, 감성 전달 방법은 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달할 수 있다.According to an embodiment of the present invention, the emotion delivery method may analyze the user emotion based on the image and the voice acquired during the video call, and transmit the analyzed user emotion as the vibrotactile.

도 4는 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.4 is a flowchart illustrating an emotional delivery method according to an embodiment of the present invention.

구체적으로, 도 4는 감성 전달 방법이 사용자 음성과 사용자 음성에 기초하여 분석된 사용자 감정 정보를 이용하여 진동촉각 정보를 생성하여 감성 데이터를 전송하는 절차를 예시한다.Specifically, FIG. 4 illustrates a procedure in which the emotion transmission method generates vibration tactile information using the user emotion information analyzed based on the user voice and the user voice and transmits the emotion data.

도 4를 참고하면, 단계(401)에서 감성 전달 방법은 사용자 음성을 인식한다. 즉, 감성 전달 방법은 상대방 기기와 통화 연결 시, 마이크로폰을 통하여 사용자 음성을 인식한다.Referring to FIG. 4, in step 401, the emotional delivery method recognizes a user voice. That is, the emotional delivery method recognizes a user's voice through a microphone when making a phone call with a counterpart device.

단계(402)에서 감성 전달 방법은 특정 버퍼 용량만큼 사용자 음성을 기록되었는지 판단한다. 즉, 감성 전달 방법은 단계(401)에서 마이크로폰을 통하여 인식된 사용자 음성이 사용자 음성 기반하여 사용자 감정을 판단하기 위한 기준값 이상 확보되었는지 여부를 판단한다.In step 402, the emotional delivery method determines whether the user voice has been recorded by a specific buffer capacity. That is, the emotional delivery method determines whether or not the user voice recognized through the microphone in step 401 is more than a reference value for determining the user emotion based on the user voice.

일례로, 감성 전달 방법은 특정 버퍼 용량만큼 사용자 음성이 버퍼에 기록될 경우, 단계(403)로 진행하고, 특정 버퍼 용량만큼 사용자 음성이 버퍼에 기록되지 않을 경우, 단계(401)로 돌아가서 사용자 음성을 버퍼에 더 기록한다.In one example, the emotional delivery method proceeds to step 403 if the user voice is recorded in the buffer by a specific buffer capacity, and returns to step 401 if the user voice is not recorded in the buffer by the specific buffer capacity. Write more to the buffer.

단계(403)에서 감성 전달 방법은 버퍼에 저장된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성한다. 즉, 감성 전달 방법은 사용자 음성의 주파수 대역 변화에 기초하여 사용자 음성을 분석하고, 분석된 사용자 음성에 기초하여 사용자 감정 정보를 생성한다.In step 403, the emotion delivery method analyzes the user voice stored in the buffer to generate first user emotion information. That is, the emotion transmission method analyzes the user's voice based on the change in the frequency band of the user's voice, and generates the user's emotion information based on the analyzed user's voice.

단계(404)에서 감성 전달 방법은 제1 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다. 즉, 감성 전달 방법은 사용자 음성 분석에 기초하여 생성된 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성한다.In step 404, the emotion delivery method generates vibration tactile information based on the first user emotion information. That is, the emotion transmission method generates first vibration tactile information based on the first user emotion information generated based on the user voice analysis.

단계(405)에서 감성 전달 방법은 사용자 음성과 진동촉각 정보를 전송한다. 즉, 감성 전달 방법은 사용자 음성 및 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 생성된 제1 사용자 감성 데이터를 상대방 기기로 전송한다.In step 405, the emotional delivery method transmits user voice and vibration tactile information. That is, the emotion transmission method generates first user emotion data based on the user voice and the first vibration tactile information, and transmits the generated first user emotion data to the counterpart device.

도 5는 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.5 is a flowchart illustrating an emotional delivery method according to an embodiment of the present invention.

구체적으로, 도 5는 감성 전달 방법이 사용자 영상을 분석하여 진동촉각 정보를 생성하고, 상대방 기기로 생성된 진동촉각 정보를 사용자 영상과 동시에 전송하는 절차를 예시한다.In detail, FIG. 5 illustrates a procedure in which the method of transmitting emotion generates vibration tactile information by analyzing the user image and simultaneously transmits the vibration tactile information generated by the counterpart device with the user image.

도 5를 참고하면, 단계(501)에서 감성 전달 방법은 사용자 영상을 인식 및 기록한다. 즉, 감성 전달 방법은 상대방 기기와 영상 통화 개시할 시, 사용자 영상을 인식하여 인식된 사용자 영상을 기록한다.Referring to FIG. 5, in step 501, the method for transmitting emotions recognizes and records a user image. That is, in the emotion delivery method, when the video call is started with the counterpart device, the user image is recognized and the recognized user image is recorded.

단계(502)에서 감성 전달 방법은 인식된 사용자 영상을 프레임 단위로 분할한다. 즉, 감성 전달 방법은 연속된 장면으로 구성된 사용자 영상을 낱장 단위의 이미지인 프레임 단위로 분할한다.In step 502, the emotional delivery method divides the recognized user image into frames. That is, the emotion transmitting method divides a user image composed of consecutive scenes into frame units which are images of sheets.

일례로, 감성 전달 방법은 사용자 영상을 제1 프레임의 사용자 영상, 제2 프레임의 사용자 영상 및 제n 프레임의 사용자 영상으로 분할한다.In one example, the emotion transfer method divides a user image into a user image of a first frame, a user image of a second frame, and a user image of an nth frame.

일례로, 감성 전달 방법은 사용자 영상을 현재 프레임인 제1 프레임의 사용자 영상과 이전 프레임인 제2 프레임의 사용자 영상으로 분할할 수 있다.In one example, the emotional delivery method may be divided into a user image of the first frame of the current frame and a user image of the second frame of the previous frame.

단계(503)에서 감성 전달 방법은 분할된 사용자 영상 각각에서 사용자 얼굴을 인식한다. 즉, 감성 전달 방법은 프레임 단위로 분할된 사용자 영상인 이미지 각각에서 사용자 얼굴 부분을 인식한다.In step 503, the method of emotional delivery recognizes a user face in each of the divided user images. That is, the emotion transmission method recognizes a user's face in each of the images which are user images divided by frame.

단계(504)에서 감성 전달 방법은 인식된 사용자 얼굴에 기초하여 제2 사용자 감정 정보를 생성한다. 즉, 감성 전달 방법은 사용자 얼굴에서 입, 눈, 코 등에 기초하여 사용자 표정을 인식하고, 인식된 사용자 표정에 기초하여 제2 사용자 감정 정보를 생성한다.In step 504, the emotion delivery method generates second user emotion information based on the recognized user face. That is, the emotion delivery method recognizes a user's expression based on a mouth, eyes, nose, etc. in the user's face, and generates second user emotion information based on the recognized user's expression.

단계(505)에서 감성 전달 방법은 제2 프레임의 사용자 영상이 존재하는지 여부를 판단한다. 즉, 감성 전달 방법은 인식된 사용자 영상을 프레임 단위로 분할하여 복수의 사용자 영상을 인식할 수 있다.In step 505, the method for transmitting emotion determines whether a user image of a second frame exists. That is, the emotion transfer method may recognize a plurality of user images by dividing the recognized user image into frame units.

즉, 감성 전달 방법은 현재 프레임의 사용자 영상 이전 프레임의 사용자 영상인 제2 프레임이 존재하는지 여부를 판단하고, 제2 프레임의 사용자 영상이 존재할 경우, 단계(506)로 진행하고, 제2 프레임의 사용자 영상이 존재하지 않을 경우, 단계(508)로 진행한다.That is, the method for transmitting emotions determines whether a second frame, which is the user image of the previous frame of the current image, exists, and if the user image of the second frame exists, proceeds to step 506, and If there is no user image, the flow proceeds to step 508.

단계(506)에서 감성 전달 방법은 표정 변화 발생 여부를 판단한다. 즉, 감성 전달 방법은 제1 프레임의 사용자 영상기반의 사용자 얼굴과 제2 프레임의 사용자 영상기반의 사용자 얼굴을 비교하여 사용자 얼굴의 표정 변화 발생 여부를 판단한다. In step 506, the emotional delivery method determines whether a facial expression change occurs. That is, the emotion delivery method determines whether the facial expression change of the user face occurs by comparing the user face based on the user image of the first frame and the user face based on the user image of the second frame.

일례로, 감성 전달 방법은 사용자 얼굴의 표정 변화가 발생한 경우, 단계(507)로 진행하고, 사용자 얼굴의 표정 변화가 발생하지 않은 경우, 단계(508)로 진행한다.In one example, the emotional delivery method proceeds to step 507 when a change in the expression of the user's face occurs, and proceeds to step 508 when a change in the expression of the user's face does not occur.

단계(507)에서 감성 전달 방법은 표정 변화를 분석하여 제2 사용자 감정 정보를 업데이트한다. 즉, 감성 전달 방법은 표정 변화를 분석하여 단계(504)에서 생성된 제2 사용자 감정 정보를 업데이트한다.In step 507, the emotion delivery method analyzes the facial expression change to update the second user emotion information. That is, the emotion delivery method analyzes the facial expression change to update the second user emotion information generated in step 504.

단계(508)에서 감성 전달 방법은 제2 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다. 즉, 감성 전달 방법은 업데이트된 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성한다.In step 508, the emotion delivery method generates vibration tactile information based on the second user emotion information. That is, the emotion delivery method generates second vibration tactile information based on the updated second user emotion information.

단계(509)에서 감성 전달 방법은 사용자 영상과 진동촉각 정보를 전송한다. 즉, 감성 전달 방법은 사용자 영상 및 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상대방 기기로 생성된 제2 사용자 감성 데이터를 전송한다.In step 509, the emotional delivery method transmits the user image and the vibration tactile information. That is, the emotion transmission method generates second user emotion data based on the user image and the second vibration tactile information, and transmits the second user emotion data generated to the counterpart device.

결국, 본 발명을 이용하면, 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달할 수 있다. 뿐만 아니라, 시각 및 청각뿐만 아니라 촉각을 통하여 영상 통화의 몰입감을 증가시킬 수 있고, 음성통화, 영상통화, 게임 및 회의 등의 다양한 엔터테이먼트에서 감성 정보를 음성, 영상 및 진동촉각을 통하여 전달할 수 있다.As a result, according to the present invention, the user emotion may be analyzed based on the video and audio obtained during the video call, and the analyzed user emotion may be transmitted to the vibrotactile. In addition, visual and auditory as well as tactile sense can increase the immersion of the video call, and can be sent through the voice, video and vibration tactile information in a variety of entertainment, such as voice calls, video calls, games and meetings have.

본 발명의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다. Methods according to the embodiments described in the claims or the specification of the present invention may be implemented in the form of hardware, software, or a combination of hardware and software.

그러한 소프트웨어는 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 컴퓨터 판독 가능 저장 매체는, 적어도 하나의 프로그램(소프트웨어 모듈), 전자 장치에서 적어도 하나의 프로세서에 의해 실행될 때 전자 장치가 본 발명의 방법을 실시하게 하는 명령어들(instructions)을 포함하는 적어도 하나의 프로그램을 저장한다.Such software may be stored on a computer readable storage medium. The computer readable storage medium includes at least one program (software module), at least one program including instructions for causing the electronic device to perform the method of the present invention when executed by the at least one processor in the electronic device. Save it.

이러한 소프트웨어는, 휘발성(volatile) 또는 (ROM: Read Only Memory)과 같은 불휘발성(non-volatile) 저장장치의 형태로, 또는 램(RAM: random access memory), 메모리 칩(memory chips), 장치 또는 집적 회로(integrated circuits)와 같은 메모리의 형태로, 또는 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), 디지털 다목적 디스크(DVDs: Digital Versatile Discs), 자기 디스크(magnetic disk) 또는 자기 테이프(magnetic tape) 등과 같은 광학 또는 자기적 판독 가능 매체에, 저장될 수 있다.Such software may be in the form of volatile or non-volatile storage, such as Read Only Memory (ROM), or random access memory (RAM), memory chips, devices or In the form of memory, such as integrated circuits, or in compact disc ROM (CD-ROM), digital versatile discs (DVDs), magnetic disks, or magnetic tapes tape, or the like, on an optical or magnetic readable medium.

저장 장치 및 저장 미디어는, 실행될 때 일 실시 예들을 구현하는 명령어들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적절한 기계-판독 가능 저장 수단의 실시 예들이다.Storage device and storage media are embodiments of machine-readable storage means suitable for storing a program or programs that include instructions that, when executed, implement embodiments.

실시 예들은 본 명세서의 청구항들 중 어느 하나에 청구된 바와 같은 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램, 및 그러한 프로그램을 저장하는 기계-판독 가능 저장 매체를 제공한다.Embodiments provide a program comprising code for implementing an apparatus or method as claimed in any of the claims herein, and a machine-readable storage medium storing such a program.

나아가, 그러한 프로그램들은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 어떠한 매체에 의해 전자적으로 전달될 수 있으며, 실시 예들은 동등한 것을 적절히 포함한다.Furthermore, such programs may be delivered electronically by any medium, such as a communication signal carried over a wired or wireless connection, and embodiments include equivalents as appropriate.

상술한 구체적인 실시 예들에서, 발명에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다.In the above-described specific embodiments, the components included in the invention are expressed in the singular or plural according to the specific embodiments presented.

그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 상술한 실시 예들이 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.However, the singular or plural expressions are selected to suit the situations presented for convenience of description, and the above-described embodiments are not limited to the singular or plural elements, and the singular or plural elements may be composed of the singular or the plural. However, even a component expressed in the singular may be configured in plural.

한편 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 다양한 실시 예들이 내포하는 기술적 사상의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다.Meanwhile, in the description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the technical idea included in the various embodiments.

그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니되며 후술하는 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the claims below and equivalents thereof.

100: 감성 전달 장치 110: 사용자 인식부
120: 감정 정보 생성부 130: 진동촉각 정보 생성부
140: 데이터 처리부
100: emotional delivery device 110: user recognition unit
120: emotion information generation unit 130: vibration tactile information generation unit
140: data processing unit

Claims (13)

사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 사용자 인식부;
상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부;
상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부; 및
상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함하고,
상기 감정 정보 생성부는,
사용자 감정을 판단하기 위한 기준값에 해당하는 버퍼 용량만큼, 사용자 음성이 기록되었는지 판단하고,
상기 판단 결과, 상기 버퍼 용량만큼 사용자 음성이 버퍼에 기록된 경우에만 상기 인식된 사용자 음성을 분석하고,
상기 인식된 사용자 영상에서 확인되는 사용자의 눈의 모양 및 입의 모양을 비교 대상 프레임과 비교하여 표정 변화를 인식함으로써 상기 인식된 사용자 영상을 분석하되, 상기 인식된 사용자 영상으로부터 분할된 프레임을 이용해서 사용자 감정 정보를 생성하고, 상기 분할된 프레임 이후의 또 다른 프레임을 이용해서 상기 생성된 사용자 감정 정보를 업데이트하고,
상기 진동촉각 정보 생성부는 상기 생성된 사용자 감정 정보와 상기 업데이트되는 사용자 감정 정보를 이용해서 상기 진동촉각 정보를 생성하는
진동촉각기반의 감성 전달 장치.
A user recognizer configured to recognize at least one of a user voice and a user image;
An emotion information generator configured to analyze at least one of the recognized user voice and the recognized user image to generate user emotion information;
A vibration tactile information generating unit generating vibration tactile information based on the generated user emotion information; And
And a data processor configured to generate user emotion data based on at least one of the recognized user voice and the recognized user image and the generated vibration tactile information, and to transmit the generated user emotion data to a counterpart connected device. and,
The emotion information generation unit,
It is determined whether the user voice is recorded by the buffer capacity corresponding to the reference value for determining the user emotion,
As a result of the determination, the recognized user voice is analyzed only when the user voice is recorded in the buffer by the buffer capacity.
Analyzing the recognized user image by recognizing a change in facial expression by comparing the shape of the eye and the mouth of the user identified in the recognized user image with a comparison target frame, using a frame divided from the recognized user image Generate user emotion information, update the generated user emotion information using another frame after the divided frame,
The vibration tactile information generation unit generates the vibration tactile information by using the generated user emotion information and the updated user emotion information.
Vibration tactile based emotion transmission device.
제1항에 있어서,
상기 사용자 인식부는, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하고,
상기 감정 정보 생성부는, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는
진동촉각기반의 감성 전달 장치.
The method of claim 1,
The user recognition unit records the recognized user voice by a specific buffer capacity,
The emotion information generation unit analyzes the recorded user voice to generate first user emotion information.
Vibration tactile based emotion transmission device.
제2항에 있어서,
상기 사용자 인식부는, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는
진동촉각기반의 감성 전달 장치.
The method of claim 2,
The user recognition unit divides the recognized user image on a frame basis and recognizes a user face in each of the divided user images.
Vibration tactile based emotion transmission device.
제3항에 있어서,
상기 사용자 인식부는, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하고, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는
진동촉각기반의 감성 전달 장치.
The method of claim 3,
The user recognition unit determines the user image of the first frame and the user image of the second frame from the divided user image, compares the user image of the determined first frame with the user image of the determined second frame, and recognizes the image. To recognize facial expression changes on the user's face
Vibration tactile based emotion transmission device.
제4항에 있어서,
상기 감정 정보 생성부는, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는
진동촉각기반의 감성 전달 장치.
The method of claim 4, wherein
The emotion information generator is configured to analyze the user image of the determined first frame to generate second user emotion information.
Vibration tactile based emotion transmission device.
제5항에 있어서,
상기 감정 정보 생성부는, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하고, 상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는
진동촉각기반의 감성 전달 장치.
The method of claim 5,
The emotion information generator determines whether a user image of the second frame exists in the divided user image, and analyzes the recognized facial expression change when the user image of the second frame exists. To update user sentiment information
Vibration tactile based emotion transmission device.
제6항에 있어서,
상기 감정 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는
진동촉각기반의 감성 전달 장치.
The method of claim 6,
The emotion information generation unit generates the user emotion information including the generated first user emotion information and the updated second user emotion information.
Vibration tactile based emotion transmission device.
제7항에 있어서,
상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성하고,
상기 데이터 처리부는, 상기 인식된 사용자 음성 및 상기 생성된 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제1 사용자 감성 데이터를 전송하는
진동촉각기반의 감성 전달 장치.
The method of claim 7, wherein
The vibration tactile information generation unit generates first vibration tactile information based on the generated first user emotion information,
The data processor generates first user emotion data based on the recognized user voice and the generated first vibration tactile information, and transmits the generated first user emotion data to the counterpart device.
Vibration tactile based emotion transmission device.
제7항에 있어서,
상기 진동촉각 정보 생성부는, 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성하고,
상기 데이터 처리부는, 상기 인식된 사용자 영상 및 상기 생성된 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제2 사용자 감성 데이터를 전송하는
진동촉각기반의 감성 전달 장치.
The method of claim 7, wherein
The vibration tactile information generation unit generates second vibration tactile information based on the updated second user emotion information,
The data processor generates second user emotion data based on the recognized user image and the generated second vibration tactile information, and transmits the generated second user emotion data to the counterpart device.
Vibration tactile based emotion transmission device.
제7항에 있어서,
상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제3 진동촉각 정보를 생성하고,
상기 데이터 처리부는, 상기 인식된 사용자 음성, 상기 인식된 사용자 영상 및 상기 생성된 제3 진동촉각 정보에 기초하여 제3 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제3 사용자 감성 데이터를 전송하는
진동촉각기반의 감성 전달 장치.
The method of claim 7, wherein
The vibration tactile information generation unit generates third vibration tactile information based on the generated first user emotion information and the updated second user emotion information,
The data processor generates third user emotion data based on the recognized user voice, the recognized user image, and the generated third vibration tactile information, and transmits the generated third user emotion data to the counterpart device. Transmitting
Vibration tactile based emotion transmission device.
사용자 인식부에서, 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계;
감정 정보 생성부에서, 사용자 감정을 판단하기 위한 기준값에 해당하는 버퍼 용량만큼, 사용자 음성이 기록되었는지 판단하는 단계;
상기 판단 결과, 상기 버퍼 용량만큼 사용자 음성이 버퍼에 기록된 경우에만 상기 인식된 사용자 음성을 분석하고, 상기 인식된 사용자 영상에서 확인되는 사용자의 눈의 모양 및 입의 모양을 비교 대상 프레임과 비교하여 표정 변화를 인식함으로써 상기 인식된 사용자 영상을 분석하여 사용자 감정 정보를 생성하되, 상기 인식된 사용자 영상으로부터 분할된 프레임으로부터 사용자 감정 정보를 생성하고, 상기 분할된 프레임 이후의 또 다른 프레임을 이용해서 상기 생성된 사용자 감정 정보를 업데이트하는 단계;
진동촉각 정보 생성부에서, 상기 생성된 사용자 감정 정보와 상기 업데이트되는 사용자 감정 정보를 이용해서 상기 진동촉각 정보를 생성하는 단계; 및
데이터 처리부에서, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 단계를 포함하는
진동촉각기반의 감성 전달 방법.
Recognizing, by the user recognition unit, at least one of a user voice and a user image;
In the emotion information generator, determining whether a user voice is recorded by a buffer capacity corresponding to a reference value for determining a user emotion;
As a result of the determination, the recognized user voice is analyzed only when the user voice is recorded in the buffer as much as the buffer capacity, and the shape of the eyes and the mouth of the user identified in the recognized user image are compared with the comparison target frame. Recognizing facial expression changes to analyze the recognized user image to generate user emotion information, generating user emotion information from a frame divided from the recognized user image, and using another frame after the divided frame. Updating the generated user emotion information;
Generating, by the vibration tactile information generating unit, the vibration tactile information using the generated user emotion information and the updated user emotion information; And
In the data processing unit, generating user emotion data based on at least one of the recognized user voice and the recognized user image and the generated vibration tactile information, and transmitting the generated user emotion data to a counterpart device. Containing
Vibration tactile based emotion transmission method.
제11항에서,
상기 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계는,
상기 사용자 인식부에서, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하는 단계;
상기 사용자 인식부에서, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는 단계;
상기 사용자 인식부에서, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하는 단계; 및
상기 사용자 인식부에서, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는 단계를 포함하는
진동촉각기반의 감성 전달 방법.
In claim 11,
Recognizing at least one of the user voice and the user image,
Recording, by the user recognition unit, the recognized user voice by a specific buffer capacity;
Dividing the recognized user image by frame unit and recognizing a user face in each of the divided user images;
Determining, by the user recognizer, a user image of a first frame and a user image of a second frame from the divided user image; And
In the user recognition unit, comparing the determined user image of the first frame with the determined user image of the second frame, and recognizing a change in facial expression of the recognized user face;
Vibration tactile based emotion transmission method.
제12항에서,
상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 단계는,
상기 감정 정보 생성부에서, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는 단계;
상기 감정 정보 생성부에서, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는 단계;
상기 감정 정보 생성부에서, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하는 단계;
상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는 단계; 및
상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는 단계를 포함하는
진동촉각기반의 감성 전달 방법.
In claim 12,
Generating user emotion information by analyzing at least one of the recognized user voice and the recognized user image,
Generating, by the emotion information generator, first user emotion information by analyzing the recorded user voice;
Generating, by the emotion information generator, second user emotion information by analyzing the determined user image of the first frame;
Determining, by the emotion information generator, whether a user image of the second frame exists in the divided user image;
Updating the generated second user emotion information by analyzing the recognized facial expression change when the user image of the second frame exists; And
Generating the user emotion information including the generated first user emotion information and the updated second user emotion information.
Vibration tactile based emotion transmission method.
KR1020170163942A 2016-12-16 2017-12-01 Apparatus and method for transferring emotion based on vibrotactile KR102049838B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160172412 2016-12-16
KR1020160172412 2016-12-16

Publications (2)

Publication Number Publication Date
KR20180070467A KR20180070467A (en) 2018-06-26
KR102049838B1 true KR102049838B1 (en) 2020-01-08

Family

ID=62788609

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170163942A KR102049838B1 (en) 2016-12-16 2017-12-01 Apparatus and method for transferring emotion based on vibrotactile

Country Status (1)

Country Link
KR (1) KR102049838B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114035686B (en) * 2021-11-10 2024-04-16 浙江大学 Multi-mode inching effect advertisement situation construction method integrating touch sense

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101376148B1 (en) * 2009-03-10 2014-03-27 에스케이텔레콤 주식회사 Method for Transferring Vibration during Video Call and Mobile Communication Terminal therefor
KR101294214B1 (en) 2008-09-08 2013-08-08 에스케이플래닛 주식회사 Mobile Communications Terminal and Method for Delivering feeling of far end talker by Vibration
KR20100028764A (en) 2008-09-05 2010-03-15 에스케이 텔레콤주식회사 Mobile communications terminal and method for sending and receiving vibration information among voice communication
KR101337229B1 (en) * 2009-08-31 2013-12-05 에스케이플래닛 주식회사 System, Haptic Server and Method for Providing of Emotional State of User In Video Telephony

Also Published As

Publication number Publication date
KR20180070467A (en) 2018-06-26

Similar Documents

Publication Publication Date Title
US10659684B2 (en) Apparatus and method for providing dynamic panorama function
US10834503B2 (en) Recording method, recording play method, apparatuses, and terminals
US20150296167A1 (en) Method and system for communication
WO2014094199A1 (en) Facial movement based avatar animation
US20090096927A1 (en) System and method for video coding using variable compression and object motion tracking
CN104853081B (en) Breakpoint image pickup method, device and mobile terminal
CN106791535B (en) Video recording method and device
US20190212972A1 (en) Method and apparatus for playing audio files
CN105187692A (en) Video recording method and device
CN107040591A (en) A kind of method and device being controlled to client
WO2019172960A1 (en) Method and system for dynamically adjusting camera shots
KR102049838B1 (en) Apparatus and method for transferring emotion based on vibrotactile
US10136115B2 (en) Video shooting method and apparatus
WO2014110055A1 (en) Mixed media communication
KR102125525B1 (en) Method for processing image and electronic device thereof
CN104391742B (en) Optimizing application method and apparatus
CN105245898B (en) Image data recording method and device
CN105430260B (en) Obtain the method and device of video image
CN103529935A (en) User interface method and apparatus therefor
KR101713626B1 (en) Tagging system and method for sound data
US9538226B2 (en) Method for operating moving pictures and electronic device thereof
US20180246625A1 (en) Method and apparatus for implementation of video playback
US20160132287A1 (en) Dynamic Reconfiguration of Audio Devices
US11882401B2 (en) Setting a parameter value
KR102176673B1 (en) Method for operating moving pictures and electronic device thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)